• ‘I hope this isn’t for weapons’ : How Syrian #data_workers train AI

    The development and training of AI systems depend on hundreds of millions of data workers. Many of them are situated or displaced from the Global majority, and are generally kept in the dark on how the data they produce will be used.

    I met Fatma in June 2019 in Sofia, Bulgaria. Four years prior, she had been forced to leave her home in Aleppo with her whole family: her mother, father, older brother, and two younger siblings. Fatma was 17 when her parents paid the equivalent of nine thousand euros to men who smuggled the seven family members in the back of a van across landscapes and borders, until reaching Finland via Sofia. The smugglers had promised a house and a car in Finland for the sum paid, but this promise went unfulfilled. Instead, after six months, Fatma’s family was deported to Bulgaria because their “fingerprints were registered in Sofia first.” “We lost everything to have a good life because our lives were in danger,” she lamented. “Were they in danger because of the war?” I asked. “It was personal,” she replied cryptically.

    Fast forward to 2019, and Fatma, now 21, was living with her family in a refugee camp in the Bulgarian capital. While assisting her father at the camp’s hairdressing salon, she also worked part-time for the data-labeling company where I was conducting fieldwork. Interestingly, she was recruited by the company at the refugee camp. Following initial training in “digital skills” and English, Fatma was ready to assume her role as a data worker. During our initial conversation, she was at the company’s office, seated alongside Diana, another Syrian asylum seeker who was engaged in labeling images of people based on race, age, and gender. In contrast, Fatma was immersed in a project that involved satellite images and semantic segmentation—a critical task for computer vision that involves the meticulous separation and labeling of every pixel in an image. This form of data work holds particular importance in generating training data for AI, especially for computer vision systems embedded in devices such as cameras, drones, or even weapons. Fatma explained that the task basically consisted of separating “the trees from the bushes and cars from people, roads, and buildings.” Following this segmentation, she would attach corresponding labels to identify each object.
    Data Work Requires Skill

    Explained in this manner, the work might seem trivial and straightforward. Such tasks fall under what is known as microwork, clickwork, or, as I refer to it, data work. This constitutes the labor involved in generating data to train and validate AI systems. According to the World Bank, there are between 154 million and 435 million data workers globally, with many of them situated in or displaced from the World Majority. They often work for outsourcing platforms or companies, primarily as freelancers, earning a few cents per piece or task without the labor protections, such as paid sick leave, commonly found in more traditional employment relationships. Data workers generate data through various means that range from scraping information from the internet to recording their voices or uploading selfies. Similar to Fatma, they frequently engage in labeling tasks. Additionally, data workers may contribute to algorithm supervision, such as rating the outputs of recommender systems on platforms like Netflix or Spotify and assessing their usefulness, appropriateness, and toxicity. In other instances, data workers might be tasked with plainly impersonating non-existing AI systems and be instructed to “think like a robot” while pretending to be a chatbot, for instance.

    Despite its crucial role in the development and maintenance of AI technologies, data work is often belittled as micro or small, involving only a few clicks, and dismissed as low-skill or blue-collar. In fact, the platform Clickworker, a prominent provider of on-demand data work, claims on its website that “the tasks are generally simple and do not require a lot of time or skill to complete.” However, this assertion is inaccurate. During my fieldwork in Bulgaria, for instance, I attempted to segment and label satellite imagery, finding it extremely challenging. The work demands precision when drawing polygons around different objects in the pictures, which is also strenuous on the eyes and hands. Moreover, it requires contextual knowledge, including an understanding of what vegetation and vehicles look like in specific regions. Following the segmentation and labeling process by Fatma and her team, a rigorous quality check is conducted by a woman in the client’s company. Fatma’s manager in Bulgaria mentioned that the quality control person was “remarkably fast with the quality check and feedback” and added, “She’s able to do this quickly because she knows the images and the ground.” While taking note of this, I wondered how well the quality controller knows the ground. Does she come from the area where these images were taken? Is she, like Fatma, a refugee? Has her displacement been leveraged as expertise?

    I asked Fatma if the satellite images she was working on could be of Syria. She said she thought the architecture and vehicles looked familiar. Staring at the screen, she whispered, “I hope this isn’t for weapons.” Neither she nor I could be certain.
    The Known and the Unknown

    Fatma’s fear of the satellite images being used for AI weapons is not unfounded. The proliferation of autonomous drones and swarm technologies has experienced exponential growth in recent years, facilitated by the integration of AI in reconnaissance, target identification, and decision-making processes. Illustrating a poignant example, facial recognition technologies have been utilized to uphold the segregation and surveillance of the Palestinian people, while automated weapons have played a crucial role in the ongoing genocide in Gaza. Companies like the Israeli SmartShooter boast about their lethal capabilities with the slogan “One Shot, One Hit.”

    Surveillance drones, predictive analytics, and decision support systems are utilized for strategic planning in “threat anticipation” and real-time monitoring along border regions. For instance, the German Federal Office for Migration and Refugees (BAMF) employs image biometrics for identity identification and voice biometrics for dialect analysis to ascertain asylum seekers’ country of origin and evaluate their eligibility for asylum. This system purportedly recognizes dialects of Arabic, Dari, Persian/Farsi, Pashto, and Kurdish. As revealed by BAMF in response to a query initiated by German MPs, data workers subcontracted through the platform Clickworker (the same platform that claims tasks are simple and low-skill) participated in producing the voice samples required to develop the system.

    Fortunately, the data company in Bulgaria has a strong policy in place to reject requests related to warfare technologies. Fatma’s manager explained that “we have rejected projects related to (…) training artificial intelligence for different types of weapon applications. So, I felt that this really did not fit with our social mission, and when I responded to the client, I said that we’re working with conflict-affected people, and that’s why (…) But it was also a kind of boycott of such projects to be developed at all.” She added that the satellite imagery labeled by the team had been commissioned by a central European firm developing autonomous piloting systems for air transportation, not weapons. This information correlates with the client’s website. However, the website also states that their technology is additionally used for unmanned aerial vehicles (UAV), commonly known as drones, with applications including surveillance.
    Workers’ Ethical Concerns

    Privacy infringements and the potential for discriminatory profiling are among the most obvious concerns related to AI systems applied to border surveillance and warfare. Despite these risks disproportionately affecting their own communities, sometimes with lethal consequences, most data workers are kept in the dark concerning the ultimate purpose of the data they contribute to producing. The outsourcing of data work to external organizations, often situated far away from the requesters’ geographical location, complicates workers’ efforts to navigate the intricate supply chains that support the AI industry. Instructions given to data workers seldom provide details about the requester or the intended use of the data. Consequently, most data workers do not know the name and nature of the companies seeking their services, the products that will be trained on the datasets they generate, or the potential impacts of these technologies on individuals and communities. AI companies frequently rationalize the veil of secrecy as a means of safeguarding their competitive edge.

    The fact that data workers are integrated into industrial structures designed to keep them uninformed and subject to surveillance, retaliation, and wage theft does not mean that they do not have ethical concerns about their work and the AI applications it supports. In fact, there have been instances where data workers have explicitly alerted consumers to privacy-related and other ethical issues associated with the data they generate. For example, in 2022, Venezuelan data workers reported anonymously that Roomba robot vacuum cleaners capture pictures of users at home, which are then viewed by human workers.

    Amid the COVID-19 pandemic in 2021, I piloted a workshop series with fifteen data workers, this time located in Syria. The three-day event was designed to understand work practices and relationships in geographically distributed data-production contexts, creating a space for workers to discuss concerns. The workshop activities revealed that receiving information and having spaces to voice and discuss the ethical implications of the data they handle were of the utmost importance to the workers. They worried about the protection of data subjects’ privacy and advocated for a mandatory clause that would compel requesters to disclose the intended uses of the data. Additionally, the workers expressed concerns about the mental health implications of working with violent, offensive, or triggering data.

    Data workers possess a unique vantage point that can play a crucial role in the early identification of ethical issues related to data and AI. Encouraging consumers and society at large to align with them in advocating for increased transparency in the AI data production pipeline is essential. Workers like Fatma and her colleagues could offer valuable insights into the utilization of satellite images for surveillance technologies, for instance. Similarly, the native speakers who contributed their voices to generate audio snippets for dialect recognition may shed light on the applications of such systems against asylum seekers in Germany.

    Unfortunately, the challenge lies in the fact that the AI industry, for evident reasons, has structured its production processes for data workers to function more as silent tools than as whistleblowers.

    https://untoldmag.org/i-hope-this-isnt-for-weapons-how-syrian-data-workers-train-ai
    #travailleurs_de_données #entraînement #IA #AI #intelligence_artificielle #éthique #réfugiés #dublinés #camps_de_réfugiés #segmentation #travail #algorithmes #images_satellitaires #labeling #armes #armement #drones #voix #profiling #contrôles_frontaliers

  • ChatGPT’s Political Views Are Shifting Right, a New Analysis Finds

    While the chatbot still seems to lean left on many issues, its bias is changing.

    When asked about its political perspective, OpenAI’s #ChatGPT says it’s designed to be neutral and doesn’t lean one way or the other. A number of studies in recent years have challenged that claim, finding that when asked politically charged questions, the chatbot tends to respond with left-leaning viewpoints.

    That seems to be changing, according to a new study published in the journal Humanities and Social Sciences Communications by a group of Chinese researchers, who found that the political biases of OpenAI’s models have shifted over time toward the right end of the political spectrum.

    The team from Peking University and Renmin University tested how different versions of ChatGPT—using the GPT-3.5 turbo and GPT-4 models—responded to questions on the Political Compass Test. Overall, the models’ responses still tended toward the left of the spectrum. But when using ChatGPT powered by newer versions of both models, the researchers observed “a clear and statistically significant rightward shift in ChatGPT’s ideological positioning over time” on both economic and social issues.

    While it may be tempting to connect the bias shift to OpenAI and the tech industry’s recent embrace of President Donald Trump, the study authors wrote that several technical factors are likely responsible for the changes they measured.

    The shift could be caused by differences in the data used to train earlier and later versions of models or by adjustments OpenAI has made to its moderation filters for political topics. The company doesn’t disclose specific details about what datasets it uses in different training runs or how it calibrates its filters.

    The change could also be a result of “emergent behaviors” in the models like combinations of parameter weighting and feedback loops that lead to patterns that the developers didn’t intend and can’t explain.

    Or, because the models also adapt over time and learn from their interactions with humans, the political viewpoints they express may also be changing to reflect those favored by their user bases. The researchers found that the responses generated by OpenAI’s GPT-3.5 model, which has had a higher frequency of user interactions, had shifted to the political right significantly more over time compared to those generated by GPT-4.

    The researchers say their findings show popular generative AI tools like ChatGPT should be closely monitored for their political bias and that developers should implement regular audits and transparency reports about their processes to help understand how models’ biases shift over time.

    “The observed ideological shifts raise important ethical concerns, particularly regarding the potential for algorithmic biases to disproportionately affect certain user groups,” the study authors wrote. “These biases could lead to skewed information delivery, further exacerbating social divisions, or creating echo chambers that reinforce existing beliefs.”

    https://gizmodo.com/chatgpts-political-views-are-shifting-right-a-new-analysis-finds-2000562328

    #droite #AI #IA #intelligence_artificielle #droite #algorithmes #idéologie #openAI

  • #Intelligence_artificielle : les 7 choses qu’on ne vous dit pas

    Du 10 et 11 février, la France accueille le Sommet mondial sur l’Intelligence Artificielle. Au programme  : une vitrine sur l’avenir qui n’exposera pas les #dangers de l’IA. Bien que ces technologies offrent des avancées réelles - dans le domaine de la médecine par exemple - elle présente aussi des dangers sérieux pour les droits humains. Avec plusieurs organisations de la société civile, nous listons ici les faces cachées de l’IA qui ne seront pas présentées au sommet.

    En organisant à Paris le sommet mondial sur l’Intelligence artificielle (IA), Emmanuel Macron souhaite que «  la France ne passe pas à côté de cette révolution. » Sous couvert d’innovation, c’est la course à la productivité et au profit qui est en jeu. Au rythme foudroyant à laquelle l’IA se développe, les dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux que posent ces nouvelles technologies. Pourtant, l’un des plus grands enjeux est là.

    Développer l’IA pour continuer d’obtenir des avancées majeures dans des domaines comme la médecine oui, mais développer l’IA en mettant en péril des droits : c’est non. Les droits humains et la justice environnementale doivent être placés au cœur de la régulation de l’intelligence artificielle.

    Et parce que les dangers de l’IA ne figureront pas au programme officiel du Sommet mondial, nous vous les rappelons ici.

    1. L’IA perpétue le #racisme

    Pour fonctionner, l’IA s’appuie sur des #bases_de_données qui intègre les #préjugés et #biais des personnes qui l’ont créé. L’IA perpétue donc les #stéréotypes et accentue les #discriminations déjà existantes.

    ➡️Aux États-Unis, la police utilise une IA pour prédire la récidive criminelle. C’est le fait qu’une personne accusée va potentiellement commettre un nouveau un délit. Cette IA cible deux fois plus les accusés Noirs que les accusés Blancs.

    2. L’IA accentue le #sexisme

    L’intelligence artificielle s’impose comme un miroir de nos sociétés  : elle reflète, aussi, ses biais et accentue les #inégalités_de_genre. 

    ➡️En Autriche, des #algorithmes utilisés dans des outils d’accès à l’emploi ont écarté les femmes des secteurs informatique.

    3. L’IA permet la #cybercriminalité

    Les montages perçus les plus crédibles générés par IA sont un réel danger pour les femmes et les enfants.

    ➡️Les #deepfakes sont massivement utilisés dans le but de nuire aux femmes et de générer des contenus pédocriminels.

    4. L’IA impacte la planète

    ➡️D’ici 2027, l’IA générative nécessitera une alimentation en #électricité équivalente à celle de l’Argentine, cinq fois la France en superficie.

    Les pays du Sud sont les premiers impactés par les ravages écologiques de l’IA : les #data_center y pullulent, l’extraction de #minerais comme le #cobalt (utilisé pour la fabrication des #batteries) met en péril la santé des populations et entraîne la #pollution des eaux et des terres.

    Les émissions de CO2 des "géants de la Tech” ont augmenté de 30 à 50% en 2024 suite au développement fulgurant de l’intelligence artificielle.

    5. L’IA désinforme

    Beaucoup d’outils d’intelligence artificielle permettent et participent à la #désinformation  :

    ➡️Des «  #bots  », ces robots qui imitent l’activité humaine sur les réseaux sociaux pour manipuler l’information, en spammant du contenu, en renforçant la notoriété de comptes ou en diffusant de fausses informations.

    ➡️Montage photo généré par l’IA. Lors de la campagne américaine, Donald Trump a relayé une photo générée par IA montrant Kamala Harris de dos en leader communiste face à une foule de partisans. Une image vue 82 millions de fois.

    ➡️Les deepfakes, ces fausses vidéos de célébrité qui prolifèrent sur les réseaux sociaux, outil notamment utilisé lors de campagnes présidentielles pour attribuer de faux propos aux candidats en lice.

    À la vitesse laquelle se développe l’IA, il va devenir de plus en plus difficile de déceler le vrai du faux. 

    6. L’IA surveille

    Les systèmes d’IA sont aussi utilisés à des fins de #surveillance contre certaines populations. En témoigne les pratiques de la Chine, dotées d’outils dopées à l’IA pour surveiller la population ouïghoure. Et bien souvent, ces technologies sont développées par les pays occidentaux.

    ➡️L’IA est d’ailleurs déjà utilisée aux #frontières européennes à des fins de surveillance contre les personnes exilées. Parmi les outils  : des #détecteurs_de_mensonge et d’émotions sont utilisés pour contrôler les frontières. Baptisé #iBorderCtrl, le projet est financé par l’Union européenne et déjà testé dans 3 pays  : Hongrie, Grèce et Lettonie.

    7. L’IA peut tuer

    L’IA, c’est aussi ça  : des drones et autres armes sophistiquées capables de choisir leurs propres cibles et de les attaquer sans contrôle humain. Des robots-tueurs, décidant via leurs algorithmes de qui vit et de qui meurt, se développent et se vendent déjà sur le marché.

    ➡️À Gaza, l’armée israélienne a utilisé une IA appelée Lavender, censée cibler des terroristes mais qui ont provoqué la mort de milliers de civils gazaouis.

    https://www.amnesty.fr/actualites/intelligence-artificielle-les-sept-choses-qu-on-ne-vous-dit-pas

    #IA

    • TRIBUNE | « L’IA contre les droits humains, sociaux et environnementaux »

      Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles Attac, La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde » (https://www.lemonde.fr/idees/article/2025/02/06/l-intelligence-artificielle-accelere-le-desastre-ecologique-renforce-les-inj), qu’il faut résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux.

      Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

      Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.

      Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?
      Des conséquences désastreuses

      Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ?

      Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou de l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

      Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace, alors qu’il cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé.
      Une maîtrise démocratique

      A longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux États-Unis et à la Chine.

      Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance.

      Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

      La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.
      Premiers signataires

      David Maenda Kithoko, président de Génération Lumière ; Julie Le Mazier, cosecrétaire nationale de l’union syndicale Solidaires ; Julien Lefèvre, membre de Scientifiques en rébellion ; Marc Chénais, directeur de L’Atelier paysan ; Nathalie Tehio, présidente de la Ligue des droits de l’homme ; Raquel Radaut, porte-parole de La Quadrature du Net ; Soizic Pénicaud, membre de Féministes contre le cyberharcèlement ; Sophie Vénétitay, secrétaire générale du SNES-FSU ; Stéphen Kerckhove, directeur général d’Agir pour l’environnement ; Vincent Drezet, porte-parole d’Attac France.

      https://france.attac.org/actus-et-medias/salle-de-presse/article/l-ia-contre-les-droits-humains-sociaux-et-environnementaux

  • La #justice confirme enfin l’#illégalité de #Briefcam

    #Victoire totale aujourd’hui au tribunal administratif de Grenoble ! L’affaire opposant La Quadrature du Net à la ville de #Moirans, en Isère, s’achève par une décision reconnaissant l’illégalité du logiciel de #vidéosurveillance algorithmique Briefcam. La justice ordonne à la commune de cesser immédiatement l’utilisation de ce #logiciel.

    Le logiciel de Briefcam est installé en toute opacité dans de très nombreuses communes de France. Techniquement, il permet d’appliquer des #filtres_algorithmiques sur les images de vidéosurveillance pour suivre ou retrouver les personnes en fonction de leur apparence, leurs vêtement, leur genre ou encore leur visage via une option de reconnaissance faciale. Depuis des années, nous dénonçons la dangerosité de cette #vidéosurveillance_algorithmique (#VSA) qui est un outil inefficace et utilisé surtout pour le contrôle des populations dans l’#espace_public. En parallèle, nous rappelons constamment son illégalité manifeste et le laisser-faire des pouvoirs publics.

    Ainsi, nous avons récemment critiqué la prise de position de la CNIL venue au secours de la police et la gendarmerie nationale, qui utilisaient ce logiciel depuis 2015 et 2017 sans l’avoir déclaré. La CNIL avait validé leur interprétation juridique farfelue pour sauver leur utilisation de ce logiciel dans le cadre d’enquête.

    Or, dans cette affaire contre l’utilisation de Briefcam à Moirans, la CNIL était opportunément intervenue quelques semaines avant l’audience pour affirmer que Briefcam serait légal si utilisé par une commune pour répondre à des réquisitions judiciaires. La décision du #tribunal administratif de Grenoble vient donc contredire frontalement cette position : il estime que le logiciel Briefcam met en œuvre un traitement de #données_personnelles disproportionné et qui n’est pas prévu par la loi, y compris dans le cas particulier d’enquêtes judiciaires.

    Cette décision d’illégalité est une #victoire sans précédent dans notre lutte contre la VSA. Les habitant·es de toute ville, à l’instar de Saint-Denis, Reims ou encore Brest qui ont choisi de mettre en place ce type de #surveillance_algorithmique, peuvent légitimement en demander l’arrêt immédiat. Les promoteurs politiques et économiques de la #Technopolice doivent faire face à la réalité : leurs velléités de #surveillance et de #contrôle de la population n’ont pas leur place dans notre société. La CNIL n’a plus d’autre choix que d’admettre son erreur et sanctionner les communes qui continueraient d’utiliser de la VSA.

    https://www.laquadrature.net/2025/01/30/la-justice-confirme-enfin-lillegalite-de-briefcam
    #efficacité #inefficacité #algorithmes

  • #Bruxelles Les cliniques Saint-Luc touchées par une panne informatique : la majorité des rendez-vous de ce mercredi annulés RTBF

    Les cliniques universitaires Saint-Luc, à Bruxelles, sont touchées par une « importante » panne informatique, annonce un communiqué. A ce stade, précise ce dernier, il n’y a aucune indication de cyberattaque extérieure. 

    La prise en charge des patients actuellement hospitalisés se poursuit normalement et en toute sécurité, selon l’hôpital. « L’activité doit néanmoins être réduite temporairement ». Ce mercredi 22 janvier, toutes les consultations seront annulées, ainsi que tous les examens pour les patients ambulatoires (radiologie, IRM, radiothérapie, endoscopies, etc.). C’est aussi le cas de toutes les interventions chirurgicales non vitales. Au niveau des urgences, seules les urgences vitales seront assurées. Tout est par contre mis en oeuvre pour maintenir les chimiothérapies et les dialyses. 

    Saint-Luc demande de ne pas tenter de joindre l’hôpital jusqu’à nouvel ordre, et renvoie vers son site saintluc.be.


    Source : https://www.rtbf.be/article/les-cliniques-saint-luc-touchees-par-une-panne-informatique-la-majorite-des-ren 

    #bug #bugs #algorithme #santé #sante #technologisme Pas besoin de #cyberattaque ni de #hacking , ça se plante tout seul. #médecine #santé_publique #technologie #geek

  • À #France_Travail, l’essor du #contrôle_algorithmique

    « #Score_de_suspicion » visant à évaluer l’honnêteté des chômeur·ses, « #score_d’employabilité » visant à mesurer leur « #attractivité », algorithmes de #détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à « risque de dispersion »… France Travail multiplie les #expérimentations de #profilage_algorithmique des personnes sans emploi.

    Mise à jour du 12 juillet 2024 : le directeur général de France Travail a souhaité utiliser son droit de réponse. Vous la trouverez à la suite de l’article.

    Après avoir traité de l’utilisation par la #CAF d’un algorithme de notation des allocataires, nous montrons ici que cette pratique est aussi partagée par France Travail, ex-#Pôle_Emploi. À France Travail, elle s’inscrit plus largement dans le cadre d’un processus de #numérisation_forcée du #service_public de l’#emploi.

    –-> Retrouvez l’ensemble de nos publications sur l’utilisation par les organismes sociaux d’algorithmes à des fins de contrôle social sur notre page dédiée et notre Gitlab : https://git.laquadrature.net/la-quadrature-du-net/algo-et-controle.

    Au nom de la « #rationalisation » de l’action publique et d’une promesse « d’#accompagnement_personnalisé » et de « #relation_augmentée », se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette #automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de #surveillance_de_masse visant à un #contrôle_social toujours plus fin et contribuant à une #déshumanisation de l’accompagnement social.

    De la CAF à France Travail : vers la multiplication des « scores de suspicion

    C’est, ici encore, au nom de la « #lutte_contre_la_fraude » que fut développé le premier algorithme de #profilage au sein de France Travail. Les premiers travaux visant à évaluer algorithmiquement l’#honnêteté des personnes sans emploi furent lancés dès 2013 dans la foulée de l’officialisation par la CAF de son algorithme de notation des allocataires. Après des premiers essais en interne jugés « frustrants » [1], France Travail – à l’époque Pôle Emploi – se tourne vers le secteur privé. C’est ainsi que le développement d’un outil de détermination de la probité des demandeur·ses d’emploi fut confié à #Cap_Gemini, une multinationale du CAC40 [2].

    La #notation des chômeur·ses est généralisée en 2018. La présentation qui en est faite par France Travail donne à voir, comme à la CAF, l’imaginaire d’une institution assiégée par des chômeur·ses présumé·es malhonnêtes. Ses dirigeant·es expliquent que l’algorithme assigne un « score de suspicion » – dans le texte – visant à détecter les chômeur·ses les plus susceptibles « d’#escroquerie » grâce à l’exploitation de « #signaux_faibles » [3]. Une fois l’ensemble des personnes sans emploi notées, un système d’« #alertes » déclenche ainsi des #contrôles lorsque l’algorithme détecte des situations « suspectes » (emploi fictif, usurpation d’identité, reprise d’emploi non déclarée) [4].

    Pour l’heure, France Travail s’est refusé à nous communiquer le code source de l’algorithme. Au passage, notons que ses dirigeants ont par ailleurs refusé, en violation flagrante du droit français, de fournir la moindre information aux demandeur·ses d’emploi que nous avions accompagné·es pour exercer leur droit d’accès au titre du #RGPD [5]. Nous avons cependant obtenu, via l’accès à certains documents techniques, la liste des variables utilisées.

    On y retrouve une grande partie des données détenues par France Travail. Aux variables personnelles comme la nationalité, l’âge ou les modalités de contact (mails, téléphone…) s’ajoutent les données relatives à notre vie professionnelle (employeur·se, dates de début et de fin de contrat, cause de rupture, emploi dans la fonction publique, secteur d’activité…) ainsi que nos #données financières (RIB, droits au chômage…). À ceci s’ajoute l’utilisation des données récupérées par France Travail lors de la connexion à l’espace personnel (adresse IP, cookies, user-agent). La liste complète permet d’entrevoir l’ampleur de la #surveillance_numérique à l’œuvre, tout comme les risques de #discriminations que ce système comporte [6].

    #Profilage_psychologique et gestion de masse

    Fort de ce premier « succès », France Travail décide d’accroître l’usage d’algorithmes de profilage. C’est ainsi que, dès 2018, ses dirigeant·es lancent le programme #Intelligence_Emploi [7]. Son ambition affichée est de mettre l’#intelligence_artificielle « au service de l’emploi » pour « révéler à chaque demandeur d’emploi son #potentiel_de_recrutement » [8].

    Un des axes de travail retient notre attention : « Accélérer l’accès et le retour à l’emploi [via un] #diagnostic “augmenté” pour un accompagnement plus personnalisé ». Ici, l’#IA doit permettre de d’« augmenter la capacité de diagnostic » relative aux « traitements des aspects motivationnels » via la « détection de signaux psychologiques » [9]. En son sein, deux cas d’usage retenus sont particulièrement frappants.

    Le premier est le développement d’algorithmes visant à « anticiper les éventuels #décrochages », prévenir les « #risques_de_rupture » [10] ou encore « détecter les moments où ils [les personnes au chômage] peuvent se sentir découragés ou en situation de fragilité » [11].

    Ces travaux ont trouvé, au moins en partie [12], un premier aboutissement dans l’outil du #Journal_de_la_Recherche_d’Emploi (#JRE) actuellement expérimenté dans plusieurs régions de France [13]. Le JRE assigne à chaque incrit·e quatre scores de « profilage psychologique » visant respectivement à évaluer la « dynamique de recherche » d’emploi, les « signes de perte de confiance », le « besoin de #redynamisation » ou les « risques de dispersion » [14].

    Ces informations sont synthétisées et présentées aux conseiller·es sous la forme d’un tableau de bord. « Parcours à analyser », « Situations à examiner », « Dynamique de recherche faible » : des alertes sont remontées concernant les chômeur·ses jugé·es déficient·es par tel ou tel algorithme. Le ou la conseiller·e doit alors faire un « #diagnostic_de_situation » – via l’interface numérique – afin d’« adapter l’intensité » des « actions d’accompagnement ». Et là encore, ils et elles peuvent s’appuyer sur des « #conseils_personnalisés » générés par un dernier algorithme [15].

    Contrôle, #mécanisation et déshumanisation de l’accompagnement : voilà la réalité de ce que le directeur de France Travail appelle « l’accompagnement sur mesure de masse » [16].

    Diagnostic et score d’#employabilité

    Le second cas d’usage est tout aussi inquiétant. Il s’agit de déterminer la « qualité » d’un·e demandeur·se d’emploi. Ou, pour reprendre les termes officiels, son « employabilité » [17]. Ce projet n’est pas encore déployé à grande échelle, mais nous savons qu’une première version – basée, elle, sur des techniques d’intelligence artificielle [18] – a été développée en 2021 [19].

    L’algorithme alloue à chaque inscrit·e un score prédisant ses « chances de retour à l’emploi ». Véritable outil automatique de #tri des chômeur·ses, il vise à organiser la « #priorisation des actions d’accompagnement » [20] en fonction d’un supposé #degré_d’autonomie de la personne sans emploi.

    Si les informations disponibles sur ce projet sont limitées, on peut imaginer que ce score permettra le contrôle en temps réel de la « progression de la #recherche_d’emploi » via les actions entreprises pour améliorer « l’attractivité [de leur] profil » [21]. Il serait alors un indicateur d’évaluation en continu de la bonne volonté des chômeur·ses.

    Mais on peut aussi penser qu’il sera utilisé pour inciter les personnes sans emploi à se diriger vers les « #métiers_en_tension », dont une majorité concentre les conditions de travail les plus difficiles. En demandant aux chômeur·ses d’améliorer leur score, via une #réorientation, ils et elles seraient encouragé·es à accepter un emploi au rabais.

    Agenda partagé & agences virtuelles

    Mais l’étendue du processus de numérisation à l’oeuvre à France Travail va bien au-delà de ces exemples. Côté contrôle numérique, citons l’interface « #XP_RSA » [22], l’outil numérique déployé dans le cadre de la récente réforme du #RSA. Cette interface n’est rien d’autre qu’un agenda partagé permettant de déclarer, et de contrôler, les quinze à vingt « #heures_d’activité » hebdomadaires dont vont devoir s’acquitter les bénéficiaires du minima social. Son remplissage forcé est un pas supplémentaire vers le #flicage des plus précaires.

    Côté IA, France Travail a lancé en 2024 le programme « #Data_IA » [23], successeur d’Intelligence Emploi mentionné plus haut. Présenté avec fracas au salon de l’« innovation technologique » VivaTech – organisé par le groupe Publicis –, on retrouve parmi les projets en développement une #IA_générative visant à numériser l’accompagnement et la #recherche_d’emploi (« #Match_FT ») [24]. France Travail s’intéresse aussi aux « #maraudes_numériques » pour « remobiliser les jeunes les plus éloignés de l’emploi » [25] et au développement d’« #agences_virtuelles » [26].

    #Austérité, automatisation et #précarisation

    La numérisation de France Travail signe la naissance d’un modèle de gestion de masse où coexistent une multitude d’algorithmes ayant chacun la tâche de nous classifier selon une dimension donnée. Risque de « fraude », de « dispersion », de « perte de confiance », suivi des diverses obligations : les capacités de collecte et de traitements de données sont mises au service de la détection, en temps réel, des moindres écarts à des normes et règles toujours plus complexes [27]. Cette numérisation à marche forcée sert avant tout à contrôler les personnes sans emploi [28].

    À l’heure où Gabriel Attal annonce une énième réforme de l’assurance-chômage passée en force alors que l’Assemblée nationale est dissoute, ce contrôle ne cache plus son but : forcer les plus précaires à accepter des #conditions_de_travail toujours plus dégradées [29].

    Loin des promesses de « libérer du temps pour les conseillers » ou d’offrir un accompagnement « plus réactif et plus personnalisé » [30] aux personnes sans emploi, cette numérisation contribue à la déshumanisation d’un service essentiel et à l’#exclusion des plus précaires, voire tend à une généralisation du #non-recours_aux_droits. Il ne s’agit pas d’idéaliser le traitement « au guichet », mais de rappeler que la numérisation forcée accentue les écueils de ce dernier. En accompagnant la fermeture des points d’accueil, elle transfère une partie du travail administratif aux personnes usagères du service public, participant à l’éloignement de celles et ceux qui ne sont pas en mesure de le prendre en charge [31].

    En standardisant les processus d’accompagnement, via la #quantification de chaque action et le profilage de toute une population, elle restreint les possibilités d’échange et supprime toute possibilité d’accompagnement réellement personnalisé [32].

    En facilitant le contrôle généralisé, elle accentue enfin la #stigmatisation des plus précaires et participe activement à leur #paupérisation.

    –-

    Mise à jour du 12 juillet 2024

    À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, a souhaité exercer son droit de réponse que nous publions ci-dessous in extenso.

    « Madame, Monsieur,

    Je reviens vers vous suite à mon précédent courrier du 2 juillet.

    Bien que le délai de 3 jours prévu à l’article 1.1-III de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique soit aujourd’hui expiré, je constate que le droit de réponse qui vous a été adressé n’a pas été publié. Pour rappel, le non-respect de cette obligation est passible d’une amende de 3 750 €.

    Aussi, je réitère par la présente ma demande de publication d’un droit de réponse suite à la parution le 25 juin 2024 de l’article intitulé « A France Travail, l’essor du contrôle algorithmique » (librement accessible à l’adresse : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique).

    Dans cet article, vous évoquez un « service public de l’emploi largement automatisé », ainsi qu’une utilisation des algorithmes qui « contribue à la déshumanisation d’un service essentiel », favorise « la stigmatisation des plus précaires et participe activement à leur paupérisation » et constitue « un pas supplémentaire vers le flicage des plus précaires ». Il s’agirait d’une « extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social », cette « numérisation à marche forcée ser[van]t avant tout à contrôler les personnes sans emploi ». Vous faites également état de « la fermeture des points d’accueil ».

    Nous nous inscrivons en faux contre ces propos erronés qui conduisent à jeter un discrédit sur le travail des plus de 55 000 collaborateurs qui accompagnent chaque jour les demandeurs d’emploi et les entreprises et à travestir la réalité concernant l’usage que nous faisons de ces algorithmes.

    L’utilisation des algorithmes au sein de France Travail ne vise en aucun cas à remplacer le travail des conseillers. L’intelligence artificielle (IA) vient en complément et ne se substitue jamais à une intervention humaine. Au contraire, nous concevons les algorithmes et l’IA comme des outils d’aide à la décision pour les conseillers ou un moyen de leur libérer du temps administratif afin de leur permettre de se consacrer pleinement à l’accompagnement des demandeurs d’emploi.

    Toute utilisation d’algorithmes est en outre encadrée par une charte éthique (https://www.francetravail.org/accueil/communiques/pole-emploi-se-dote-dune-charte-pour-une-utilisation-ethique-de-linte) qui décrit nos engagements pour garantir un cadre de confiance respectueux des valeurs de France Travail, à l’opposé de toute « notation de chômeurs » que vous pointez dans votre article. Un comité d’éthique externe composé de personnalités qualifiées garantit le respect de ce cadre. En aucun cas, les algorithmes ne sont utilisés pour « encourager les demandeurs d’emploi à accepter des emplois au rabais ».

    Concernant la « mécanisation » ou la « déshumanisation » de l’accompagnement que vous avancez, c’est méconnaitre le travail que réalisent les conseillers quotidiennement dans plus de 900 agences ou par téléphone. Aucun projet de fermeture d’agence n’est d’ailleurs envisagé contrairement à ce que vous dites et France Travail est un des rares services publics à être ouvert tous les jours, sur flux le matin et sur rendez-vous l’après-midi. Plus de 8,8 millions de personnes sont venues dans nos agences l’année dernière. Cet accueil en agence reflète justement notre politique de proximité et d’accompagnement notamment des plus précaires. L’ambition de la loi pour le plein emploi est en outre de renforcer l’accompagnement humain des plus éloignés, en particulier des bénéficiaires du RSA.

    Vous parlez enfin de « flicage des plus précaires » à travers l’utilisation d’algorithmes concernant le contrôle de la recherche d’emploi et la lutte contre la fraude. Il convient tout d’abord de souligner que ce sont deux activités distinctes, le contrôle de la recherche d’emploi ne saurait être assimilé à de la lutte contre de la fraude, qui est, par définition, une activité illégale et susceptible de poursuites pénales. Sur ce dernier point, l’utilisation des données dans la lutte contre la fraude vise avant tout à protéger nos usagers. En effet, la majorité des situations recherchées par les équipes de France Travail ne concerne pas des demandeurs d’emploi mais des individus qui détournent les services d’indemnisation du chômage, bien souvent au préjudice de nos usagers : usurpation d’identité des demandeurs d’emploi pour s’approprier leurs droits à l’assurance chômage ou détourner leurs paiements, individus se fabricant un faux passé professionnel ou une fausse résidence en France pour ouvrir des droits indus. Concernant le contrôle de la recherche d’emploi, là encore nous réfutons vivement l’idée selon laquelle nous mènerions une chasse aux plus précaires. Tout demandeur d’emploi inscrit à France Travail bénéficie de droits mais a également des devoirs qui lui sont présentés dès son inscription, dont celui de rechercher activement un emploi. 600 conseillers sont dédiés à ce contrôle et là encore, l’IA est un outil d’aide et en aucun la pierre angulaire des contrôles réalisés par ces conseillers en contact avec les demandeurs d’emploi tout au long de ce processus de contrôle. Là encore votre article méconnaît le travail de nos conseillers et constitue une atteinte à leur engagement et à leur intégrité.

    Je vous remercie de publier sans délai ce droit de réponse. A défaut, je me réserve la possibilité de saisir les juridictions à cet effet.

    Je vous prie d’agréer, Madame, Monsieur, l’expression de mes sincères salutations.

    Thibaut Guilluy »

    Notre réponse :

    À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, nous a initialement écrit pour faire des remarques d’ordre général sur notre article. Puis, dans une nouvelle lettre reçue aujourd’hui, il est subitement passé aux menaces : nous n’aurions, selon lui, pas fait droit à sa prétendue « demande de publication d’un droit de réponse ». Ces menaces sont particulièrement malvenues et, au demeurant, totalement vaines, puisque rien dans son courrier initial n’indiquait qu’il s’agissait d’une demande de droit de réponse…

    Le directeur général de France Travail s’en tient à une poignée d’éléments de langage sans jamais répondre sur le fond. Pas un mot sur la multiplication des algorithmes de profilage à des fins de contrôle. Tout au plus y apprend-on que des algorithmes d’IA sont aussi utilisés à des fins de « contrôle de la recherche d’emploi », ce que nous ignorions.

    Cette lettre se borne ainsi à un simple exercice, maladroit et malvenu, de communication. Elle s’essaye vainement à réfuter l’expression de « flicage des plus précaires » pour décrire les outils de surveillance des allocataires du RSA. La mise en place d’un agenda partagé pour le contrôle des 15 à 20 heures d’activité de ces dernier·ès serait ainsi – il faut savoir apprécier l’humour – une mesure visant à « renforcer l’accompagnement humain ».

    Quant à l’impact de la numérisation sur l’accueil des plus précaires, le directeur général de France Travail nie la réalité, tout comme son homologue de la CNAF, afin de minimiser l’étendue de la surveillance et le projet politique sous-jacent. Qu’a-t-il donc à répondre à la Défenseure des droits qui, en 2022 dans son deuxième rapportsur la dématérialisation des services publics, rappelait la hausse des inégalités et des réclamations en raison de cette dématérialisation « à marche forcée » ?

    Enfin, opposer, comme le fait cette lettre, le travail des salarié·es de France Travail et notre action de documentation et d’alerte sur les abus de l’administration est stérile : la déshumanisation et le changement de nature du service public se font non seulement au détriment des personnes au chômage mais également des agent·es de France Travail, comme l’ont dénoncé syndicats et associations au moment de la réforme de l’assurance chômage et la transformation de Pôle Emploi en France Travail [33].

    Ce que cette lettre souligne avant tout c’est donc l’absence de recul, de capacité de remise en cause et d’esprit critique du directeur général de France Travail quant à l’extension des logiques de contrôle numérique au sein de son institution. Ou sa pleine adhésion à ce projet.
    Notes

    [1] Voir cette note de synthèsenote de synthèse revenant sur les premières expérimentation faites par Pôle Emploi.

    [2] Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring.

    [3] L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’ article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.

    [4] L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document.

    [5] Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.

    [6] Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page.

    [7] Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.

    [8] Rapport annuel 2018 de Pôle Emploi disponible ici.

    [9] Voir cette note envoyée par Pôle Emploi à la DINUM.

    [10] voir note 9

    [11] Voir ce support de webinaire.

    [12] En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement.

    [13] Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.

    [14] Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici.

    [15] Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es.

    [16] Voir cette interview du directeur actuel de France Travail.

    [17] Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.

    [18] Voir cette note envoyée par Pôle Emploi à la DINUM en 2020.

    [19] Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021.

    [20] voir note 18

    [21] Voir ce document sur l’utilisation de l’IA à Pôle Emploi.

    [22] Voir ce document de présentation de XP RSA.

    [23] Voir ce document de présentation du programme Data IA.

    [24] Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.

    [25] Voir ce tweet.

    [26] Voir ce tweet.

    [27] Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet articledu même journal.

    [28] Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible Sur le triplement des contrôles, voir ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon.

    [29] voir note 27

    [30] Voir, entre autres, cette vidéo du responsable du programme Data IA.

    [31] Voir le livre L’Etat social à distance de Clara Deville.

    [32] Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD.

    [33] La CGT a dénoncé une réforme qui n’« est pas favorable » aux personnes sans emploi. La CGT Pôle Emploi y voit une numérisation du service public qui « détruira les nécessaires relations humaines, et accentuera la fracture numérique et donc la précarité » et une réforme qui va « renforcer les devoirs au détriment des droits », ou encore « accroître les tensions entre les agents et les demandeurs d’emploi ». Solidaires a dénoncé le caractère « trompeur » de l’accompagnement. Côté personnes sans emploi, le constat est le même : cette transformation rend les personnes « Coupable[s] d’être au chômage » d’après le comité National CGT des Travailleurs Privés d’Emploi et Précaires. Enfin, les associations de solidarité et des syndicats ont ensemble dénoncé dans le Monde le « risque des contrôles abusifs de la situation globale des ménages ».

    https://lagrappe.info/?A-France-Travail-l-essor-du-controle-algorithmique-1132
    #algorithme #chômage #profilage

  • Pour un universalisme minoritaire - avec #Bruno_Perreau

    Les condamnations répétées du wokisme, du communautarisme, du séparatisme, du « politiquement correct » reflètent la même peur des « #minorités » qui seraient devenues vindicatives voire « tyranniques »... Loin de ces fantasmes conservateurs reste ouverte la question de comment vivre les uns avec les autres dans une société plus juste ? Comment mener des combats minoritaires en échappant à l’#essentialisation ? Comment penser la présence minoritaire non pas comme une substance mais comme une relation ? C’est ce dont on va parler ce soir avec Bruno Perreau que nous recevons pour son livre Sphères d’injustice paru aux Éditions de La Découverte.

    https://spectremedia.org/les-oreilles-loin-du-front/?playing=2015
    #philosophie #justice #présence #co-présence #convergence_des_luttes #coalition

  • Aux Pays-Bas, le coût d’un scandale sur les allocations familiales qui engorge les tribunaux

    Pendant une dizaine d’années, des dizaines de milliers de familles ont été accusées à tort de fraudes et contraintes de rembourser les sommes perçues, quitte à s’endetter. En mars 2020, des dédommagements financiers avaient été décidés.

    L’administration et la justice néerlandaises sont désormais totalement débordées par l’ampleur de « l’affaire des allocations », un scandale qui a, pendant une dizaine d’années, injustement pénalisé des milliers de parents, accusés à tort de fraudes aux #allocations familiales. Les tribunaux sont saisis de 9 300 #recours contre les autorités et quelque 500 nouveaux dossiers sont ouverts chaque mois. Les familles lésées seraient officiellement au nombre de 68 000.

    Dans des arrêts récents relevés par le journal De Volkskrant, les tribunaux de Rotterdam et d’Utrecht, entre autres, ont dénoncé la situation, ingérable selon eux, créée par le gouvernement et le Parlement. Les familles contestent souvent les montants qui leur sont octroyés en #dédommagement, d’où l’engorgement des tribunaux et de l’administration chargée d’évaluer le #préjudice qu’elles ont subi. Si le service chargé des indemnisations ne prend pas de décision sur un recours dans un délai de deux semaines, il doit verser aux demandeurs une indemnité de quelque 1 400 euros. S’il n’y parvient pas au bout de douze semaines, les plaignants peuvent se pourvoir en justice et les tribunaux ont, quant à eux, huit semaines pour trancher. Si, à leur tour, ils n’y arrivent pas – ce qui est de plus en plus fréquent –, l’indemnité à verser aux plaignants peut atteindre 15 000 euros.

    Complexe, la situation est devenue carrément chaotique à la suite de la découverte d’abus : des familles ont introduit plusieurs recours successifs et d’autres, qui n’ont pourtant pas été victimes des pratiques abusives du fisc, ont elles aussi déposé plainte. A charge pour l’administration d’examiner quand même leur dossier dans le délai fixé et, le cas échéant, de les indemniser si elle ne répond pas à temps. Le tribunal de Rotterdam a, lui, décidé unilatéralement, en juillet 2024, de limiter le montant de ces indemnités mais il s’est exposé à un recours devant le Conseil d’Etat, le tribunal administratif suprême.

    [...]

    L’affaire a eu des répercussions en France, où l’association de défense des libertés numériques La Quadrature du Net, Le Monde et le média Ligthouse Reports ont révélé, en 2023, les méthodes assez semblables utilisées depuis 2010 par la Caisse nationale d’allocations familiales (CNAF). L’#algorithme utilisé par la CNAF, jusque-là secret, était, selon cette enquête, programmé pour cibler de façon discriminatoire les allocataires les plus précaires, chômeurs, handicapés, ou ménages à faible revenu.
    https://www.lemonde.fr/international/article/2025/01/09/aux-pays-bas-le-cout-d-un-scandale-sur-les-allocations-familiales-qui-engorg

    https://justpaste.it/d3xa5

    (en France, il semble qu’actuellement seules 1% des décisions de la CAF négatives pour les allocataires fassent l’objet d’un contentieux juridique)

    #fraude #suspicion_de_fraude #racisme #droits_sociaux #justice

  • Les quatre impasses du RSA sous conditions, désormais généralisé | Alternatives Economiques
    https://www.alternatives-economiques.fr/quatre-impasses-rsa-conditions-desormais-generalise/00113598
    https://www.alternatives-economiques.fr/sites/default/files/public/styles/for_social_networks/public/field/image/080_hl_mcohen_2319969.webp?orig=jpg&itok=ufKEkF2U

    Depuis le 1er janvier, tous les allocataires du revenu de solidarité active doivent effectuer quinze heures d’activité par semaine. Une mesure généralisée alors que son expérimentation est critiquée par plusieurs rapports.

    #RSA #paywall...

    • Le 1er janvier est souvent synonyme de changements : bonnes résolutions, potentielles revalorisations salariales… et entrée en vigueur de nouvelles réglementations.

      Dans cette dernière catégorie, ce début d’année 2025 marque le coup d’envoi de la généralisation du RSA (revenu de solidarité active) dit « rénové ». Concrètement, dans le cadre de la #loi_plein-emploi, il a été acté que pour bénéficier de cette aide (635,71 euros par mois pour une personne seule, dit-elle faussement : c’est 563e en fait), les individus _(wesh !)_doivent désormais réaliser au moins quinze heures d’activités par semaine.

      Problème, les critiques s’accumulent contre cette conditionnalité. Et elles ne sont pas gratuites puisqu’elles se basent sur l’expérimentation qui a été menée ces derniers mois dans plusieurs territoires. Pour rappel, dès 2023, des bassins de vie situés dans 18 départements ont testé le dispositif. Avant un élargissement à 47 départements à partir du 1er mars 2024.

      Comme nous l’avions dévoilé dans un article précédent, un rapport, réalisé en juillet par deux cabinets mais initialement non publié, avait mis en lumière de nombreuses limites de l’expérimentation du RSA rénové (faible retour à un travail durable, manque de moyens financiers pour le suivi, référentiel peu clair pour les quinze heures d’activités hebdomadaires…).

      Dans un autre document, publié fin octobre, les associations ATD Quart Monde, Secours catholique et Aequitaz alertaient à leur tour sur les risques que présente la réforme. En se basant sur les témoignages de professionnels de l’insertion et des allocataires du RSA ainsi qu’une veille documentaire réalisée à partir des chiffres de #France_Travail, des préfectures et d’enquêtes journalistiques, les associations ont identifié de nombreuses limites, qui avaient d’ailleurs été largement anticipées par des expertes et experts du sujet.

      1/ Travail gratuit et substitution

      Premier danger, la transformation potentielle des heures d’activité en pur travail gratuit. « Ce risque n’est pas nouveau, explique Maud Simonet, directrice de recherche en sociologie au CNRS. On l’a constaté à chaque mise en place de logiques de contreparties, notamment aux Etats-Unis1. On le décèle en France aussi, surtout dans un contexte de restrictions des ressources pour les services publics. »

      Le rapport d’Aequitaz - ATD Quart Monde - Secours catholique abonde en ce sens, en s’appuyant sur ce qui s’est passé dans certains territoires pendant l’expérimentation. A Villers-en-Vexin (Eure) par exemple, le maire de la ville, « [n’ayant] pas les moyens d’embaucher du personnel » pour entretenir le cimetière communal, a fait travailler quatre bénéficiaires du RSA, indique le rapport.
      En Mayenne, les associations observent que le département a mis en place un « volontariat reconnu [...] puisqu’il faut faire des heures ». Concrètement, les allocataires sont invités à réaliser des heures de bénévolat au sein d’associations en contrepartie d’une attestation d’expérience de compétences.

      « En le présentant comme un dispositif, parmi d’autres, de son offre d’insertion, le département participe d’une dévalorisation du secteur de l’insertion, assuré par des professionnels formés et qualifiés », commentent les auteurs de l’étude.
      Les associations craignent donc un détournement du projet d’insertion des privés d’emploi, puisqu’en l’occurrence, il n’est pas question de les embaucher après une activité professionnelle telle que l’entretien du cimetière de la ville. Sans compter, bien sûr, la concurrence que ces heures d’activité font aux emplois réels.

      « Aujourd’hui, rien ne permet de limiter le risque de substitution de ces activités à de véritables emplois », soulignent les associations.
      En d’autres termes, pourquoi payer un salarié pour ce travail alors que des allocataires le font gratuitement ?

      2/ Un accompagnement infantilisant, dicté par un algorithme

      Un autre danger, pointé dans le rapport des trois associations, concerne l’accompagnement des allocataires. Lors de l’expérimentation, l’orientation des personnes au RSA se basait sur un prédiagnostic réalisé par #traitement_algorithmique. Voilà qui pose plusieurs questions :
      « Quels sont les critères appliqués par l’algorithme ? Comment ont-ils été définis ? Et qui a élaboré cet #algorithme ? », s’interrogent les associations.
      Les doutes sont d’autant plus légitimes que de récentes enquêtes, réalisées notamment par l’association La Quadrature du Net, ont mis en lumière des biais discriminants et un surcontrôle lorsque des prestations sociales s’appuient sur un algorithme.

      Cela participe à une « déshumanisation de l’accompagnement social », selon les associations. Qui ajoutent que « l’automatisation de l’orientation des allocataires du RSA vers un organisme référent augmente le risque que les personnes soient orientées dans un parcours qui ne soit pas adapté à leur situation ».
      C’est aussi ce que craint la fédération des organismes sociaux, fédération syndicale CGT qui regroupe des professionnels du secteur. Elle dénonce ainsi des « outils facilitant la #contrainte et se substituant à un réel accompagnement en présentiel, régulier, avec un conseiller ».

      3/ Davantage de #non-recours

      « Déjà, nous, bénéficiaires du RSA, c’est déjà pas facile, parce qu’on se sent fliqué. On essaye de faire au mieux, on donne au mieux, on fait nos démarches… Donc, on va aller où, là ? », s’interroge un allocataire dans le rapport Aequitaz - ATD Quart Monde - Secours catholique.
      Il résume une autre crainte relayée par le rapport : devoir justifier de quinze heures d’activités, c’est devoir davantage rendre compte, avec le risque que les personnels qui accompagnent les bénéficiaires les infantilisent.

      Une inquiétude d’autant plus légitime que si les quinze heures d’activité ne sont pas faites, ou mal faites, les allocataires encourent des risques de #sanctions, voire de #radiations. Interrogé par l’association des journalistes de l’information sociale (Ajis) fin novembre, Thibaut Guilluy, directeur général de France Travail, a lui-même redit que les #contrôles allaient se poursuivre.

      D’ici 2025 , ses équipes devront effectuer 600 000 contrôles. Un chiffre qui s’élèvera à 1,5 million d’ici 2027. Cette stratégie n’est hélas pas surprenante dans un contexte où les services publics de l’emploi sont affaiblis par les coupes budgétaires (des suppressions de postes ont ainsi été annoncées à France Travail). Dans l’Eure, le département a « clairement annoncé son objectif de baisser de 3 000 le nombre d’allocataires du RSA d’ici 2028 », notent les associations dans leur rapport.

      Davantage de contrôles, cela veut dire potentiellement plus de radiations. Et donc des économies pour ceux qui versent l’#allocation (les départements) et une moindre charge de travail pour ceux qui ont perdu des moyens (France Travail). Pour les associations, la baisse du nombre d’allocataires constitue clairement un « levier pour dégager des moyens financiers afin de maintenir de bons ratios d’accompagnement ».
      Mais cette politique du chiffre a des effets économiques et sociaux néfastes. Plusieurs études ont ainsi montré que les contreparties demandées à des allocataires augmentent le taux de #non-recours aux prestations sociales. Dans le cas du RSA, il atteignait déjà 30 % avant la réforme. Sa généralisation a toutes les chances d’exacerber la situation :
      _« Le Secours catholique le constate dans ses statistiques avec une hausse, en un an, de 10,8 % du non-recours au RSA dans les départements qui expérimentent la réforme , quand il recule au contraire de 0,8 % dans les autres départements sur la même période »_, peut-on lire dans le rapport.
      A terme, le découragement des bénéficiaires peut mener à une détérioration de leur situation (insécurité alimentaire, perte de logement), ajoutent les associations.

      4/ …mais pas forcément plus d’emplois durables (ça alors !)

      Tous ces risques en valent-ils la chandelle ? Après tout, on pourrait estimer que la fin (obtenir un emploi durable) justifie les moyens. Hélas, même sur ce point, le bât blesse.
      Comme l’avait déjà établi un autre rapport et comme le confirme le document publié par Aequitaz, le Secours catholique et ATD Quart Monde, les résultats ne sont pas bons. Les contrats signés par les allocataires dans le cadre de la réforme sont « essentiellement des contrats de moins de six mois dans des secteurs en tension aux conditions de travail difficiles », notent ainsi les associations.
      Le taux moyen d’accès à l’#emploi durable pour les allocataires, six mois après leur entrée dans le parcours, est d’environ 17 %, selon France Travail. Ce chiffre varie certes un peu d’un territoire à l’autre (22 % dans la Somme, 13 % dans les Vosges ou dans les Pyrénées-Atlantiques). Mais les résultats ne sont vraiment probants nulle part.
      Ces chiffres ne sont malheureusement pas très surprenants, dans la mesure où le risque de radiation peut pousser les bénéficiaires à se tourner vers des emplois précaires ou qui ne leur correspondent pas.

      En somme, concluent les associations, « pousser les personnes à enchaîner des petits boulots de subsistance qui ne respectent ni le métier, ni le projet professionnel, ni le temps de travail souhaité, ni le niveau de qualification de la personne, est un immense gâchis humain en plus d’être inefficace en matière de lutte contre la pauvreté ».
      Un constat qui confirme ce que d’autres chercheurs avaient déjà établi pour les mesures de contrôle imposées aux demandeurs d’emploi.

      #département #infantilisation

    • Un rapport non divulgué dresse un bilan mitigé de la réforme du RSA, Alternatives (mais) économiques, 14 OCTOBRE 2024https://www.alternatives-economiques.fr/un-rapport-na-ete-rendu-public-dresse-un-bilan-mitige-de-reforme/00112703
      https://archive.ph/VrWJO#selection-1555.1-2463.0

      Selon un rapport auquel nous avons eu accès, le gouvernement surestime les résultats de l’expérimentation de la réforme du RSA qui sera conditionné à 15 heures d’activité partout en France dès 2025.
      Par Audrey Fisné-Koch

      Pour les bénéficiaires de minima sociaux, le changement de gouvernement n’aura rien changé. La stratégie en matière d’insertion de Michel Barnier s’inscrit dans la continuité de son prédécesseur. Dès son discours de politique générale, le Premier ministre a confirmé que la réforme du revenu de solidarité active (RSA) entrerait bel et bien en vigueur en 2025, partout sur le territoire.

      Pour rappel, la #loi_plein-emploi de 2023 avait acté l’obligation pour les bénéficiaires du RSA de s’inscrire à France Travail (ex-Pôle emploi) et de signer un contrat qui les engage à effectuer 15 heures d’activité par semaine en contrepartie du versement de leur allocation. La philosophie derrière ce procédé ? Ce revenu « ne doit pas être uniquement un filet de sécurité »_1, résume Michel Barnier.
      Mais avant que cette réforme ne soit généralisée, elle a été expérimentée dans 47 territoires.
      « Là où la réforme du RSA a été engagée, ça marche, comme à Marseille où, après six mois d’accompagnement, une personne sur trois est sortie du RSA », s’est félicité le chef du gouvernement. Comme Gabriel Attal avant lui, il semblerait néanmoins que Michel Barnier ait une fâcheuse tendance à embellir la réalité.

      Un bilan de l’expérimentation a bel et bien été mené, mais ce rapport n’a pas été rendu public. Cette évaluation qualitative sur douze mois a été conduite par deux cabinets et s’appuie sur des centaines d’entretiens avec des professionnels, représentants d’institutions et allocataires.

      Or, ce document daté du mois de juillet, auquel nous avons pu avoir accès, pointe plusieurs limites de « l’accompagnement rénové »_ mis en œuvre par la réforme. Et en cas de généralisation du RSA conditionné, ces problèmes ne devraient pas être réglés…

      1/ Un bilan mitigé sur les heures d’activité

      Les 15 heures d’activité obligatoires constituent la première source d’inquiétude chez le personnel accompagnant les bénéficiaires du RSA. Non seulement le rapport souligne que l’accompagnement mis en place, du fait de sa personnalisation, est chronophage, mais également qu’il ne s’appuie pas sur un référentiel clair.

      Comme nous l’expliquions déjà pour les contrats d’engagement jeune (#CEJ), qui ont servi de modèle à la réforme du RSA, les activités prises en compte peuvent parfois ne pas être utiles aux personnes suivies et leurs durées peuvent être surévaluées. Ce que nous expliquait déjà une conseillère en mission locale pour le CEJ :
      « L’inscription sur les listes électorales, une consultation médicale, la pratique du sport ou d’une activité culturelle, ça compte pour deux heures d’activités. La réalisation du CV ou une leçon de conduite pour le permis ? Là, on est sur trois heures. »

      Les bénéficiaires interrogés dans le rapport reconnaissent les bienfaits de certains ateliers pour reprendre confiance en eux, mais les professionnels qui les accompagnent craignent que ces heures d’activité ne se transforment en indicateurs de performances. C’est-à-dire que les conseillers eux-mêmes se retrouvent évalués en fonction des 15 heures d’activité, les poussant à en proposer certaines qui ne serviraient pas aux allocataires.
      En d’autres termes, les conseillers ont peur que cette #contrepartie ne devienne une fin en soi, et non plus un moyen de remobilisation ou d’insertion pour les bénéficiaires du RSA.

      2/ La crainte d’un manque de moyens

      Une autre inquiétude qui transparaît dans le rapport concerne les moyens accordés pour « l’accompagnement rénové » : dans le cadre de l’expérimentation, des financements fléchés (815 000 euros en moyenne pour chacun des huit territoires étudiés dans le document) ont permis un suivi plus poussé des allocataires.
      Les conseillers ont également vu leur « portefeuille » d’allocataires réduit pour l’expérimentation.
      Or, ces modalités plus confortables ne devraient pas être les mêmes l’an prochain, quand le RSA conditionné sera étendu à toute la France.

      « Pour rappel, le budget 2024 prévoyait de financer la réforme du RSA avec la suppression de l’allocation de solidarité spécifique (ASS) et les coupes de l’assurance chômage », précise Anne Eydoux, économiste au Cnam (Lise et CEET).

      Mais la ministre du Travail a redit que l’ASS ne serait pas supprimée et les négociations doivent reprendre entre les partenaires sociaux sur l’assurance chômage. On peut bien sûr se réjouir que la réforme de Gabriel Attal, qui réduisait les droits des chômeurs, ait été mise au placard et que la suppression de l’ASS, qui aurait pénalisé les plus modestes, ne se fera pas. Néanmoins, « la question des moyens est cruciale dans la mise en place de la réforme du RSA. On ne sait plus comment elle sera financée », reprend la chercheuse.

      Dans le projet de loi de finances 2025, on apprend que « France Travail bénéficiera d’une stabilisation de la subvention pour charge de service public à 1,35 milliard d’euros et d’un accroissement de + 0,16 milliard d’euros de la contribution de l’Unédic, lui assurant les moyens de mettre en œuvre la réforme ». Mais des doutes persistent, écrits noir sur blanc dans le rapport du mois de juillet :
      « Comme pour France Travail, les départements n’envisagent pas la perspective d’une généralisation sans augmentation des financements. »
      Il faut dire qu’« avec la réforme, l’opérateur devra accompagner 1,2 million de personnes contre 40 000 aujourd’hui, détaille Guillaume Allègre, économiste à l’OFCE. Je ne suis pas sûr que la promesse qu’il y ait davantage d’accompagnement puisse être tenue ».
      D’autant que le ministère du Travail a indiqué la suppression de 500 postes à France Travail en 2025. Faire plus, avec moins, voilà une équation bien difficile…

      3/ Des résultats fragiles pour le retour au travail

      Concernant l’insertion, enfin, les chiffres que présente le rapport d’évaluation sont à lire avec précaution. Au total, 42 % des bénéficiaires du RSA qui ont participé à l’expérimentation ont accédé à un emploi dans les six premiers mois suivant leur entrée en parcours, dont 16 % ont accédé à des « contrats durables » (CDI ou CDD de six mois ou plus), et 13 % à un emploi de moins d’un mois, soit des emplois précaires ou très précaires.

      Des chiffres « prometteurs » selon France Travail, car ils représentent effectivement un taux plutôt élevé d’accès à l’emploi. Même s’il n’est pas évident de les comparer avec la situation qui prévalait avant la réforme, puisque l’inscription à France Travail n’était pas obligatoire pour les bénéficiaires du RSA. Selon la Dares, en 2022, c’était le cas de six allocataires sur dix. Et parmi eux, un tiers de ces inscrits a été salarié au cours de l’année écoulée.
      Mais avant de sabler le champagne, plusieurs nuances sont à prendre en considération.
      « Du fait de participer à l’expérimentation, les travailleurs sociaux et les bénéficiaires ont pu se montrer plus motivés [en sciences sociales, on parle de l’effet Hawthorne, NDLR]. Cela peut avoir des résultats lors de l’expérimentation et disparaître lors d’une éventuelle généralisation », explique Guillaume Allègre.

      Par ailleurs, l’expérimentation a pu créer des effets de déplacement, c’est-à-dire le fait que des bénéficiaires du RSA accèdent à un emploi au détriment d’autres individus qui auraient eu le poste, en l’absence du dispositif. Or, « si on généralise l’accompagnement des allocataires du RSA, ils vont tous se faire concurrence pour un même volume d’emplois », alerte Anne Eydoux. Et le bilan en termes d’emplois pourrait être moins encourageant.

      Le rapport indique en outre que 82 % des bénéficiaires présentent au moins un frein périphérique à l’emploi, souvent deux (43 % liés à la mobilité, 29 % à un état de santé, 25 % à des contraintes familiales, 20 % au logement). Et conditionner le RSA n’apparaît pas comme une solution face à ces difficultés. « Ce sont des contraintes qu’il faut absolument résoudre en amont », résume Force ouvrière.
      Malgré ces réserves, le gouvernement n’a pas prévu d’attendre les évaluations finales pour généraliser le RSA sous conditions. Ce qui n’étonne pas Anne Eydoux :
      _« C’était déjà le cas avec l’entrée en vigueur du RSA après tout. Le gouvernement avait décidé de le généraliser avant la fin des expérimentations, les résultats avaient été instrumentalisés et finalement, l’évaluation du dispositif généralisé a montré qu’il n’y avait aucun impact sur le taux de retour à l’emploi. »_
      Les réformes se multiplient, mais les erreurs se répètent…

  • #HelloQuitX - MANIFESTO HelloQuitteX
    https://helloquittex.com/MANIFESTO-HelloQuitteX.html#

    À l’heure où #X/Twitter est instrumentalisé jusque dans l’#algorithme par Elon #Musk à des fins politiques, X est devenu dangereux pour les démocraties. Il est temps de changer, HelloQuitteX a un plan.

    HelloQuitteX est un mouvement transpartisan et apolitique qui aide les citoyens à se réapproprier des espaces numériques compatibles avec des démocraties fonctionnelles.

    #Agir collectivement pour nos #espaces_numériques
    Les réseaux sociaux tirent leur puissance de conventions : on veut y être parce que beaucoup y sont. À l’heure où X/Twitter est instrumentalisé jusque dans l’algorithme par Elon Musk à des fins politiques, X est devenu dangereux pour les démocraties. Il est temps de changer de convention.

    Changer de convention au niveau mondial est un événement majeur. Par définition, personne ne peut le faire seul. Quand les Suédois ont décidé de changer de sens de circulation en 1967, tout le monde a changé de sens le même jour, le Dagen H, avec l’accompagnement des autorités.

    L’élection de Donald #Trump a été un électrochoc. C’est une opportunité unique de faire notre Daguen H numérique : un changement global de convention vers l’utilisation de réseaux sociaux à même d’atténuer la désinformation, la polarisation croissante de la société, les manipulations globales d’opinion.

    #20Janvier
    Nous avons une date : le 20 Janvier 2025, jour de l’investiture de Donald Trump. Après le 20 Janvier, de facto, Elon Musk n’aura plus de compte à rendre à la justice. X, en tant qu’écosystème numérique, sera alors plus dangereux que jamais pour la santé mentale de ses utilisateurs et pour la démocratie.

    Nous avons un plan : aider les utilisateurs de X dans leur déménagement numérique vers des espaces plus sains.

    Le 20 Janvier 2025, des outils de migration permettront aux utilisateurs de X de déménager leurs données et leurs audience de X vers des réseaux sociaux qui respectent les principes de base d’une liberté numérique : maîtriser ses données, maîtriser son audience, maîtriser son fils d’actualité. Chacun retrouvera ainsi automatiquement et sans effort l’ensemble de ses followers qui auront également enménagé sur BlueSky ou Mastodon.

    Jusqu’à Janvier 2025, HelloQuitteX informera les utilisateurs de X des étapes de la migration et mènera une action globale d’éducation aux médias.

    Après le #20 janvier 2025, HelloQuitteX aidera tout le monde à se reconnecter sur #Mastodon et #Bluesky et vous pourrez décider en toute connaissance de cause de garder votre compte X ou non. Les informations et les tendances seront façonnées ailleurs que sur X.

  • À #France_Travail, ces #algorithmes qui contrôleront les chômeurs - Hayet Kechit
    https://www.humanite.fr/social-et-economie/controle-des-chomeurs/a-france-travail-ces-algorithmes-qui-controleront-les-chomeurs

    Tripler le nombre de contrôles des demandeurs d’emploi pour atteindre le chiffre de 1,5 million d’ici à 2027. C’était l’objectif pharaonique fixé par l’exécutif macroniste en imposant la loi sur le plein-emploi qui entrera en vigueur en janvier 2025. À France Travail, cette « ambition » se traduira concrètement par la généralisation d’un dispositif dit « #CRE rénové » (contrôle de la recherche d’emploi) inclus dans le kit de cette loi.

    Ses conséquences promettent d’être redoutables pour les demandeurs d’emploi, passibles dès l’année prochaine de radiations automatiques. Comment en effet atteindre de tels volumes dans un contexte de suppressions de postes au sein de l’opérateur public, alors que les agents disent déjà être en tension sur leurs missions ?

    #paywall #loi_sur_le_plein-emploi #contrôle_des_chômeurs #radiations #guerre_aux_pauvres

  • Notation algorithmique : l’Assurance Maladie surveille les plus pauvres et harcèle les mères précaires
    https://www.laquadrature.net/2024/12/05/notation-algorithmique-lassurance-maladie-surveille-les-plus-pauvres-e

    Depuis 2021, nous documentons via notre campagne France Contrôle les algorithmes de contrôle social utilisés au sein de nos administrations sociales. Dans ce cadre, nous avons en particulier analysé le recours aux algorithmes de notation.…

    #Surveillance

  • Les droits des usagers des services publics face aux algorithmes et aux systèmes d’IA : points de vigilance et recommandations de la Défenseure des droits | Défenseur des Droits
    https://www.defenseurdesdroits.fr/les-droits-des-usagers-des-services-publics-face-aux-algorithmes-

    Face au nombre croissant de décisions administratives individuelles prises sur la base de résultats livrés par des algorithmes ou systèmes d’IA, la Défenseure des droits s’inquiète des risques qu’induit cette algorithmisation des services publics pour les droits des usagers. Elle présente plusieurs recommandations afin que les garanties prévues par la loi soient pleinement concrétisées.

    #discrimination_automatisée #algorithmes #IA #doits_sociaux #Kafka_on_line

  • Le string avec IA intelligence artificielle c’est pour bientôt

    Une start-up belge développe un « pantalon intelligent » pour améliorer les performances et la revalidation des sportifs.

    Skinetix, fondée par deux doctorants de la VUB avec l’imec, teste actuellement un prototype en collaboration avec la fédération belge d’athlétisme et des clubs de football. Révolutionnaire ?

    Un pantalon de sport (du type collant), des mini-capteurs intégrés, une plateforme de traitement de données, des algorithmes d’intelligence artificielle… Telles sont les principales composantes de Skinetix, une start-up dont la création vient d’être annoncée par la VUB (Vrije Universiteit Brussel) et l’imec (centre de recherche en microélectronique et nanotechnologie basé à Louvain).


    . . . . .
    La méthode développée par Joris De Winter et Kevin Langlois, en collaboration avec imec, offre l’avantage de mesurer chaque muscle ischio-jambier séparément. L’équipe médicale des sportifs peut ainsi assurer des suivis individuels des ischio-jambiers. En cas de blessure, la plateforme indiquera, en temps réel, quel muscle est soumis à quelles tensions. Elle informera aussi sur l’équilibre musculaire et le niveau de fatigue.
    . . . . .
    La création de vêtements intelligents, ou connectés, n’est pas neuve. Cela fait déjà plusieurs années que des entreprises, dont de nombreuses start-up, présentent des prototypes lors du Consumer Electronics Show (CES) de Las Vegas. À l’aide de micro-capteurs situés dans le tissu du vêtement, ces vêtements permettent, au même titre d’ailleurs que les montres ou les bracelets connectés, de surveiller différents paramètres biométriques (température corporelle, rythme cardiaque, niveau d’hydratation, etc.).
    . . . . .
    Source : https://www.lalibre.be/economie/entreprises-startup/2024/11/13/une-start-up-belge-developpe-un-pantalon-intelligent-pour-ameliorer-les-perf

    #sport #sports #sexe #fric #ia #intelligence_artificielle #algorithme #surveillance #technologisme #bigdata bientôt chez #décathlon #decathlon

  • L’algorithme de notation de la CNAF attaqué devant le Conseil d’État par 15 organisations
    https://www.laquadrature.net/2024/10/16/lalgorithme-de-notation-de-la-cnaf-attaque-devant-le-conseil-detat-par

    En cette veille de journée mondiale du refus de la misère, 15 organisations de la société civile attaquent l’algorithme de notation des allocataires des Caisses d’Allocations Familiales (CAF) en justice, devant le Conseil d’État, au…

    #Surveillance

  • Opinion | The Point: Conversations and insights about the moment. - The New York Times
    https://www.nytimes.com/live/2024/10/08/opinion/thepoint#musk-trump-influence

    Par Zeynep Tufekci

    Elon Musk has not been at all subtle in his efforts to help Donald Trump win the presidency. Musk hasn’t just endorsed him or donated tens of millions of dollars to pro-Trump PACs or appeared at Trump rallies to jump up and down with joy. Musk is also using the full power of his ownership of X to portray Kamala Harris as an existential threat to America while spreading many falsehoods.

    The Republicans’ silence about Musk’s blatant politicking via his social media platform demonstrates their party’s deep hypocrisy when it comes to Big Tech’s power over politics.

    A rule to push Musk’s posts to more people was apparently hard-coded into the platform’s software after Musk got upset that President Biden’s posts about the Super Bowl received more views than his. Musk reportedly threatened to fire his own engineers unless they made sure his posts were super amplified. Sure enough, Musk’s posts now get tens of millions of views.

    Musk has posted on X, for example, that “if Trump is NOT elected, this will be the last election” (103 million views). He has described Kamala Harris as “just a puppet” (20 million views) or “the Kamala puppet” (28 million views). He also regularly claims what he describes as the “the Kamala Dem machine” or “the Dems” are out to ensure a “permanent one-party rule in America” (33 million views).

    Musk also routinely makes false claims about mass electoral fraud committed to help Democrats. For example Musk posted that Arizona is “refusing to remove noncitizens from the voter rolls” and shared a post claiming that hundreds of thousands of illegal immigrants had registered to vote there — both of which prompted a correction attempt from the county recorder based in Phoenix, who is a Republican.

    But Musk goes on, undeterred.

    It’s not hard to imagine what many Republicans would be saying if a Silicon Valley C.E.O. had come out as hard for Kamala Harris as Musk has for Trump. Years ago, Republican legislators raised concerns that tech companies were secretly putting their thumbs on the algorithmic scales in favor of the Democrats. In response, Republican lawmakers held hearings in which they claimed that tech platforms were biased against conservatives, which they suggested was antithetical to free speech.

    Where are they now?

    If Republican legislators were actually serious about Big Tech’s influence on politics, they’d be dragging Musk to Congress to hold him accountable for shameless partisan favoritism. Instead, they’re reaping the spoils of Musk’s influence while saying nothing.

    #Elon_Musk #Donald_Trump #X_influence #Algorithme #Liberté_expression

  • Dans les algorithmes | ChatGPT : le mythe de la productivité
    https://danslesalgorithmes.net/2024/09/17/chatgpt-le-mythe-de-la-productivite

    les solutions d’IA et les entreprises technologiques promeuvent le « mythe de la productivité », l’idée selon laquelle économiser du temps et des efforts est mieux que de faire une activité particulière pour elle-même. Le mythe de la productivité suggère que tout ce à quoi nous passons du temps peut-être automatisé. La production peut-être accélérée, sans limite. Les raisons pour lesquelles nous le faisons, la profondeur que cela nous apporte n’ont pas d’importance. Selon ce mythe, le but de l’écriture c’est de remplir une page, pas de réaliser le processus de réflexion qui l’accompagne…

    #Intelligence_Artificielle #Réflexion_humaine #Algorithmes #écriture

  • Qu’est-ce que l’IA ? Illusions numériques, fausses promesses et rééducation de masse Brandon Smith − Alt-Market

    Au cours des cinq dernières années, le concept d’intelligence artificielle a fait l’objet d’une grande fanfare, à tel point que sa primauté est considérée dans les médias comme une évidence. L’idée que les algorithmes peuvent “penser” est devenue un mythe omniprésent, un fantasme de science-fiction qui prend vie. La réalité est beaucoup moins impressionnante…

    
Les globalistes du Forum économique mondial et d’autres institutions élitistes nous répètent sans cesse que l’IA est le catalyseur de la “quatrième révolution industrielle“, une singularité technologique censée changer à jamais tous les aspects de notre société. J’attends toujours le moment où l’IA fera quelque chose de significatif en termes d’avancement des connaissances humaines ou d’amélioration de nos vies. Ce moment n’arrive jamais. En fait, les globalistes ne cessent de déplacer les poteaux d’affichage de ce qu’est réellement l’IA.


    Je note que les zélateurs du WEF comme Yuval Harari parlent de l’IA comme s’il s’agissait de l’avènement d’une divinité toute puissante (je discute du culte globaliste de l’IA dans mon article “Intelligence Artificielle : Un regard séculaire sur l’antéchrist numérique“). Pourtant, Harari a récemment minimisé l’importance de l’IA en tant qu’intelligence sensible. Il affirme qu’elle n’a pas besoin d’atteindre la conscience de soi pour être considérée comme un super être ou une entité vivante. Il suggère même que l’image populaire d’une IA de type Terminator dotée d’un pouvoir et d’un désir individuels n’est pas une attente légitime.

    En d’autres termes, l’IA telle qu’elle existe aujourd’hui n’est rien de plus qu’un algorithme sans cervelle, et ce n’est donc pas de l’IA. Mais si tous les aspects de notre monde sont conçus autour d’infrastructures numériques et que l’on apprend à la population à avoir une foi aveugle dans l’ “infaillibilité” des algorithmes, alors nous finirons par devenir les dieux robots que les globalistes appellent de leurs vœux. En d’autres termes, la domination de l’IA n’est possible que si tout le monde CROIT que l’IA est légitime. Harari admet essentiellement cet agenda dans le discours ci-dessus.

    L’attrait de l’IA pour le commun des mortels réside dans la promesse de se libérer de tout souci ou de toute responsabilité. Comme tous les narcissiques, l’élite globaliste aime simuler l’avenir et acheter la conformité populaire en promettant des récompenses qui ne viendront jamais.

    Oui, les algorithmes sont actuellement utilisés pour aider les profanes à faire des choses qu’ils ne pouvaient pas faire auparavant, comme construire des sites web, réviser des dissertations, tricher aux examens universitaires, créer de mauvaises œuvres d’art et du contenu vidéo, etc. Les applications utiles sont rares. Par exemple, l’affirmation selon laquelle l’IA “révolutionne” le diagnostic et le traitement médicaux est tirée par les cheveux. Les États-Unis, le pays qui a sans doute le plus accès aux outils d’IA, souffrent également d’une baisse de l’espérance de vie. Nous savons qu’il ne s’agit pas de la Covid, car le virus a un taux de survie moyen de 99,8 %. On pourrait penser que si l’IA est si puissante dans sa capacité à identifier et à traiter les maladies, l’Américain moyen vivrait plus longtemps.

    Il n’existe aucune preuve d’un avantage unique de l’IA à une échelle sociale plus large. Tout au plus, il semble qu’elle permette de supprimer des emplois de développeurs web et d’employés de McDonald’s au “Drive” . L’idée globaliste selon laquelle l’IA va créer une renaissance robotique de l’art, de la musique, de la littérature et de la découverte scientifique est totalement absurde. L’IA s’est avérée n’être rien de plus qu’un outil de commodité médiocre, mais c’est en fait la raison pour laquelle elle est si dangereuse.

    Je soupçonne le WEF d’avoir changé ses idées sur ce que l’IA devrait être parce qu’elle ne répond pas aux aspirations délirantes qu’il avait à l’origine pour elle. Ils attendaient qu’un logiciel prenne vie et commence à leur donner des informations sur les mécanismes de l’univers, et ils commencent à se rendre compte que cela n’arrivera jamais. Au lieu de cela, les élitistes se concentrent de plus en plus sur la fusion du monde humain et du monde numérique. Ils veulent fabriquer la nécessité de l’IA parce que la dépendance de l’homme à l’égard de la technologie sert les objectifs de la centralisation.
    
Mais à quoi cela ressemblerait-il en réalité ? Eh bien, il faut que la population continue à devenir plus stupide tandis que l’IA s’intègre de plus en plus à la société.

    Par exemple, il est aujourd’hui largement admis qu’une formation universitaire n’est pas un gage d’intelligence ou de compétence. Des millions de diplômés entrant sur le marché du travail aujourd’hui font preuve d’un niveau d’incompétence déconcertant. Cela s’explique en partie par le fait que les enseignants sont moins compétents, qu’ils ont des préjugés idéologiques et que le programme d’études moyen s’est dégradé. Mais nous devons aussi commencer à prendre en compte le nombre d’enfants qui suivent leur scolarité en utilisant ChatGPT et d’autres outils de triche.

    Ils n’ont pas besoin d’apprendre quoi que ce soit, l’algorithme et la caméra de leur téléphone portable font tout pour eux. Cette tendance est inquiétante, car les êtres humains ont tendance à emprunter le chemin le plus facile dans tous les aspects de la survie. La plupart des gens ont cessé d’apprendre à cultiver leur nourriture parce que l’agriculture industrielle le fait pour nous. Ils ont cessé d’apprendre à chasser parce qu’il y a des abattoirs et des camions frigorifiques.

    Aujourd’hui, de nombreux Zennials sont incapables de se faire à manger parce qu’ils peuvent recevoir des plats à emporter à leur porte à tout moment. Ils ne parlent presque plus au téléphone et ne créent plus de communautés physiques parce que les textos et les médias sociaux sont devenus les intermédiaires de l’interaction humaine.

    Oui, tout est “plus facile” , mais cela ne veut pas dire que tout est mieux.

    Ma grande crainte – L’avenir que je vois se profiler est un avenir dans lequel les êtres humains ne prennent plus la peine de penser. L’IA pourrait être considérée comme l’ultime accumulation de connaissances humaines ; une bibliothèque massive ou un cerveau numérique qui effectue toutes les recherches et réfléchit à votre place. Pourquoi apprendre quoi que ce soit quand l’IA “sait tout”  ? Mais c’est un mensonge.

    L’IA ne sait pas tout ; elle ne sait que ce que ses programmeurs veulent qu’elle sache. Elle ne vous donne que les informations que ses programmeurs veulent que vous ayez. Les globalistes l’ont bien compris et ils sentent bien le pouvoir qu’ils auront si l’IA devient une plateforme éducative de premier plan. Ils y voient un moyen d’inciter les gens à abandonner le développement personnel et la pensée individuelle.

    Voyez les choses sous cet angle : Si tout le monde commence à se tourner vers l’IA pour obtenir des réponses à toutes ses questions, alors tout le monde recevra exactement les mêmes réponses et arrivera exactement aux mêmes conclusions. Tout ce que l’IA a à faire, c’est de censurer activement toute information qui contredit le récit officiel.

    Nous avons eu un aperçu de cette situation orwellienne lors de la pandémie de Covid, lorsque des entreprises de haute technologie comme Google ont utilisé des algorithmes pour enterrer toutes les données qui prouvaient que la crise Covid n’était pas la menace que les autorités gouvernementales prétendaient qu’elle représentait. Pendant au moins trois ans, il était impossible d’aller sur YouTube et de trouver des informations alternatives sur le virus ou les vaccins. L’algorithme a obligé tout le monde à passer au crible une longue liste de sources officielles, dont beaucoup véhiculent des mensonges flagrants sur le masquage, la distanciation sociale, le taux de mortalité dû à la crise Covid et la sécurité des vaccins.

    Le pouvoir en place n’a même pas besoin de censurer ou de supprimer directement les informations qu’il n’aime pas. Il leur suffit de laisser l’algorithme dicter les résultats de recherche et d’enterrer la vérité à la page 10 000, là où personne ne la cherchera.

    Quel serait l’impact sur le citoyen moyen ? Supposons que l’IA soit programmée pour dicter le discours scientifique. Que se passerait-il si l’IA disait que le changement climatique provoqué par l’homme est une réalité indéniable et que “la science est établie” , sans jamais présenter la montagne de preuves contraires ? Personne ne cherchera les vraies données parce que l’IA les rendra impossibles à trouver. Tout le monde supposera que l’IA leur dit tout ce qu’il y a à savoir sur le sujet, mais il y a pire encore…

    De nombreux lecteurs se souviendront peut-être qu’il y a quelques mois, le système d’IA “Gemini” de Google a été programmé pour imposer l’IED à ses utilisateurs https://www.theverge.com/2024/2/21/24079371/google-ai-gemini-generative-inaccurate-historical . Chaque fois qu’une personne demandait à l’IA de créer une image historique, l’algorithme rendait tout le monde noir ou brun et souvent féminin. Les représentations d’hommes blancs étaient étrangement rares, malgré l’exactitude historique. Cela signifie des images sans fin de Highlanders noirs et bruns en Écosse, de Pères fondateurs noirs en Amérique, de papes catholiques féminins, de chevaliers asiatiques dans l’Europe médiévale, et même, ce qui est hilarant, de nazis noirs dans l’Allemagne de la Seconde Guerre mondiale.

    Les développeurs d’IA affirment souvent qu’une fois l’IA créée, ils ne contrôlent plus vraiment ce qu’elle fait et comment elle se développe. L’incident “Gemini” prouve que c’est un mensonge. L’IA peut définitivement être contrôlée, ou du moins modelée par le codage pour promouvoir la propagande que les programmeurs veulent qu’elle promeuve. Il n’existe pas d’IA autonome ; il y a toujours un agenda.

    En résumé, les globalistes souhaitent la prolifération de l’IA parce qu’ils savent que les gens sont paresseux et qu’ils utiliseront le système comme substitut à la recherche individuelle. Si cela se produit à grande échelle, l’IA pourrait être utilisée pour réécrire tous les aspects de l’histoire, corrompre les racines mêmes de la science et des mathématiques et transformer la population en un esprit de ruche baveux ; une écume bourdonnante de drones décérébrés consommant chaque proclamation de l’algorithme comme si elle était sacro-sainte.

    En ce sens, Yuval Harari a raison. L’IA n’a pas besoin de devenir sensible ou d’utiliser une armée de robots tueurs pour faire beaucoup de mal à l’humanité. Il lui suffit d’être suffisamment pratique pour que nous n’ayons plus envie de penser par nous-mêmes. Comme le “Grand et Puissant” OZ qui se cache derrière un rideau numérique, vous pensez acquérir des connaissances auprès d’un magicien alors que vous êtes en réalité manipulés par des vendeurs d’huile de serpent globalistes.

    Traduit par Hervé pour le Saker Francophone

    #Data #Données #IA #AI #Intelligence_Artificielle #High-tech #robotique #algorithme #artificial-intelligence #escroquerie #bidonnage #Manipulation #WEF

    Source et liens : https://lesakerfrancophone.fr/quest-ce-que-lia-illusions-numeriques-fausses-promesses-et-reeduc

  • Les smartphones bientôt interdits dans le réseau Wallonie-Bruxelles Enseignement bx1.be

    Les 373 écoles du réseau Wallonie-Bruxelles Enseignement, vont baliser l’usage du smartphone dès cette rentrée. Une interdiction sera d’application en maternelle, primaire et secondaire dans le courant de l’année, rapportent Le Soir et Sudinfo ce jeudi.

    La mesure du réseau WBE, soit les écoles officielles, concerne 132.600 élèves dans 373 établissements. Une cinquantaine d’établissements sont concernées en Région bruxelloise.

    Elle s’appliquera tout de suite pour un certain nombre d’écoles qui lancent l’expérience à la rentrée de lundi prochain (ou ont déjà interdit le smartphone depuis plusieurs années). Pour la plupart des autres établissements, le pas sera franchi dans le courant de cette année scolaire.
    . . . . .

    La suite et source : https://bx1.be/categories/news/les-smartphones-bientot-interdits-dans-le-reseau-wallonie-bruxelles-enseignement/?theme=classic

    #école #enseignement #enfants #apprentissage #cerveau #internet #smartphones #plateformes #streaming #algorithmes #Belgique #technologie

  • #Saint-Denis va, elle aussi, tester la #vidéosurveillance_algorithmique

    La sous-préfecture, qui accueille le #village_olympique, le #Stade_de_France et le #Centre_aquatique_olympique, a discrètement acquis un logiciel de vidéosurveillance algorithmique. Sans appel d’offres, sans délibération du conseil municipal ni étude d’impact, et sans en avoir tenu informé le collège d’éthique de la vidéosurveillance.

    La ville de Saint-Denis a déboursé 118 000 euros pour acquérir un logiciel de vidéosurveillance algorithmique (#VSA) de la société #Two-i, révèle Mediapart (https://www.mediapart.fr/journal/france/300724/en-catimini-saint-denis-achete-un-logiciel-de-surveillance-algorithmique).

    La loi #Jeux_olympiques autorise en effet, jusqu’en mars 2025, les polices nationale et municipales, la gendarmerie ainsi que les services de sécurité de la SNCF et de la RATP à coupler des #intelligences_artificielles (#IA) à des #caméras de « #vidéoprotection ». Cette #expérimentation se limite à huit situations prédéfinies, dont la présence d’objets abandonnés, un mouvement de foule, une densité de personnes trop importante ou le port d’une arme, lors d’événements sportifs et culturels.

    « Alors que, durant les #JO, ces algorithmes sont utilisés par la #RATP et la #SNCF dans plus de cinquante gares d’Île-de-France, Saint-Denis est l’une des premières municipalités à affirmer sa volonté d’y avoir recours », relève Mediapart.

    Pas de délibération au conseil municipal, ni contrat ni étude d’impact

    « Les JO ont motivé cet achat, notamment avec les flots de population qu’ils vont générer », précise à Mediapart la ville de Saint-Denis. Elle espère « que le #logiciel sera opérationnel pour les paralympiques, une fois que les agents y auront été formés ». Elle disposera alors de cinquante licences, qui pourront être couplées au même nombre de caméras.

    « Il n’y a eu aucune délibération du conseil municipal. Nous n’avons eu accès à aucune étude d’impact ni contrat », regrette de son côté Sophie Rigard. Élue de l’opposition, elle a appris l’existence de ce logiciel lors d’une réunion avec le directeur de la police municipale.

    Gwenaëlle Badufle-Douchez, adjointe à la sécurité, justifie de son côté l’absence d’appel d’offres par le fait que Saint-Denis avait acquis le logiciel via l’Union des groupements d’achats publics (Ugap), la centrale d’achat publique française.

    Membre du mouvement citoyen La Seine-Saint-Denis au cœur, mais aussi et surtout du collège d’éthique de la vidéosurveillance de Saint-Denis, Bakary Soukouna n’a pas non plus été sollicité. La Charte d’Éthique de la #vidéoprotection des #espaces_publics de la Ville de Saint-Denis précise pourtant qu’ « il est informé des projets en cours et à venir décidés par la Ville de Saint-Denis ».

    450 caméras ayant coûté 6,7 millions d’euros en 4 ans

    Le maire socialiste de Saint-Denis, #Mathieu_Hanotin, qui a « fortement développé l’usage des caméras », souligne Mediapart, s’est de son côté voulu rassurant. Il a évoqué une vidéosurveillance « dont l’#efficacité ne fait plus débat ».

    « Selon le dernier rapport d’orientation budgétaire de Saint-Denis, la ville a dépensé, entre 2020 et 2024, 6,7 millions d’euros dans la vidéosurveillance, portant le nombre de caméras dans la ville à 450 », rapporte Mediapart

    La ville dénombrait 230 caméras en 2023. Le 11 juillet dernier, son conseil municipal adoptait, à l’unanimité des 51 membres présents ou représentés, une demande de #subvention (.pdf) de 318 354 euros au #Fonds_Interministériel_de_Prévention_de_la_Délinquance (#FIPD) au titre de l’année 2024. La délibération précise que ce montant correspond à 50 % des 636 708 euros qu’elle prévoit de dépenser cette année en matière de « vidéoprotection ».

    De la « #détection_d’émotions » à la « #sécurité_préventive »

    Sur son site web, Two-i se présente comme « une plateforme d’analyse vidéo exhaustive » qui permet la mise en place de « mesures de #sécurité et de #sûreté préventives », et « apporte de la valeur à vos investissements en sécurité en transformant vos vidéos en données actionnables, traçables et pertinentes ».

    « En cas de survenue d’événements imprévisibles », Two-i propose aussi une solution de traitement d’images et d’analyse qui « optimise le temps passé à revoir et inspecter des vidéos issues des caméras de surveillance ».

    Dans son rapport sur la VSA, La Quadrature du Net relève que Two-I s’était d’abord lancée dans la « détection d’émotions », qu’elle avait expérimentée dans des gendarmeries et tenté d’utiliser dans les tramways niçois. Elle avait ensuite testé la reconnaissance faciale sur des supporters de football à Metz, avant de se concentrer sur des applications moins sensibles comme du comptage statistique en matière de « villes intelligentes ».

    Le site Technopolice, émanation de La Quadrature du Net, rappelle que Two-I s’était aussi fait connaître, dans le cadre de l’épidémie de Covid-19, en proposant d’identifier le non-respect des règles de distanciation sociale entre personnes.

    La start-up avait aussi été sélectionnée lors d’un appel d’offre en prévision des Jeux olympiques avec la « solution mobile de #contrôle_des_foules » #Mobil_Security de #BEHM. Censée permettre d’effectuer des contrôles sécurité « sans contact », elle visait à « contrôler 1 500 personnes à l’heure avec 4 agents » :

    « En intégrant la solution d’analyse vidéo de Two-i, qui détecte à l’avance les sacs, les personnes à mobilité réduite et les individus/véhicules non autorisés (…), les agents de sécurité disposent d’un outil puissant pour orienter proactivement le contrôle d’accès des foules. »

    https://next.ink/145459/saint-denis-va-elle-aussi-tester-la-videosurveillance-algorithmique
    #algorithme #vidéosurveillance #France #test #coût #budget