2022 – La Quadrature du Net

/2022

  • « L’algorithme de la #CAF conduit à un surcontrôle des populations les plus précaires » | Alternatives Economiques
    https://www.alternatives-economiques.fr/lalgorithme-de-caf-conduit-a-un-surcontrole-populations-plus-pr/00109069

    Fin novembre et début décembre, l’association La Quadrature du Net et le journal Le Monde ont chacun fait paraître une enquête sur l’utilisation du data mining (l’exploration de données) par les caisses d’allocations familiales (CAF), pour détecter les indus et les fraudes. Les deux enquêtes montrent que ce système, qui permet de scanner des milliers de données de 32 millions de personnes (les allocataires et leurs proches) et sur la base duquel sont déclenchés les contrôles, cible les plus pauvres, notamment les mères isolées.

    L’algorithme utilisé attribue un score de risque aux allocataires allant de 0 à 1. Plus on est proche de 1, plus on est exposé à la probabilité d’un contrôle. Parmi les critères pénalisants, le fait d’avoir changé de loyer plus de quatre fois en un an et demi, d’avoir un enfant à charge de 19 ans ou plus, ou encore de déclarer chaque trimestre ses ressources pour percevoir l’allocation adulte handicapé (AAH).

    • on sait _qui_ à pondu ledit algorithme, sur ordre de qui, et selon les specification de qui ? ou c’est secret défense ? (voire, secret défonce)

    • #Notation des allocataires : fébrile, la CAF s’enferme dans l’#opacité

      Alors que la contestation monte (voir ici, ici, ici ou ici) concernant son algorithme de notation des allocataires à des fins de #contrôle_social, la CAF choisit de se réfugier dans l’opacité tout en adaptant, maladroitement, sa politique de communication. Suite à son refus de communiquer le code source de son algorithme, nous avons saisi la Commission d’Accès aux Documents Administratifs (CADA).

      Comme nous l’expliquions ici, la CAF utilise depuis 2012 un algorithme de #profilage attribuant à chaque allocataire une note ou « #score_de_risque ». Construite à partir des centaines de données dont la CAF dispose sur chaque allocataire, cette note est ensuite utilisée pour sélectionner celles et ceux qui seront contrôlé·es.

      Cet algorithme symbolise l’étendue des #dérives de l’utilisation des outils numériques au service de politiques de contrôle social portées par des logiques policières de suspicion généralisée, de #tri et d’#évaluation continue de chacun de nos faits et gestes.

      Ici, comme c’est généralement le cas par ailleurs, ce tri cible les plus précaires. Les rares informations disponibles à ce sujet laissent apparaître que parmi les critères dégradant la note d’un·e allocataire, et augmentant ses chances d’être contrôlé·e, on trouve pêle-mêle : le fait de disposer de faibles revenus, d’habiter dans un quartier défavorisé, d’être une mère célibataire ou encore d’être né·e hors de France.

      Pour en avoir le coeur net, nous avons donc demandé à la CAF de nous communiquer le #code source de son algorithme1. Et sa réponse est affligeante2.

      Sortir de la précarité pour “tromper l’algorithme”

      Si la CAF a bien accepté de nous communiquer le code de l’algorithme… ce n’est qu’après avoir masqué la quasi-totalité des noms des variables comme on peut le voir sur l’illustration de cet article, qui est une photo de ce que la CAF nous a répondu.

      En d’autres termes, le fichier fourni nous permet simplement d’apprendre combien de #critères sont utilisés pour le calcul de la note des allocataires. Rien de plus. Ce qui n’empêche pas la CAF de préciser dans son courrier qu’elle espère que sa communication nous « permettra de comprendre le modèle »3.

      Les responsables de la CAF ont toutefois tenu à justifier le caviardage du fichier. Ces dernier·es précisent que le #code_source a été « expurgé des mentions qui, si elles étaient communiquées, pourraient donner des indications aux fraudeurs pour tromper l’algorithme »4. Et pour être tout à fait honnête, nous n’étions pas préparé·es à cette réponse.

      La CAF croit-elle vraiment que les critères liés à la #précarité (situation professionnelle instable, faibles revenus, logement situé dans un quartier défavorisé…) pourraient être modifiés par la seule volonté de l’allocataire ? Qu’afin d’augmenter leur note et de « flouer » l’algorithme, des millions d’allocataires pourraient décider, d’un coup, de sortir de la pauvreté ?

      Ce raisonnement frise l’#absurdité. A vrai dire, il est méprisant et insultant pour celles et ceux vivant des situations difficiles.

      Pire, le secrétaire général de la CAF entretient publiquement la confusion entre #fraudes et #erreurs de déclarations involontaires, prenant ainsi le risque de stigmatiser les personnes ciblées par l’algorithme, et ce, dans le seul but de justifier l’opacité de son institution.

      En réponse à un journaliste de Radio France5 l’interrogeant sur la réponse de la CAF à notre demande, il l’expliquait en disant qu’« il y a un certain nombre de données dont on pense que, si elles sont connues, peuvent nourrir des stratégies de contournement de personnes dont le but c’est de frauder le système ». Et d’ajouter : « Il faut que l’on ait un coup d’avance ».

      Faut-il donc lui rappeler que l’algorithme de la CAF n’est pas entraîné à détecter les fraudes mais les erreurs de déclaration, par définition involontaires6. Et que sa réponse pourrait donc être reformulée ainsi : « Nous ne communiquerons pas le code de l’algorithme de peur que les allocataires arrêtent de faire des erreurs ».

      De notre point de vue, cette réponse révèle l’ampleur de l’embarras des responsables de la CAF vis-à-vis de leur algorithme. Ils et elles ont peut-être en tête le scandale entourant un algorithme, en tout point similaire, de notation des allocataires ayant été utilisé aux Pays-Bas et dont les suites ont amené à la démission du gouvernement7 ?

      #Déni_de_justice

      Pire, cette opacité est aussi appliquée, à l’échelle individuelle, aux allocataires ayant été séléctionné·es par l’algorithme pour être controlé·es et qui chercheraient à obtenir des informations sur la raison de ce contrôle. Et ce, alors même que la loi prévoit que tout individu ayant fait l’objet d’une décision prise sur le fondement d’un traitement algorithmique (ici le fait d’être contrôlé) a le droit de connaître les données utilisées ainsi que les #paramètres de cet algorithme8. Ce qui signifie que les personnes ayant fait l’objet d’un contrôle9 sont censées avoir un droit d’accès plus étendu qu’une association comme la Quadrature.

      Nous avons pu consulter la réponse à la demande d’informations réalisée par une personne ayant été contrôlée sur la base de sa note. Le courrier, signé par le délégué à la protection des données de la CNAF, se contente de renvoyer l’allocataire à la page “Internet et Libertés” de la CAF.

      Sur cette page sont présents deux documents relatifs à l’algorithme de notation : un communiqué de la CAF et l’avis de la CNIL associé10. Aucun ne fournit d’informations sur les paramètres utilisés par l’algorithme, ni sur leur impact sur le score de risque.

      Cette réponse est un déni de justice pour celles et ceux ayant fait l’objet d’un contrôle déclenché algorithmiquement, l’opacité entretenue par la CAF les empếchant de contester juridiquement le bien-fondé du contrôle dont ielles ont fait l’objet.
      La discrimination : un savoir-faire à protéger

      Nous avions aussi demandé la liste des variables utilisées pour l’entraînement du modèle, c’est à dire sa phase de création. Cette question est importante car elle permet de comprendre l’étendue des données utilisées par l’algorithme. Et donc le degré d’intrusion dans la vie privée des allocataires que la construction d’un tel modèle nécessite.

      En effet, en mettant régulièrement en avant dans sa communication que son algorithme n’utilise « que » quelques dizaines de variables11, la CAF fait mine d’ignorer qu’elles sont le fruit d’une sélection qui nécessite l’analyse d’un nombre bien plus grand de variables au préalable12.

      Et la justification apportée par les responsables de la CAF est, là aussi, déconcertante. Ces dernier·es avancent que la communication de ces variables n’est pas possible car elles constituent un « savoir-faire »13. La CAF souhaiterait-elle monétiser son algorithme et le revendre à d’autres administrations ? Penserait-elle pouvoir équiper les équipes de contrôleurs.ses des institutions sociales du monde entier de son algorithme assimilant les plus précaires à de potentiel·le·s fraudeurs ou fraudeuses ?

      A défaut de réponse, nous nous en remettons à ce que, techniquement, tout·e data-scientist ferait pour entraîner un modèle le plus « précis » possible. Il suffirait de partir de l’intégralité des variables à sa disposition et, par itérations successives, décider lesquelles garder pour le modèle final. Dans cette hypothèse, ce serait alors la quasi-totalité des variables détenues par la CAF sur chaque allocataire qui serait utilisée pour l’entraînement de son modèle.

      Ceci serait cohérent avec un document publié en 2013 dans lequel un statisticien de la CAF que « les statisticiens chargés de la modélisation disposaient d’environ un millier d’informations par allocataire contrôlé » et que « la base d’apprentissage contient toutes les données habituelles des fichiers statistiques »14.
      Vingt ans de développement… et aucun compte-rendu de réunions

      Quant à notre demande relative aux documents internes (notes, comptes-rendus, échanges…) concernant le développement de l’algorithme, la CAF nous a tout simplement répondu qu’en presque 20 ans de travail aucune réunion technique n’a fait l’objet de compte-rendu…15

      Pour être tout à fait honnête, c’est une première dans l’histoire de nos demandes CADA.
      Le retour de l’alibi technique

      A ceci s’ajoute, depuis le début de l’année, la mise en place de ce qui apparaît comme une véritable communication de crise par l’institution autour de son algorithme. En juin 2022, la CAF a notamment publié un communiqué intitulé « Contrôle et datamining » dans lequel elle tente de répondre aux critiques soulevées par son algorithme16.

      A sa lecture, on prend toute la mesure du rôle d’alibi technique à une politique de contrôle discriminatoire que joue l’algorithme, ce que nous dénoncions déjà ici.

      L’algorithme y est décrit comme étant un objet purement scientifique dont le caractère politique est nié. Il est ainsi expliqué que la note des allocataires est le fruit d’une « démarche scientifique d’étude statistique […] menée par des experts » se fondant sur des critères « scientifiquement pondérés » ayant été sélectionnés « sur seuls critères statistiques ». Le secrétaire général de la CAF ajoute17 de son côté que cet outil serait un « miroir des situations statistiques » servant à identifier des « environnements de risques ».

      Ce faisant, les responsables de la CAF cherchent à nier leur responsabilité (politique) dans la conduite, et la validation, d’une politique de contrôle discriminatoire. Nul part n’apparaît que que si les erreurs se concentrent sur les plus précaires, c’est tout simplement parce qu’au fil des ans se sont multipliées les règles et contraintes encadrant l’accès aux minima sociaux, et ce, dans le seul but de restreindre leur accessibilité18.

      On mesure enfin l’impact des logiques gestionnaires appliquées aux institutions sociales. Logiques réduisant des millions de vies et d’histoires, à de simples notions statistiques, déshumanisantes, froides et vides de sens.
      Communication mensongère

      La deuxième partie du document est consacrée à un « Vrai/Faux » portant sur l’algorithme où transpire la malhonnêteté intellectuelle.

      A l’affirmation « Les scores de risques les plus élevés concernent toujours les plus pauvres », la CAF répond Faux car « les scores de risques sont calculés pour tous les allocataires ». Ce qui n’a tout simplement aucun sens…

      A la question « Les contrôleurs sont payés aux résultats », la CAF répond que ce serait faux, bien qu’elle admette que l’Etat lui fixe bien un objectif à atteindre en termes de détection de fraude. Ici encore, l’institution joue avec les mots. S’il est vrai que les contrôleurs.ses n’ont pas de « prime sur leurs résultats », ils et elles touchent un intéressement, tout comme l’ensemble du personnel de la CAF, dont le montant dépend bien de l’atteinte de ces objectifs de contrôle19.

      A la question « Plus de 1000 données concernant les allocataires sont utilisées dans le modèle de datamining des CAF », la CAF répond que seules une quarantaine seraient utilisées. Elle détourne ainsi la question puisque – comme expliqué ci-dessus – elle omet de dire que ces quarante variables sont sélectionnées après une phase d’entraînement du modèle qui nécessite l’utilisation, et le traitement, de plus de mille variables par allocataire20.

      Enfin, aux questions « Les contrôleurs de la Caf ont accès à toutes les infos qu’ils souhaitent à l’insu des allocataires », et « Les allocations sont suspendues pendant le contrôle », la CAF répond que non car « aucune demande n’est faite à d’autres administrations, sans en avoir averti auparavant l’allocataire, aucune procédure vis-à-vis d’un tiers n’est engagée à l’insu de celui-ci. » Et ajoute que, lors d’un contrôle, « les allocations ne sont pas suspendues ».

      Sur ces deux derniers points, nous vous invitons à lire les témoignages collectés par le Défenseur des Droits, les collectifs « Stop Contrôles », « Changer de Cap » et différentes associations de lutte contre la précarité21 qui alertent depuis des années sur les suspensions abusives d’allocations pendant les contrôles et les pratiques invasives (consultation des comptes bancaires, relevés d’électricité, analyse de l’adresse IP etc…) des contrôleurs·ses de la CAF à l’insu des allocataires.
      Fraude à enjeux et lutte contre le non-recours : des contre-feux médiatiques

      A ceci s’ajoute diverses annonces de la CAF participant à nourrir une stratégie de diversion médiatique autour de son algorithme de notation.

      Dans son dernier rapport annuel sur la « lutte contre la fraude », nulle référence n’est faite à l’algorithme alors que celui-ci était mis à l’honneur, en première page, l’année précédente. La CAF précisant au passage qu’il était loué par la Cour des Comptes et l’Assemblée Nationale.

      A sa place, la CAF a préféré cette année mettre en avant son équipe de contrôleur.ses dédiée à la « lutte contre la fraude à enjeux »22, c’est à dire des fraudes organisées (usurpation d’identités, faux documents, fraude au RIB) à grande échelle. Soit 30 agentes et agents qui d’après les dires de la CAF sont, ni plus ni moins, chargé·es de « protéger le système de sécurité sociale français des risques de pillage » et qui font rentrer la CAF dans « une nouvelle dimension de la lutte contre la fraude »23.

      A titre de comparaison, nous tenons à rappeler que ce sont pas moins de 700 contrôleuses et contrôleurs qui, guidé·es par son algorithme discriminatoire, sont chargé·es de traquer les moindre erreurs de déclaration faites par les plus précaires.

      Deuxième angle d’attaque : la mise en avant de l’utilisation d’algorithmes de profilage à des fins de lutte contre le non-recours24. Comme si l’application des techniques de profilage à des fins « positives » pouvait justifier leur application à des fins répressives. Sur ce sujet, la CAF omet pourtant de dire le plus important : depuis maintenant plus de 10 ans, elle a systématiquement favorisé l’application de ces techniques à des fins de contrôle plutôt que de lutte contre le non-recours.

      Ses équipes de « data-scientist » regrettaient dès 2013 que les techniques de profilage des allocataires soient uniquement utilisées à des fins de contrôle et non de lutte contre le non recours25. Cette réalité est rappelée dans un rapport de l’Assemblée Nationale daté de 2016 qui précise que « l’extension explicite de l’usage du data mining à d’autres fins, notamment celle de lutte contre le non-recours, était envisageable dès l’origine, mais cette possibilité a été écartée, au moins dans les premières années d’utilisation de cet outil »26. Il aura fallu attendre 2017 pour que la CAF commence à mener des expérimentations, et il semblerait qu’aujourd’hui le profilage contre le non-recours est limité à la prime d’activité et l’allocation de soutien familial27.

      Le sociologue Vincent Dubois ajoute que cette situation « interroge sur la réalité des slogans institutionnels “tous les droits rien que les droits” qui en fait est beaucoup plus tournée vers l’identification des indus, frauduleux ou non, que vers les cas de non-recours qui sont en fait beaucoup plus nombreux »28.

      En tout état de cause, l’histoire politique de l’utilisation par la CAF des techniques de profilage à des fins de lutte contre le non-recours ne semble pas très glorieuse.

      Ce dernier point interroge aussi sur le fantasme entretenu autour de l’automatisation de l’état social pour répondre aux problèmes sociaux. A l’heure où le gouvernement lance l’expérimentation d’un « RSA sous conditions », la mise en avant de solutions techniques pour lutter contre le non-recours dépolitise la question de l’accès aux droits. Tout en taisant les problèmes que génèrent, pour des millions de personnes, la dématérialisation des services publics.

      Enfin, la CAF a annoncé en grande pompe la nomination d’une médiatrice nationale chargée, entre autres, des questions de données personnelles à la CNAF29 en juin 2022. Parmi ses missions : « la protection des données et de la sécurité des usagers dans le cadre des systèmes d’information. » Et le communiqué accompagnant sa nomination ajoute qu’elle « sera également la référente nationale déontologie ». Nous serions plus que ravi·es d’entendre son avis sur l’algorithme de notation de la CAF.
      Lutter au-delà de la transparence

      La transparence que nous exigeons auprès de la CAF ne doit pas masquer le fond du problème. En un sens, ce que nous savons déjà de l’algorithme de cette institution, sans même avoir eu accès à son code, nous suffit à nous y opposer.

      La transparence n’est donc pas une fin en soi : c’est un moyen que nous souhaitons mobiliser pour mettre en lumière, et critiquer, un discours politique cherchant à légitimer la volonté de contrôle d’un appareil étatique via l’entretien d’un discours de suspicion généralisée et la stigmatisation de certaines catégories de la population.

      Volonté de contrôle qui, hélas, profite aujourd’hui de la puissance des outils numériques et de l’exploitation de nos données personnelles afin de toujours plus nous évaluer et, ainsi, nous trier.

      A l’heure où un nombre toujours plus grand d’institutions, sociales et policières, mettent en place de telles solutions de surveillance algorithmique, nous continuerons de les documenter et de faire ce que nous pouvons, à notre niveau, pour les contrer.

      Au côté des collectifs Stop Contrôles, Changer de Cap et de toutes les associations et collectifs de lutte contre la précarité qui font face, depuis des années, aux dérives du tout numérique et au développement sans limite des politiques de contrôle social, nous espérons que vous serez nombreux.ses à nous rejoindre.

      Enfin, nous ne doutons pas que ce sentiment d’injustice est partagé par la plupart des employé·es de la CAF. C’est pourquoi nous tenons à encourager celles et ceux qui, révolté·es par ces pratiques, pourraient nous aider à les documenter. Vous pouvez nous contacter par mail, téléphone, en venant nous rendre visite ou déposer de manière anonyme des documents sur notre SecureDrop. A l’heure où les responsables de la CAF font le choix de l’opacité, nous avons plus que jamais besoin de vous.

      https://www.laquadrature.net/2022/12/23/notation-des-allocataires-febrile-la-caf-senferme-dans-lopacite
      déjà sur seenthis (via @colporteur) :
      https://seenthis.net/messages/984668

      #algorithme #discrimination #mères_isolées #risque

    • C’est la réponse qui a toujours été faite aux syndicats qui réclament depuis des années les barèmes et algo pour pouvoir contester dans le cadre des TRÈS nombreuses erreurs de calcul.

      « gna gna gna, vous allez tricher ! ».

      Marrant comme on accuse toujours l’autre de ses propres turpitudes.

      Oui, des fois, les gens pourraient refuser une miette de boulot de merde qui va faire sauter tous leurs droits de manière disproportionnée et les foutre encore plus dans la merde. Oui, des fois, les gens pourraient s’organiser pour ne pas se retrouver dans une trappe à contrôle ou une situation encore plus dégradée.

      Oui, t’imagine ? Les gens pourraient juste faire valoir leurs droits si souvent déniés sans même avoir à avancer un début de justification.

      Et ils pourraient se rendre compte que ce n’est pas l’algo, mais bien un agent malintentionné qui a niqué leur dossier.

    • y aurait pas moyen de « retourner » (comme une chaussette) leur truc de la caf ? Genre, une expérience de science participative :-) on pourrait : 1./ demander que le "score" soit communiqué à chaque administré (e.g. via CNIL), 2./ collecter score et infos perso sur la base du volontariat, éventuellement en anonymisant les données, et 3./ faire un modèle « externe » avec ces données, le publier, et enfin 4./ s’en servir pour identifier les cas de non-recours (et au moins les compter)

  • Notation des allocataires : fébrile, la CAF s’enferme dans l’opacité – La Quadrature du Net
    https://www.laquadrature.net/2022/12/23/notation-des-allocataires-febrile-la-caf-senferme-dans-lopacite


    Extrait du code source de l’algorithme de notation transmis par la CAF.

    Alors que la contestation monte (voir https://basta.media/caf, https://www.defenseurdesdroits.fr/sites/default/files/atoms/files/836200110_ddd_algorithmes_access.pdf, https://www.voxpublic.org/Pour-une-reforme-des-pratiques-numeriques-des-Caisses-d-allocations-famil ou Comment un robot de la CAF provoque des dettes automatisées au détriment de ses allocataires https://dubasque.org/comment-la-caf-a-cree-un-robot-qui-cree-des-dettes-aux-allocataires) concernant son algorithme de notation des allocataires à des fins de contrôle social, la CAF choisit de se réfugier dans l’opacité tout en adaptant, maladroitement, sa politique de communication. Suite à son refus de communiquer le code source de son algorithme, nous avons saisi la Commission d’Accès aux Documents Administratifs (#CADA).

    Comme nous l’expliquions ici, la CAF utilise depuis 2012 un algorithme de profilage attribuant à chaque allocataire une note ou « score de risque ». Construite à partir des centaines de données dont la CAF dispose sur chaque allocataire, cette note est ensuite utilisée pour sélectionner celles et ceux qui seront contrôlé·es.

    Cet algorithme symbolise l’étendue des dérives de l’utilisation des outils numériques au service de politiques de contrôle social portées par des logiques policières de suspicion généralisée, de tri et d’évaluation continue de chacun de nos faits et gestes.

    Ici, comme c’est généralement le cas par ailleurs, ce tri cible les plus précaires. Les rares informations disponibles à ce sujet laissent apparaître que parmi les critères dégradant la note d’un·e allocataire, et augmentant ses chances d’être contrôlé·e, on trouve pêle-mêle : le fait de disposer de faibles revenus, d’habiter dans un quartier défavorisé, d’être une mère célibataire ou encore d’être né·e hors de France.

    https://seenthis.net/messages/982845

    #CAF #algorithme #allocataires #contrôle_social

  • #Surveillance algorithmique des examens : TestWe ne passera pas l’hiver
    https://www.laquadrature.net/2022/12/16/surveillance-algorithmique-des-examens-testwe-ne-passera-pas-lhiver

    Il y a deux semaines, nous relayions le recours d’étudiant·es contre l’usage par l’institut d’études à distance de l’Université Paris 8 du logiciel de surveillance algorithmique des examens « TestWe », recours au soutien duquel La Quadrature…

  • Mobilisation étudiante contre TestWe, l’entreprise qui veut technopoliser l’Université
    https://www.laquadrature.net/2022/12/02/mobilisation-etudiante-contre-testwe-lentreprise-qui-veut-technopolise

    La Quadrature appelle à soutenir la lutte d’un collectif d’étudiant·es de l’Université Paris 8 contre TestWe, la start-up qui veut technopoliser l’Université. Cette télésurveillance d’examens à distance est déshumanisante, discriminatoire et intrusive, en plus d’être…

    #général #Surveillance

    • Son PDG, Benoît Sillard, se vante ainsi de mettre « en place actuellement un système à double caméras, celle de l’ordinateur qui filme par l’avant, et celle de votre smartphone qui filme l’ensemble de la pièce, pour vérifier qu’il n’y a pas un deuxième ordinateur ou quelqu’un en train de vous souffler ».

      Il est demandé aux étudiant·es de filmer leur environnement (avec un smartphone donc) et dans le même temps il est « interdit d’utiliser un autre appareil électronique » (que l’ordinateur servant à composer) . Cherchez l’erreur

    • #TestWe, déjà mentionnée ici :

      Techniquement, les détails divergent, mais la plupart des entreprises listées par le ministère proposent une #captation_d’image. « D’abord, l’étudiant installe le logiciel et l’autorise à fermer toutes les autres applications. Ensuite il se prend en photo avec sa carte d’identité », explique Benoît Sillard, PDG de #TestWe, l’une des sociétés citées par le ministère.
      Des reproches injustifiés, tente de pondérer Benoît Sillard, qui estime que les examens encadrés par sa société sont « exactement les mêmes, en dématérialisé, que dans une salle de cours ». Le PDG de TestWe affirme avoir été très sollicité par des établissements du supérieur ces dernières semaines et avoir déjà organisé plusieurs milliers d’examens surveillés. « Les grandes écoles ont vite basculé », résume-t-il, rappelant que sa société a déjà travaillé avec l’ENA ou de grosses écoles de commerce comme l’EM Lyon. « C’est plus long du côté des facs », admet-il, tout en assurant être en « négociations très avancées » avec plusieurs universités.

      https://www.mediapart.fr/journal/france/010520/dans-les-universites-la-tentation-de-la-telesurveillance-des-examens?xtor=

      sur seenthis, ce long fil de discussion sur la "tentation de la #télésurveillance des examens" :
      « Il n’est pas besoin de beaucoup de mots » : #dérogations à tout va dans les #universités
      https://seenthis.net/messages/835328

  • Paris 2024 : les olympiades sécuritaires du gouvernement
    https://www.laquadrature.net/2022/11/29/paris-2024-les-olympiades-securitaires-du-gouvernement

    À moins de deux ans des Jeux Olympiques et Paralympiques de Paris, et à un an de la Coupe du Monde de masculine de rugby présentée comme une sorte de « répétition générale » d’un grand événement…

    #général #Surveillance

  • La Quadrature lance sa campagne de soutien pour 2023
    https://www.laquadrature.net/2022/11/15/la-quadrature-lance-sa-campagne-de-soutien-pour-2023

    Déjà novembre et la fin de l’année ! Les illuminations de Noël qui scintillent ! Les factures d’électricité qui crépitent ! Enfin la course aux cadeaux de dernière minute ! Le vin chaud en plein air, tandis qu’il fait…

    #LQDN

  • Examen de la LOPMI : Refusons les policiers programmés
    https://www.laquadrature.net/2022/10/28/examen-de-la-lopmi-refusons-les-policiers-programmes

    Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 28 octobre 2022. La loi d’orientation et de programmation du ministère de l’Intérieur (la « LOPMI ») a été adoptée au Sénat et sera débattue à l’Assemblée…

    #Non_classé

  • CAF : le numérique au service de l’exclusion et du harcèlement des plus précaires
    https://www.laquadrature.net/2022/10/19/caf-le-numerique-au-service-de-lexclusion-et-du-harcelement-des-plus-p

    Depuis bientôt un an nous luttons au sein du collectif « Stop Contrôles »1Il est possible de contacter le collectif « Stop Contrôles » à l’adresse suivante : stop.contrôles@protonmail.com pour des récits ou des problématiques actuelles face au contrôles de la…

    #Surveillance

  • Face à la justice, la mairie de Marseille défend la vidéosurveillance algorithmique
    https://www.laquadrature.net/2022/10/11/face-a-la-justice-la-mairie-de-marseille-defend-la-videosurveillance-a

    Alors que le changement de majorité à la mairie de Marseille nous avait un temps laissé croire à l’abandon des projets technopoliciers hérités de la mandature précédente, plus le temps passe et plus la douche…

    #Non_classé

  • 15 248 personnes portent plainte contre la Technopolice
    https://www.laquadrature.net/2022/09/26/15-248-personnes-portent-plainte-contre-la-technopolice

    La campagne Technopolice, lancée par La Quadrature du Net en septembre 2019 pour documenter la progression de la #Surveillance automatisée en France, a franchi un nouveau cap ce samedi 24 septembre : une plainte collective contre…

  • [Mediapart.Fr] Après 15 ans de luttes, La Quadrature du Net raconte
    https://www.laquadrature.net/2022/09/18/mediapart-fr-apres-15-ans-de-luttes-la-quadrature-du-net-raconte

    Fondée en 2008 par des hacktivistes s’opposant à la loi Hadopi, La Quadrature du Net a depuis été de toutes les luttes concernant le numérique. À chaque projet de texte national ou européen touchant aux…

    #Parle_de_La_Quadrature_du_Net #Revue_de_presse #Vie_privée_-_Données_personnelles #revue_de_presse

  • Guide pour lutter contre la vidéosurveillance
    https://www.laquadrature.net/2022/09/16/guide-pour-lutter-contre-la-videosurveillance

    Cet article a été publié précédemment sur notre blog Technopolice Technopolice publie aujourd’hui son premier guide pour lutter contre la vidéosurveillance sur la voie publique. Celui-ci ne se veut en aucun cas exhaustif : il détaille les…

    #Surveillance

  • J-10 avant le dépôt de la plainte collective contre la Technopolice !
    https://www.laquadrature.net/2022/09/14/j-10-avant-le-depot-de-la-plainte-collective-contre-la-technopolice

    Depuis le mois de mai, La Quadrature du Net collecte des mandats en vue d’une plainte collective contre le Ministère de l’Intérieur. Cette plainte sera déposée devant la CNIL et attaquera les quatre piliers de…

    #général #Surveillance

  • La Quadrature : 15 bougies et un livre !
    https://www.laquadrature.net/2022/09/12/la-quadrature-du-net-a-quinze-ans-quinze-ans-deja

    La Quadrature du Net a quinze ans. Quinze ans déjà ! Des dizaines d’actions, de plaidoiries, d’articles, d’événements publics et de campagnes médiatiques nourrissent les souvenirs et les discussions des fondateurs, bénévoles, membres et salariés depuis la…

    #Non_classé

  • Classer pour dominer [et réprimer] : petite Histoire critique du fichage en France | LQDN | 07.09.22

    https://www.laquadrature.net/2022/09/07/classer-pour-dominer-petite-histoire-critique-du-fichage-en-france

    Qui c’est les plus forts ? Évidemment c’est les Bleus !

    Finalement abandonné face à la controverse, le projet SAFARI déboucha sur une commission d’enquête qui donna naissance à la Commission nationale de l’informatique et des libertés (CNIL) et à la loi Informatique et Libertés du 6 janvier 1978, socle de la protection des données personnelles encore en vigueur aujourd’hui. Au-delà de la création d’un encadrement juridique, cet épisode marque une amorce de politisation sur le sujet. Cette réflexion avait d’ailleurs débuté avant ce scandale, le directeur du « service des écoles et techniques » mentionné plus haut écrivait lui-même en 1969 :

    « La mise en mémoire d’un certain nombre de données n’est-elle pas attentatoire à la liberté et même à la dignité de l’homme ? Ne présente t-elle pas des dangers si nous connaissons à nouveau comme naguère la férule d’un État totalitaire, le joug d’une police politique orientée non vers le maintien de l’ordre public, la prévention et la répression des crimes, mais vers l’asservissement des citoyens libres, privés par une minorité de leurs moyens d’expression ? Le problème vaut qu’on y réfléchisse longuement et profondément ».

    [sauf que]

    Malheureusement ce ne fut pas le cas, ces pratiques d’identification de surveillance étant probablement bien trop ancrées dans les rouages de l’institution policière.

    Dès les années 1980, avec la généralisation des ordinateurs, la police commençait à collecter des informations de façon massive et désordonnée. Plutôt que de limiter ces pratiques, il fut au contraire décidé de rationaliser et d’organiser cette quantité de données au sein de fichiers centralisés pour en tirer une utilité. C’est dans ce contexte qu’est apparue l’idée du fichier STIC (Système de traitement des infractions constatées), visant à intégrer toutes les informations exploitées par les services de police dans une seule et même architecture, accessible à tous les échelons du territoire. Finalement mis en œuvre et expérimenté dans les années 1990, le fichier STIC cristallisa de nombreuses tensions entre le Ministère de l’Intérieur et la CNIL qui durent négocier pendant plusieurs années afin d’en fixer le cadre légal. Si la CNIL a obtenu des garanties dans un accord à l’arrachée en 1998, cette victoire a paradoxalement signé la fin de son influence et de sa légitimité. En effet, dans les années qui suivirent, toutes les réserves qu’elles avait pu obtenir ont été ostensiblement bafouées. Mais surtout, cette longue bataille qui avait concrètement ralenti et empêché le développement du fichier souhaité par le Ministère poussa le gouvernement à supprimer par la suite le pouvoir d’autorisation attribué à la CNIL afin de ne plus être gêné dans ses projets. C’est pourquoi, en 2004, la modification de la Loi pour la confiance dans l’économie numérique (LCEN) acta la suppression du pouvoir de contrainte de la CNIL pour le transformer en simple avis consultatif. Cela signifie qu’elle ne dispose plus de l’autorité nécessaire pour empêcher ou limiter la création de fichiers de police par le gouvernement. Cette modification législative marque un tournant dans le droit des fichiers et des données personnelles ainsi que dans la pratique policière. Les garde-fous ayant sauté, l’espace politique pour parvenir à une surveillance massive se libère, les limites légales devenant purement cosmétiques.

    #chassez_le_naturel

  • Classer pour dominer : petite histoire critique du fichage en France
    https://www.laquadrature.net/2022/09/07/classer-pour-dominer-petite-histoire-critique-du-fichage-en-france

    La campagne d’action collective contre la Technopolice se termine dans quelques semaines. Notre plainte contre le Ministère de l’Intérieur (que vous pouvez encore rejoindre ici) vise notamment deux fichiers étatiques massifs : le fichier TAJ et…

    #Non_classé

  • Financement régional de drones policiers : l’Île-de-France dans l’embarras
    https://www.laquadrature.net/2022/09/05/financement-regional-de-drones-policiers-lile-de-france-dans-lembarras

    En début d’année, La Quadrature du Net s’associait aux élu·es de la région Île-de-France mobilisé·es contre le subventionnement illégal de drones municipaux par la région. Mise sous pression, la majorité régionale, embarrassée, commence à admettre…

    #général #Surveillance

  • Financement régional de drones policiers : l’Île-de-France dans l’embarras
    https://www.laquadrature.net/2022/09/05/financement-regional-de-drones-policiers-lile-de-france-dans-lembarras

    En début d’année, La Quadrature du Net s’associait aux élu·es de la région Île-de-France mobilisé·es contre le subventionnement illégal de drones municipaux par la région. Mise sous pression, la majorité régionale, embarrassée, commence à…

    #général #Surveillance

  • Généralisation de la #Censure automatisée : le Conseil constitutionnel est saisi
    https://www.laquadrature.net/2022/07/29/generalisation-de-la-censure-automatisee-le-conseil-constitutionnel-es

    L’Assemblée nationale a adopté définitivement la proposition de loi relative à la « diffusion de contenus à caractère terroriste en ligne », issue du règlement européen de censure terroriste que nous avons longuement combattu ces dernières…

    #Non_classé