• À Strasbourg, l’Europe intensifie discrètement le fichage des migrants

    Dans un bâtiment discret, 350 personnes travaillent à renforcer le #contrôle et le #suivi des personnes entrant dans l’#espace_Schengen. Reportage dans l’agence de l’Union européenne qui renforce le fichage des migrants.

    Dans le quartier du Neuhof à Strasbourg, un bâtiment hautement sécurisé attire l’œil. Dissimulée derrière le gymnase du Stockfeld et entourée de terrains vagues, l’#agence_européenne #eu-Lisa est protégée par deux lignes barbelées surplombées de caméras. Aux alentours du bâtiment, les agents de sécurité portent au cœur un petit drapeau bleu aux douze étoiles. Des véhicules immatriculés en France, au Luxembourg, en Belgique et en Allemagne stationnent sur le parking.

    Créée en 2011 et opérationnelle depuis 2012, l’#agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information à grande échelle eu-Lisa développe et fait fonctionner les #bases_de_données de l’Union européenne (UE). Ces dernières permettent d’archiver les #empreintes_digitales des demandeurs et demandeuses d’asile mais aussi les demandes de visa ou les alertes de personnes portées disparues.

    Le siège d’eu-Lisa est à Tallinn, en Estonie. Un bureau de liaison se trouve à Bruxelles et son centre opérationnel a été construit à Strasbourg. Lundi 26 février, le ministre délégué aux affaires européennes, Jean-Noël Barrot, est venu visiter l’endroit, où sont développés les nouveaux systèmes de suivi et de #filtrage des personnes migrantes et des voyageurs et voyageuses non européen·nes. Le « cœur de Schengen », selon la communication de l’agence.

    Sur les écrans de contrôle, des ingénieur·es suivent les requêtes adressées par les États membres aux différents #systèmes_d’information_opérationnels. L’un d’eux raconte que le nombre de cyberattaques subies par l’agence est colossal : 500 000 tentatives par mois environ. La quantité de données gérées est aussi impressionnante : en 2022, le système #VIS (#Visa_Information_System) a enregistré 57 millions de demandes de #visas et 52 millions d’empreintes digitales. La même année, 86,5 millions d’alertes ont été transmises au système #SIS (#Schengen_Information_System).

    Dans l’agence du Neuhof, une vingtaine de nationalités sont représentées parmi les 350 travailleurs et travailleuses. En tout, 500 mètres carrés sécurisés abritent les données confidentielles de dizaines de millions de personnes. 2 500 ordinateurs fonctionnent en permanence pour une capacité de stockage de 13 petabytes, soit 13 milliards de gigabytes. Vingt-quatre heures sur vingt-quatre et sept jours sur sept, l’eu-Lisa répond aux demandes de données des pays membres de l’espace Schengen ou de l’Union européenne.

    Traduire la politique en #technologie

    Au-delà de la salle de réunion, impossible de photographier les murs ou l’environnement de travail. L’enclave européenne est sous haute surveillance : pour entrer, les empreintes digitales sont relevées après un passage des sacs au scanner. Un badge connecté aux empreintes permet de passer un premier sas d’entrée. Au-delà, les responsables de la sécurité suivent les visiteurs de très près, au milieu d’un environnement violet et vert parsemé de plantes de toutes formes.

    Moins de six mois avant le début des Jeux olympiques et paralympiques de Paris et deux mois après l’accord européen relatif au Pacte sur la migration et l’asile, l’agence aux 260 millions d’euros de budget en 2024 travaille à mettre en place le système de contrôle des flux de personnes le plus précis, efficace et complet de l’histoire de l’espace Schengen. Le pacte prévoit, par exemple, que la demande d’asile soit uniformisée à travers l’UE et que les « migrants illégaux » soient reconduits plus vite et plus efficacement aux frontières.

    Pour accueillir le ministre, #Agnès_Diallo, directrice de l’eu-Lisa depuis 2023, diffuse une petite vidéo en anglais dans une salle de réunion immaculée. L’ancienne cadre de l’entreprise de services numériques #Atos présente une « agence discrète » au service de la justice et des affaires intérieures européennes. À l’eu-Lisa, pas de considération politique. « Notre agence a été créée par des règlements européens et nous agissons dans ce cadre, résume-t-elle. Nous remplaçons les frontières physiques par des #frontières_numériques. Nous travaillons à laisser passer dans l’espace Schengen les migrants et voyageurs qui sont légitimes et à filtrer ceux qui le sont moins. »

    L’eu-Lisa invente, améliore et fait fonctionner les sept outils informatiques utilisés en réseau par les États membres et leurs institutions. L’agence s’assure notamment que les données sont protégées. Elle forme aussi les personnes qui utiliseront les interfaces, comme les agents de #Frontex, d’#Europol ou de la #police_aux_frontières. Au Neuhof, les personnes qui travaillent n’utilisent pas les informations qu’elles stockent.

    Fichés dès l’âge de 6 ans

    L’agence eu-Lisa héberge les empreintes digitales de 7,5 millions de demandeurs et demandeuses d’asile et « migrants illégaux » dans le système appelé Eurodac. Pour le moment, les données récoltées ne sont pas liées à l’identité de la personne ni à sa photo. Mais avec l’adoption des nouvelles règles relatives au statut de réfugié·e en Europe, Eurodac est en train d’être complètement refondé pour être opérationnel en 2026.

    La réforme décidée en décembre 2023 prévoit que les demandeurs d’asile et « migrants illégaux » devront fournir d’autres informations biométriques : en plus de leurs empreintes, leur photo, leur nom, prénom et date et lieu de naissance seront enregistrés lors de leur entrée dans Schengen. La procédure vaudra pour toute personne dès l’âge de 6 ans (contre 14 avant la réforme). Les #données qui étaient conservées pour dix-huit mois pourront l’être jusqu’à cinq ans.

    La quantité d’informations stockées va donc croître exponentiellement dès 2026. « Nous aurons énormément de données pour #tracer les mouvements des migrants irréguliers et des demandeurs d’asile », se félicite #Lorenzo_Rinaldi, l’un des cadres de l’agence venant tout droit de Tallinn. Eurodac permettra à n’importe quelle autorité policière habilitée de savoir très précisément par quel pays est arrivée une personne, ainsi que son statut administratif.

    Il sera donc impossible de demander une protection internationale dans un pays, puis de s’installer dans un autre, ou de demander une seconde fois l’asile dans un pays européen. Lorenzo Rinaldi explique : « Aujourd’hui, il nous manque la grande image des mouvements de personnes entre les États membres. On pourra identifier les tendances, recouper les données et simplifier l’#identification des personnes. »

    Pour identifier les itinéraires et contrôler les mouvements de personnes dans l’espace Schengen, l’agence travaille aussi à ce que les sept systèmes d’information fonctionnent ensemble. « Nous avions des bases de données, nous aurons désormais un système complet de gestion de ces informations », se réjouit Agnès Diallo.

    L’eu-Lisa crée donc également un système de #traçage des entrées et des sorties de l’espace Schengen, sobrement appelé #Entry-Exit_System (ou #EES). Développé à l’initiative de la France dès 2017, il remplace par une #trace_numérique le tamponnage physique des passeports par les gardes-frontières. Il permet notamment de détecter les personnes qui restent dans Schengen, après que leur visa a expiré – les #overstayers, celles qui restent trop longtemps.

    Frontières et Jeux olympiques

    « Toutes nos équipes sont mobilisées pour faire fonctionner le système EES [entrées-sorties de l’espace Schengen – ndlr] d’ici à la fin de l’année 2024 », précise Agnès Diallo. Devant le Sénat en 2023, la directrice exécutive avait assuré que l’EES ne serait pas mis en place pendant les Jeux olympiques et paralympiques si son influence était négative sur l’événement, par exemple s’il ralentissait trop le travail aux frontières.

    En France et dans onze autres pays, le système EES est testé depuis janvier 2024. L’agence estime qu’il sera prêt pour juillet 2024, comme l’affirme Lorenzo Rinaldi, chef de l’unité chargé du soutien à la direction et aux relations avec les partenaires de l’eu-Lisa : « Lorsqu’une personne non européenne arrive dans Schengen, elle devra donner à deux reprises ses #données_biométriques. Donc ça sera plus long la première fois qu’elle viendra sur le territoire, mais ses données seront conservées trois ans. Les fois suivantes, lorsque ses données seront déjà connues, le passage sera rapide. »

    Ce système est prévu pour fonctionner de concert avec un autre petit nouveau, appelé #Etias, qui devrait être opérationnel d’ici au premier semestre de 2025. Les personnes qui n’ont pas d’obligation d’avoir de visa pour entrer dans 30 pays européens devront faire une demande avant de venir pour un court séjour – comme lorsqu’un·e citoyen·ne français·e demande une autorisation électronique de voyage pour entrer aux États-Unis ou au Canada. La procédure, en ligne, sera facturée 7 euros aux voyageurs et voyageuses, et l’autorisation sera valable trois ans.

    L’eu-Lisa gère enfin le #système_d’information_Schengen (le #SIS, qui gère les alertes sur les personnes et objets recherchés ou disparus), le système d’information sur les visas (#VIS), la base de données des #casiers_judiciaires (#Ecris-TCN) et le #Codex pour la #coopération_judiciaire entre États membres.

    L’agence travaille notamment à mettre en place une communication par Internet entre ces différents systèmes. Pour Agnès Diallo, cette nouveauté permettra une coordination sans précédent des agents aux frontières et des institutions judiciaires nationales et européennes dans les 27 pays de l’espace Schengen.

    « On pourra suivre les migrants, réguliers et irréguliers », se félicite Fabienne Keller, députée européenne Renew et fervente défenseuse du Pacte sur les migrations. Pour la mise en place de tous ces outils, l’agence eu-Lisa devra former les États membres mais également les transporteurs et les voyageurs et voyageuses. L’ensemble de ces systèmes devrait être opérationnel d’ici à la fin 2026.

    https://www.mediapart.fr/journal/international/050324/strasbourg-l-europe-intensifie-discretement-le-fichage-des-migrants

    #fichage #migrations #réfugiés #biométrie
    via @karine4
    ping @_kg_

  • Piratage de Viamedis et Almerys : les données de santé plus de 33 millions de personnes concernées, selon la CNIL
    https://www.lemonde.fr/pixels/article/2024/02/07/piratage-de-viamedis-et-almerys-les-donnees-de-plus-de-33-millions-de-person

    Les données des millions d’assurés qui ont été compromises lors du piratage des bases de données sont « l’état civil, la date de naissance et le numéro de Sécurité sociale, le nom de l’assureur santé ainsi que les garanties du contrat souscrit », selon la CNIL.

  • La France crée un fichier des personnes trans
    https://www.laquadrature.net/2024/01/30/la-france-cree-un-fichier-des-personnes-trans

    Révélé et dénoncé par plusieurs associations de défense des droits des personnes transgenres, un récent arrêté ministériel autorise la création d’un fichier de recensement des changements d’état civil. Accessible par la police et présenté comme…

    #Données_personnelles #Surveillance

  • Pourquoi la #promesse de « vidéogérer » les #villes avec des caméras couplées à une #intelligence_artificielle séduit et inquiète

    Sécurité, stationnement, déchets… #Nîmes a inauguré, à l’automne 2023, son « #hyperviseur_urbain ». Alors que la collecte et la circulation des #données sont au cœur de ce système, l’antenne locale de la Ligue des droits de l’homme s’inquiète. D’autres villes, comme #Dijon, ont déjà fait ce choix.

    La salle a des allures de centre spatial : un mur de plus de 20 mètres de long totalement recouvert d’écrans, 76 au total, chacun pouvant se diviser en neuf. Ici parviennent les images des 1 300 #caméras disposées dans la ville de Nîmes et dans certaines communes de son agglomération.

    A la pointe depuis 2001 sur le thème des #caméras_urbaines, se classant sur le podium des villes les plus vidéosurveillées du pays, Nîmes a inauguré, le 13 novembre 2023, son « #hyperviseur ». Ce plateau technique et confidentiel de 600 mètres carrés est entièrement consacré à une « nouvelle démarche de #territoire_intelligent », indique le maire (Les Républicains), Jean-Paul Fournier, réélu pour un quatrième mandat en 2020.

    Avec cet outil dernier cri, sur lequel se relaient nuit et jour une cinquantaine de personnes, la ville fait un grand pas de plus vers la #smart_city (la « #ville_connectée »), une tendance en plein développement pour la gestion des collectivités.

    Ce matin-là, les agents en poste peuvent facilement repérer, à partir d’images de très haute qualité, un stationnement gênant, un véhicule qui circule trop vite, un dépotoir sauvage, un comportement étrange… L’hyperviseur concentre toutes les informations en lien avec la gestion de l’#espace_public (sécurité, circulation, stationnement, environnement…), permet de gérer d’un simple clic l’éclairage public d’un quartier, de mettre une amende à distance (leur nombre a augmenté de 23 % en un an avec la #vidéoverbalisation) ou de repérer une intrusion dans un des 375 bâtiments municipaux connectés.

    La collecte et la circulation des données en temps réel sont au cœur du programme. Le système s’appuie sur des caméras dotées, et c’est la nouveauté, de logiciels d’intelligence artificielle dont les #algorithmes fournissent de nouvelles informations. Car il ne s’agit plus seulement de filmer et de surveiller. « Nous utilisons des caméras qui permettent de gérer en temps réel la ville et apportent des analyses pour optimiser la consommation d’énergie, par exemple, ou gérer un flux de circulation grâce à un logiciel capable de faire du comptage et de la statistique », explique Christelle Michalot, responsable de ce centre opérationnel d’#hypervision_urbaine.

    #Reconnaissance_faciale

    Si la municipalité n’hésite pas à présenter, sur ses réseaux sociaux, ce nouveau dispositif, elle est en revanche beaucoup plus discrète lorsqu’il s’agit d’évoquer les #logiciels utilisés. Selon nos informations, la ville travaille avec #Ineo, une entreprise française spécialisée dans le domaine de la #ville_intelligente. Le centre de police municipale est également équipé du logiciel de #surveillance_automatisée #Syndex, et d’un logiciel d’analyse pour images de vidéosurveillance très performant, #Briefcam.

    Ce dernier logiciel, de plus en plus répandu dans les collectivités françaises, a été mis au point par une société israélienne rachetée par le japonais #Canon, en 2018. Il est surtout au cœur de plusieurs polémiques et d’autant d’actions en justice intentées par des syndicats, des associations et des collectifs qui lui reprochent, notamment, de permettre la reconnaissance faciale de n’importe quel individu en activant une fonctionnalité spécifique.

    Le 22 novembre 2023, le tribunal administratif de Caen a condamné la communauté de communes normande #Cœur-Côte-Fleurie, ardente promotrice de cette solution technologique, « à l’effacement des données à caractère personnel contenues dans le fichier », en estimant que l’utilisation de ce type de caméras dites « intelligentes » était susceptible de constituer « une atteinte grave et manifestement illégale au #respect_de_la_vie_privée ». D’autres décisions de la #justice administrative, comme à #Nice et à #Lille, n’ont pas condamné l’usage en soi du #logiciel, dès lors que la possibilité de procéder à la reconnaissance faciale n’était pas activée.

    A Nîmes, le développement de cette « surveillance de masse » inquiète la Ligue des droits de l’homme (LDH), la seule association locale à avoir soulevé la question de l’utilisation des #données_personnelles au moment de la campagne municipale, et qui, aujourd’hui encore, s’interroge. « Nous avons le sentiment qu’on nous raconte des choses partielles quant à l’utilisation de ces données personnelles », explique le vice-président de l’antenne nîmoise, Jean Launay.

    « Nous ne sommes pas vraiment informés, et cela pose la question des #libertés_individuelles, estime celui qui craint une escalade sans fin. Nous avons décortiqué les logiciels : ils sont prévus pour éventuellement faire de la reconnaissance faciale. C’est juste une affaire de #paramétrage. » Reconnaissance faciale officiellement interdite par la loi. Il n’empêche, la LDH estime que « le #droit_à_la_vie_privée passe par l’existence d’une sphère intime. Et force est de constater que cette sphère, à Nîmes, se réduit comme peau de chagrin », résume M. Launay.

    « Des progrès dans de nombreux domaines »

    L’élu à la ville et à Nîmes Métropole Frédéric Escojido s’en défend : « Nous ne sommes pas Big Brother ! Et nous ne pouvons pas faire n’importe quoi. L’hyperviseur fonctionne en respectant la loi, le #RGPD [règlement général sur la protection des données] et selon un cahier des charges très précis. » Pour moderniser son infrastructure et la transformer en hyperviseur, Nîmes, qui consacre 8 % de son budget annuel à la #sécurité et dépense 300 000 euros pour installer entre vingt-cinq et trente nouvelles caméras par an, a déboursé 1 million d’euros.

    La métropole s’est inspirée de Dijon, qui a mis en place un poste de commandement partagé avec les vingt-trois communes de son territoire il y a cinq ans. En 2018, elle est arrivée deuxième aux World Smart City Awards, le prix mondial de la ville intelligente.

    Dans l’agglomération, de grands panneaux lumineux indiquent en temps réel des situations précises. Un accident, et les automobilistes en sont informés dans les secondes qui suivent par le biais de ces mâts citadins ou sur leur smartphone, ce qui leur permet d’éviter le secteur. Baptisé « #OnDijon », ce projet, qui mise aussi sur l’open data, a nécessité un investissement de 105 millions d’euros. La ville s’est associée à des entreprises privées (#Bouygues_Telecom, #Citelum, #Suez et #Capgemini).

    A Dijon, un #comité_d’éthique et de gouvernance de la donnée a été mis en place. Il réunit des habitants, des représentants de la collectivité, des associations et des entreprises pour établir une #charte « de la #donnée_numérique et des usages, explique Denis Hameau, adjoint au maire (socialiste) François Rebsamen et élu communautaire. La technique permet de faire des progrès dans de nombreux domaines, il faut s’assurer qu’elle produit des choses justes dans un cadre fixe. Les données ne sont pas là pour opprimer les gens, ni les fliquer ».

    Des « systèmes susceptibles de modifier votre #comportement »

    Nice, Angers, Lyon, Deauville (Calvados), Orléans… Les villes vidéogérées, de toutes tailles, se multiplient, et avec elles les questions éthiques concernant l’usage, pour le moment assez flou, des données personnelles et la #surveillance_individuelle, même si peu de citoyens semblent s’en emparer.

    La Commission nationale de l’informatique et des libertés (CNIL), elle, veille. « Les systèmes deviennent de plus en plus performants, avec des #caméras_numériques capables de faire du 360 degrés et de zoomer, observe Thomas Dautieu, directeur de l’accompagnement juridique de la CNIL. Et il y a un nouveau phénomène : certaines d’entre elles sont augmentées, c’est-à-dire capables d’analyser, et ne se contentent pas de filmer. Elles intègrent un logiciel capable de faire parler les images, et ces images vont dire des choses. »

    Cette nouveauté est au cœur de nouveaux enjeux : « On passe d’une situation où on était filmé dans la rue à une situation où nous sommes analysés, reprend Thomas Dautieu. Avec l’éventuel développement des #caméras_augmentées, quand vous mettrez un pied dans la rue, si vous restez trop longtemps sur un banc, si vous prenez un sens interdit, vous pourrez être filmé et analysé. Ces systèmes sont susceptibles de modifier votre comportement dans l’espace public. Si l’individu sait qu’il va déclencher une alerte s’il se met à courir, peut-être qu’il ne va pas courir. Et cela doit tous nous interpeller. »

    Actuellement, juridiquement, ces caméras augmentées ne peuvent analyser que des objets (camions, voitures, vélos) à des fins statistiques. « Celles capables d’analyser des comportements individuels ne peuvent être déployées », assure le directeur à la CNIL. Mais c’est une question de temps. « Ce sera prochainement possible, sous réserve qu’elles soient déployées à l’occasion d’événements particuliers. » Comme les Jeux olympiques.

    Le 19 mai 2023, le Parlement a adopté une loi pour mieux encadrer l’usage de la #vidéoprotection dite « intelligente ». « Le texte permet une expérimentation de ces dispositifs, et impose que ces algorithmes ne soient mis en place, avec autorisation préfectorale, dans le temps et l’espace, que pour une durée limitée, par exemple pour un grand événement comme un concert. Ce qui veut dire que, en dehors de ces cas, ce type de dispositif ne peut pas être déployé », insiste Thomas Dautieu. La CNIL, qui a déjà entamé des contrôles de centres d’hypervision urbains en 2023, en fait l’une de ses priorités pour 2024.

    https://www.lemonde.fr/societe/article/2024/01/02/pourquoi-la-promesse-de-videogerer-les-villes-avec-des-cameras-couplees-a-un
    #vidéosurveillance #AI #IA #caméras_de_vidéosurveillance

  • Europe’s (digital) borders must fall: End the expansion of the EU’s #EURODAC database

    110 civil society organisations, including Statewatch, are calling for an end to the expansion of EURODAC, the EU database for the registration of asylum-seekers. EURODAC, designed to collect and store migrants’ data, is being transformed into an expansive, violent surveillance tool that will treat people seeking protection as crime suspects This will include children as young as 6 whose fingerprints and facial images will be integrated into the database.

    Europe’s (digital) borders must fall: End the expansion of the EU’s EURODAC database

    EURODAC is being expanded to enforce the EU’s discriminatory and hostile asylum and migration policies: increasing deportations, detention and a broader climate of racialised criminalisation.

    The endless expansion of EURODAC must be stopped: https://edri.org/wp-content/uploads/2021/10/EURODAC-open-letter.pdf.

    What is EURODAC?

    Since its inception in 2003, the EU has repeatedly expanded the scope, size and function of EURODAC.

    Created to implement the Dublin system and record the country responsible for processing asylum claims, it originally stored only limited information, mostly fingerprints, on few categories of people: asylum-seekers and people apprehended irregularly crossing the EU’s borders. From the start, this system has been a means to enforce a discriminatory and harmful deportation regime, premised on a false framework of ‘illegality’ in migration.

    After a first reform in 2013 allowing police to access the database, the EU continues to detach EURODAC from its asylum framework to re-package it as a system pursuing ‘wider immigration purposes’. The changes were announced in 2020 in the EU Migration Pact, the EU’s so-called ‘fresh start on migration’. Rather than a fresh start, the proposals contain the harshest proposals in the history of the EU’s migration policy: more detention, more violence, and a wider, evolved tool of surveillance in the EURODAC database to track, push back and deport ‘irregular’ migrants.
    How is the EURODAC expansion endangering people’s human rights?

    More people included into the database: Concretely EURODAC would collect a vast swathe of personal data (photographs, copies of travel and identity documents, etc.) on a wider range of people: those resettled, relocated, disembarked following search and rescue operations and arrested at borders or within national territories.

    Data collection on children: The reform would also lower the threshold for storing data in the system to the age of six, extend the data retention periods and weaken the conditions for law enforcement consultation of the database.

    Including facial images into the database: The reform also proposes the expansion to include facial images. Comparisons and searches run in the database can be based on facial recognition – a technology notoriously error-prone and unreliable that threatens the essence of dignity, non- discrimination and privacy rights. The database functions as a genuine tool of violence as it authorises the use of coercion against asylum-seekers who refuse to give up their data, such as detention and forced collection. Not only do these changes contradict European data protection standards, they demonstrate how the EU’s institutional racism creates differential standards between migrants and non-migrants.

    Access by law enforcement: EURODAC’s revamp also facilitates its connection to other existing EU migration and police databases as part of the so-called ‘interoperability’ initiative - the creation of an overarching EU information system designed to increase police identity checks of non-EU nationals, leading to increased racial profiling. These measures also unjustly equate asylum seekers with criminals. Lastly, the production of statistics from EURODAC data and other databases is supposed to inform future policymaking on migration movement trends. In reality, it is expected that they will facilitate illegal pushbacks and overpolicing of humanitarian assistance.
    End the expansion of EURODAC

    The EURODAC reform is a gross violation of the right to seek international protection, a chilling conflation of migration and criminality and an out-of-control surveillance instrument. The far- right is already anticipating the next step, calling for the collection of DNA.

    The EURODAC reform is one of many examples of the digitalisation of Fortress Europe. It is inconsistent with fundamental rights and will undermine frameworks of protection and rights of people on the move.

    We demand:

    – That the EU institutions immediately reject the expansion of EURODAC.
    - For legislators to prevent further violence and ensure protection at and within borders when rethinking the EURODAC system.
    - For legislators and EU Member States to establish safe and regular pathways for migrants and protective reception conditions.

    https://www.statewatch.org/news/2023/december/europe-s-digital-borders-must-fall-end-the-expansion-of-the-eu-s-eurodac
    #base_de_données #surveillance #frontières #frontières_digitales #migrations #asile #réfugiés #Dublin #règlement_Dublin #données_personnelles #reconnaissance_faciale #technologie

  • Comment la CAF a traité mon dossier avec un « robot à dettes » | Le Club
    https://blogs.mediapart.fr/lucieinland/blog/150421/comment-la-caf-traite-mon-dossier-avec-un-robot-dettes

    26 mars, appel de la CAF. Le conseiller confirme que c’est bien « le logiciel » qui a traité mon dossier selon certains paramètres. Jugé trop complexe depuis la déclaration de création de micro-entreprise, il a été remis à zéro puis re-traité, d’où la demande de documents. Malgré mes questions je n’ai pas compris pourquoi seule ma situation d’auto-entrepreneuse est retenue, bien qu’aussi salariée, avec les déclarations de revenus adéquates. Le mail notifiant ma dette a été envoyé dès que l’algorithme a détecté une erreur dans mon dossier. La machine menace d’abord, les humain·es vérifient ensuite. Seul mon mail a permis à la CAF de classer vite et correctement mon dossier. Et ce sont bien leurs outils automatisés qui m’ont mis en difficulté.

  • ENQUETE. Idemia : la face cachée de la société qui fabrique notre carte Vitale
    https://www.francetvinfo.fr/sciences/high-tech/enquete-idemia-la-face-cachee-de-la-societe-qui-fabrique-notre-carte-vi


    Portrait du suspect (gauche) et celui de Nijeer Parks (droite), capture d’écran d’une vidéo CNN Business (Youtube). (AUCUN)


    Démonstration de l’utilisation d’un kit d’enregistrement biométrique des électeurs (BVR) à Kasarani, Nairobi, le 6 novembre 2012. (SIMON MAINA / AFP)


    Une femme kényane regarde une caméra biométrique, collecte de données générant un numéro unique qui permet d’accéder aux services gouvernementaux. (SIMON MAINA / AFP)

    Spécialisée dans les technologies de l’identité biométrique, l’entreprise Idemia accumule les déboires en France et à l’étranger. (JOHN LUND / GETTYIMAGES)

    –---

    Le leader français de l’identité biométrique, Idemia, est notamment connu pour fabriquer la carte Vitale française. Mais ces dernières années, il a rencontré de nombreux déboires : sanction du PNF, incarcération abusive après une erreur de son algorithme et annulation d’une élection au Kenya.

    Quand Nijeer Parks répond à l’appel de sa grand-mère, en ce jour de janvier 2019, rien ne pouvait le préparer à ce qui allait suivre. À l’époque, ce charpentier afro-américain de 28 ans mène une vie rangée dans le New Jersey, dans le nord-est des États-Unis. Sa grand-mère lui apprend alors qu’il est recherché par la police de Woodbridge, une ville située à 30 kilomètres de son domicile. Il est accusé de vol à l’étalage et de tentative d’homicide contre un policier.

    >> ENQUETE. Quand le ministère de la Santé retoque deux campagnes de prévention sur l’alcool

    Les faits se sont déroulés à Woodbridge. Mais Nijeer Parks n’y a jamais mis les pieds. Il n’a même aucune idée d’où se trouve cette ville. Il décide donc de se rendre au commissariat pour lever le malentendu et prouver son innocence. Mais rien ne se passe comme prévu : malgré ses explications, Nijeer Parks se retrouve menotté dans une salle d’interrogatoire. Ce qu’il ignore encore, c’est qu’il est victime d’un faux positif produit par un algorithme de reconnaissance faciale fourni par la société française Idemia. Celle-là même qui fabrique les cartes Vitales en France. Une erreur d’identification d’un logiciel couplé à une enquête bâclée. « Ils ont ignoré toutes les preuves qui pouvaient l’innocenter, déplore Daniel Sexton, l’avocat de Nijeer Parks. Ils avaient des empreintes digitales, des traces d’ADN, des images de vidéo-surveillance… Mais comme ils ont eu ce résultat de reconnaissance faciale, ils ont juste ignoré le reste ».

    Selon l’avocat, le procureur avait connaissance de ces manquements de la police. Il requerra pourtant une peine de 20 ans à l’encontre de Nijeer Parks, évoquant ses antécédents judiciaires. Plus jeune, Parks avait été impliqué dans une affaire de possession et de vente de substances illicites.
    Des machines imparfaites

    Les charges seront finalement abandonnées en novembre 2019, compte tenu des preuves présentées devant la cour par la défense. Au moment des faits, Nijeer Parks était en train d’effectuer un transfert d’argent dans une agence Western Union à des kilomètres de Woodbridge. Il aura tout de même passé 13 jours derrière les barreaux pour un délit qu’il n’avait pas commis, et il déposera plainte contre la police.

    « Ils ont fait confiance au logiciel. Sauf que le logiciel n’était pas fiable. C’est un problème que l’on voit dans toutes les affaires d’arrestations injustifiées que nous connaissons, explique Nate Wessler, responsable des questions liées à la vie privée et aux technologies pour l’Union américaine pour les libertés civiles (ACLU). Les gens supposent que ces machines sont plus précises et intelligentes qu’un humain. Sauf que ce sont des programmes informatiques créés par des humains, entraînés sur des données imparfaites et qui font souvent des erreurs ».
    Portrait du suspect (gauche) et celui de Nijeer Parks (droite), capture d’écran d’une vidéo CNN Business (Youtube). (AUCUN)
    Portrait du suspect (gauche) et celui de Nijeer Parks (droite), capture d’écran d’une vidéo CNN Business (Youtube). (AUCUN)

    Interrogé sur cette affaire, Idemia n’a pas souhaité répondre, la société n’étant pas poursuivie par Nijeer Parks. Elle a néanmoins précisé que ses équipes travaillaient activement pour « améliorer l’équité des algorithmes d’intelligence artificielle » et rappelle que ses technologies sont « à la première place au test d’équité pour la détection de fausses correspondances », réalisé par l’Institut national américain des normes et de la technologie, le NIST.

    L’histoire d’Idemia démarre dans les années 1970, en Afrique de l’Ouest sous son nom originel : Morpho. C’est dans les anciennes colonies françaises que l’entreprise, alors une émanation de la Caisse des dépôts et consignations (CDC), développe des solutions de biométrie pour aider à la création d’états-civils inexistants ou imparfaits dans ces pays nouvellement indépendants. « Il fallait trouver un critère physique permettant d’assurer la construction d’un état-civil, se souvient Bernard Didier, fondateur de Morpho. Ils ont pensé que l’empreinte digitale pourrait être un bon moyen de le faire ».

    Mais le marché n’est pas rentable. En dépit des millions d’euros injectés dans le projet par la CDC, les contrats africains ne rapportent pas assez. « C’était un marché insolvable, regrette Bernard Didier. Les États n’avaient pas l’argent nécessaire au financement des équipements de très haute technologie. Nous nous sommes donc rabattus sur des activités de police scientifique. Parce que les polices du monde entier cherchaient des solutions pour les collections d’empreintes digitales ». Le marché « sécurité » devient donc prioritaire. Il conduit la société à démarcher aux États-Unis. À partir des années 1980, elle y signe plusieurs contrats, avec des villes moyennes comme Tacoma, au sud de Seattle, mais aussi la ville puis l’État de New York, et même le FBI en 2009, à qui elle fournit un logiciel de reconnaissance d’empreintes digitales.

    Appareil de reconnaissance digitale, capture d’écran d’une vidéo promotionnelle Idemia, Vimeo, septembre 2023. (AUCUN)
    Appareil de reconnaissance digitale, capture d’écran d’une vidéo promotionnelle Idemia, Vimeo, septembre 2023. (AUCUN)

    Le succès est au rendez-vous. Mais la Caisse des dépôts décide de se séparer de Morpho en 1993. Elle vend la société pour un euro symbolique à Sagem, une entreprise française alors spécialisée dans les télécommunications. S’en suivent un certain nombre de fusions et de rachats. En 2005, Sagem devient Safran. Morpho est rebaptisée plusieurs fois. Puis, en 2017, Safran vend sa filiale biométrique au fonds d’investissement américain Advent, qui la fusionne avec une autre entreprise française : Oberthur Technologies, imprimeur high-tech et spécialiste en sécurité numérique. De là, naît Idemia, qui est aujourd’hui considérée comme une des entreprises leader dans le secteur « identité et sécurité », aux côtés de Thalès.
    Une amende de huit millions d’euros

    Mais la suite ne sera pas de tout repos. En 2017, le parquet national financier (PNF) reçoit un signalement de la National Crime Agency britannique. Il met sur pied une équipe pour enquêter avec elle. Leurs investigations mettront au jour un schéma de corruption : afin d’obtenir le marché des cartes d’identité à puce au Bangladesh, entre 2014 et 2016, Oberthur aurait surfacturé des prestations pour rémunérer un intermédiaire. Selon le PNF, il s’agissait d’"un apporteur d’affaires influent en Asie dans le secteur de l’identité, disposant de connexions avec l’autorité publique du Bangladesh".

    Les enquêteurs du PNF ont retrouvé la trace d’un virement de 730 000 euros entre Oberthur et l’une des sociétés sous-traitantes. Ce paiement devait permettre de rémunérer un agent public bangladais, qui a joué un rôle dans l’attribution de ce marché. Résultat : Idemia (qui de fait a succédé à Oberthur) accepte de signer une convention judiciaire d’intérêt public avec le PNF en 2022. La société payera une amende de près de huit millions d’euros pour éviter un procès. Une partie de ses services sera interdite de concourir à des appels d’offres de la Banque mondiale pendant deux ans et demi. Un coup dur, car c’était un bailleur important pour l’entreprise, notamment pour ses marchés en Afrique.

    Selon une enquête réalisée sur le marché de la biométrie électorale en Afrique par Marielle Debos et Guillaume Desgranges, tous les deux chercheurs à l’université Paris-Nanterre, Idemia fait en effet partie de ces acteurs français qui dominent le marché sur ce continent. En 2020, ils ont recensé au moins huit pays ayant utilisé ses technologies dans le cadre de scrutins électoraux.
    Présence d’Idemia (M) pour chaque recensement biométrique électoral et corrélation entre nationalité des entreprises et ancienne puissance coloniale. (MARIELLE DEBOS ET GUILLAUME DESGRANGES, POUR AFRIQUEXXI)
    Présence d’Idemia (M) pour chaque recensement biométrique électoral et corrélation entre nationalité des entreprises et ancienne puissance coloniale. (MARIELLE DEBOS ET GUILLAUME DESGRANGES, POUR AFRIQUEXXI)

    Mais la médaille a un revers. En Côte d’Ivoire, le scrutin présidentiel de 2010, organisé avec l’aide d’Idemia - Safran, à l’époque - a été le plus cher jamais organisé en Afrique. « Il a battu tous les records avec un coût de quasiment 57 dollars par électeur, dont 46 pour la biométrie, explique Marielle Debos. La facture a atteint des sommes astronomiques en raison des retards pris par le projet. L’entreprise a réclamé 246 millions d’euros à l’État ivoirien ». Idemia justifie cette facture par le périmètre de la mission qui lui avait été confiée : « Il s’agissait d’une intervention qui va bien au-delà de l’organisation de l’élection. Il s’agissait également de procéder au recensement des populations ».

    Cet épisode ne va cependant pas ternir l’image de l’entreprise, puisqu’elle signe de nouveaux contrats en Afrique dans la décennie qui suit, notamment au Kenya. En 2017, le pays prépare son élection présidentielle. Il souhaite s’équiper d’une technologie biométrique. Une démarche motivée par le souvenir douloureux des événements qui ont suivi les élections générales, dix ans plus tôt : « En 2007, suite à des contestations électorales, un certain nombre de violences ont conduit à la mort de quasiment 1 500 personnes en un mois et à plusieurs centaines de milliers de déplacés », précise Tomas Statius, journaliste au média à but non-lucratif Lighthouse Reports.
    Une élection annulée

    Dans l’espoir de ne pas reproduire les erreurs du passé, le Kenya décide donc de faire confiance à la technologie d’Idemia. La société française fournit un système d’inscription biométrique des électeurs, couplé à 45 000 tablettes permettant leur authentification le jour du scrutin. Ces tablettes peuvent également transmettre des formulaires comprenant les résultats de chaque bureau de vote, après leur décompte.

    Mais dans les mois qui précèdent le scrutin, la commission électorale kényane s’inquiète. Les comptes-rendus de ses réunions, obtenus par Lighthouse Reports et le média d’investigation Africa Uncensored, révèlent « à la fois une impréparation des autorités kényanes, mais aussi de l’entreprise française, affirme Tomas Statius. Plusieurs commissaires électoraux kényans considèrent que le contrat a été signé à la hâte. Ils constatent aussi un certain nombre de dysfonctionnements durant les tests réalisés avant les élections ».
    Démonstration de l’utilisation d’un kit d’enregistrement biométrique des électeurs (BVR) à Kasarani, Nairobi, le 6 novembre 2012. (SIMON MAINA / AFP)
    Démonstration de l’utilisation d’un kit d’enregistrement biométrique des électeurs (BVR) à Kasarani, Nairobi, le 6 novembre 2012. (SIMON MAINA / AFP)

    Le jour du scrutin, ces craintes deviennent réalité : « Ce sont d’abord des pannes, avec des tablettes qui n’ont pas assez de batterie pour fonctionner, poursuit Tomas Statius. Des problèmes d’internet évidemment, de 4G qui ne fonctionne pas. Il y a aussi des problèmes de lecture des résultats ». Tous ces dysfonctionnements conduiront la Cour suprême kényane à annuler l’élection. Les Kényans retourneront aux urnes deux mois plus tard. Comme la première fois, le président sortant, Uhuru Kenyatta, remportera l’élection, mais avec 98% des votes. Et il sera le seul candidat, l’opposant Raila Odinga ayant décidé de ne pas se représenter.

    Dans sa réponse à la Cellule Investigation de Radio France, Idemia se félicite « d’avoir pu remplir avec succès ses engagements en faveur de la démocratie kényane, et réaffirme humblement aujourd’hui à quel point il peut considérer positivement le résultat des deux élections de 2017 » malgré un « contexte difficile ».

    Cet échec ne va d’ailleurs pas l’empêcher de participer au programme de carte d’identité biométrique lancée par le gouvernement kényan l’année suivante. L’objectif était de créer un numéro d’identification unique pour chaque citoyen. L’idée, c’était de permettre, par la suite, d’accéder aux services de l’État via cet identifiant, lié aux données biométriques de la personne. Ce conditionnement d’accès aux services de l’État inquiète cependant une minorité ethnique dans le pays : les Nubiens. « La base de données se voulait être le seul outil permettant de vérifier une identité, explique Yassah Musa, responsable de l’ONG Nubian Rights Forum. Mais pour y être enregistré, il fallait présenter des documents tels qu’un certificat de naissance, une carte d’identité, un permis de conduire ou un passeport. Or, la communauté nubienne n’a toujours pas accès à ces documents officiels ».
    Une femme kényane regarde une caméra biométrique, collecte de données générant un numéro unique qui permet d’accéder aux services gouvernementaux. (SIMON MAINA / AFP)
    Une femme kényane regarde une caméra biométrique, collecte de données générant un numéro unique qui permet d’accéder aux services gouvernementaux. (SIMON MAINA / AFP)

    En 2020, saisie par l’association Nubian Rights Forum, la Haute cour du Kenya reconnaît l’existence d’un risque d’exclusion : « Cela peut être le cas pour ceux qui n’ont pas de documents d’identité, ni de données biométriques, telles que les empreintes digitales. Nous pensons donc qu’une partie de la population risquerait d’être discriminée », peut-on lire dans sa décision. En 2021, la Haute cour suspendra ce système d’identité biométrique. De son côté, le Parlement kényan essaye d’interdire Idemia de tout contrat dans le pays pendant dix ans. Une décision qui sera finalement annulée par la Haute cour du Kenya.

    Mais Idemia n’en a pas fini avec ce pays. En septembre 2022, l’ONG Data Rights, aux côtés d’autres associations notamment kényanes, a déposé une plainte auprès de la Commission nationale de l’informatique et des libertés (Cnil) en France. Lors du scrutin kényan, les données des votes des électeurs ont, en effet, été hébergées sur des serveurs européens. Or, en opérant à l’étranger, l’entreprise transporte avec elle ses responsabilités en matière de protection des données en Europe. Celles-ci ont-elles été suffisamment protégées, comme l’exige le RGPD, le règlement européen de protection des données ? C’est là-dessus que la Cnil va devoir se prononcer.

  • Projet de loi SREN et accès au porno : identifier les internautes ne résoudra rien
    https://www.laquadrature.net/2023/09/19/projet-de-loi-sren-et-acces-au-porno-identifier-les-internautes-ne-res

    Article co-écrit par La Quadrature du Net et Act Up-Paris. Parmi les nombreuses mesures du projet de loi visant à sécuriser et réguler l’espace numérique (« SREN » ou « Espace numérique ») figurent deux articles qui renforcent le contrôle…

    #Censure #Données_personnelles

  • Règlement CSAR : la #Surveillance de nos communications se joue maintenant à Bruxelles
    https://www.laquadrature.net/2023/09/18/reglement-csar-la-surveillance-de-nos-communications-se-joue-maintenan

    Il y a un peu plus d’un an, la Commission européenne proposait l’un des pires textes jamais pensés sur le numérique : le règlement CSAR, également appelé « Chat control ». Affichant l’objectif de lutter contre les…

    #Données_personnelles

    • Le cheval de Troie de la Commission : vers la fin du chiffrement

      En affichant l’objectif de protéger les enfants, l’Union européenne tente en réalité d’introduire une capacité de contrôle gigantesque de l’ensemble des vies numériques, concrétisant le rêve de surveillance de tout gouvernement. Ce texte a fait l’objet de tant de réactions qu’EDRi se demande si le CSAR ne serait pas la loi européenne la plus critiquée de tous les temps. Les critiques contre ce texte viennent des institutions européennes elles-mêmes, mais aussi d’organisations de défense des enfants en passant par les acteurs de la tech, ainsi que de scientifiques et chercheur·es où 465 d’entre eux ont signé une lettre contre cette proposition. Et à raison.

      Sur le plan technique, il faut comprendre que les injonctions de détections obligent les fournisseurs à analyser toutes les communications de l’ensemble des utilisateur·ices des services concernés. Et puisque les messages sont alors analysés avant d’être envoyés à leurs destinataires, cela supprime non seulement toute confidentialité mais cela rendra également inutile toute technique de chiffrement appliquée ultérieurement, c’est-à-dire une fois que le message à quitté l’appareil de l’utilisateur·ice. L’objectif premier du chiffrement est d’empêcher un tiers de lire le message. Le CSAR vise pourtant précisément à permettre une telle lecture tierce. De même, la recherche de photo ou vidéo « inconnue » est totalement inacceptable. En pratique, le risque de « faux positifs » est énorme et cela signifie que pourraient faire l’objet d’une alerte des contenus tout à fait légitimes tels le corps d’adulte d’apparence trop juvénile, une photo d’enfant envoyée dans un cadre familial ou encore des ados échangeant de façon consentante.

      Enfin, appliqué au cas particulier de la détection de contenus pédopornographiques, envisager la constitution et l’utilisation d’une telle base de données ne prend pas en compte la réalité des humains devant la manipuler, l’alimenter, et qui seront confrontés à des contenus difficiles quotidiennement. Sans parler du fait que les images des enfants victimes seront conservées pour « améliorer » l’efficacité de ces outils.

      Non seulement le CSAR crée des obligations disproportionnées et implique des techniques extrêmement intrusives, mais surtout ces mesures sont loin d’être pertinentes pour atteindre l’objectif crucial de protection des enfants et de lutte contre les abus sexuels. En effet, aucune étude sérieuse n’a été fournie sur l’adéquation, la fiabilité ou la pertinence de telles mesures extrêmement intrusives. Au contraire, il a été révélé par l’association allemande Gesellschaft für Freiheitsrechte que la Commission fondait sa proposition sur les seules allégations de l’industrie, particulièrement la fondation Thorn et Meta, pour justifier ce projet de règlement. Des institutions policières et judiciaires, comme en Allemagne par exemple, ont elles aussi exprimé leurs réserves sur l’utilité de ces dispositifs pour leurs enquêtes dès lors que cela ne répond pas aux problématiques qu’ils rencontrent au quotidien.

      Par ailleurs, depuis le début de la campagne contre ce texte, beaucoup de ressources ont été produites pour démontrer que la protection des enfants contre les abus passait principalement par des politiques de prévention ou d’éducation et que toute éventuelle réponse pénale devait être encadrée par des mesures ciblées et fondées sur des preuves tangibles. Comment a-t-on pu alors en arriver là ?

      La tentation autoritaire des États

      Cette proposition législative est une solution largement conçue par l’industrie, et ensuite généralisée par les élites politiques qui illustrent ainsi une nouvelle fois leur absurde propension au « solutionnisme technologique » et au renforcement de la surveillance numérique. Pour rendre acceptable ces mesures de surveillance, elles affichent un objectif qui fait l’unanimité. Mais tout le monde sait que la stratégie consiste avant tout à affaiblir le niveau de sécurité et de confidentialité des communications numériques. Depuis les crypto-wars des années 1990, un certain nombre d’États affirment que les technologies protégeant la vie privée, et principalement le chiffrement des communications, sont un obstacle aux enquêtes policières. De fait, ces technologies sont conçues pour cela, puisque c’est à cette condition qu’elle garantissent à toutes et tous la possibilité de contrôler nos modes d’expression et de communication. L’une des plus importantes conséquences des révélations du lanceur d’alerte de la NSA Edward Snowden, il y a dix ans, fut justement une démocratisation de la pratique du chiffrement et, à l’époque, l’établissement d’un relatif consensus en faveur du droit au chiffrement au plan institutionnel. Mais police et gouvernements sont gênés, et l’on assiste depuis plusieurs années au retour de positionnements autoritaires de dirigeants prenant tour à tour l’excuse du terrorisme, de la criminalité organisée et de la pédopornographie pour obtenir sa remise en cause.

      En France, aussi bien Bernard Cazeneuve qu’Emmanuel Macron ont déjà affirmé leur volonté de contrôler les messageries chiffrées, rêvant ainsi de percer l’intimité des millions de personnes qui les utilisent. Au cours d’une audition devant le Sénat le 5 avril dernier, Gérald Darmanin a expressément demandé pouvoir casser le chiffrement des militant·es écologistes et de « l’ultragauche », qui auraient une « culture du clandestin ». Aussi avons-nous récemment exposé comment, dans l’affaire dite du « 8 décembre », les services de renseignement et de police ont construit une narration similaire autour de l’utilisation d’outils respectueux de la vie privée par les personnes inculpées (Signal, Tor, Tails…), afin de dessiner le portrait de personnes criminelles ayant des choses à cacher ou la volonté de fuir la police. Au niveau européen, des fuites ont révélé l’intention de plusieurs États de réduire le niveau de sécurité du chiffrement de bout-en-bout, tels que l’Espagne qui veut tout simplement y mettre fin.

      Le règlement CSAR s’inscrit dans cette continuité et constitue une opportunité parfaite pour les États membres pour enfin concevoir et généraliser un outil de surveillance des échanges de la population et ainsi mettre fin aux obstacles posés par les services trop protecteurs de la vie privée. Mais passer ce cap, c’est supprimer toute confidentialité des communications qui passeraient par des infrastructures numériques. L’intégrité et la sécurité de ces dernières ne pourraient alors plus jamais être garanties dès lors que cette « porte dérobée » existe. C’est créer des occasions, aussi bien pour les États que les acteurs malveillants, de détourner et d’abuser de cette capacité d’entrer dans les téléphones et ordinateurs de la population. Enfin, c’est ouvrir une brèche, un espace à surveiller qui n’existait pas auparavant, et qui sera nécessairement étendu dans le futur par de nouvelles législations pour repérer d’autres types de contenus.

      Ce risque est dénoncé par des services tels que Signal, Proton ou Matrix, qui proposent des communications chiffrées de bout-en-bout et sécurisées — et promettent donc une confidentialité presque intégrale. Cette proposition viendrait casser leur promesse en les obligeant à analyser les contenus et à créer une vulnérabilité dans leurs technologies. Ce risque a également été récemment dénoncé par Apple : pour justifier la fin de l’analyse des contenus hébergés sur iCloud, l’entreprise expliquait que la technologie utilisée est trop dangereuse en termes de sécurité et de respect de la vie privée.

      En Grande-Bretagne, où est actuellement discuté un projet de loi similaire, le Online Safety Bill, Signal et Whatsapp ont menacé de supprimer leur service du pays si ce texte venait à passer. Face à cette fronde, les Britanniques ont très récemment annoncé suspendre la mise en œuvre de cette mesure au regard de l’infaisabilité à ce stade de protéger le chiffrement de bout-en-bout. Cependant, la mesure est toujours dans la loi et pourrait donc être applicable un jour. À Londres comme à Bruxelles, la bataille est loin d’être finie.

      Refuser et agir

      Il est donc urgent d’agir pour arrêter cette nouvelle initiative qui créerait un grave précédent et donnerait aux États une légitimité pour pousser toujours plus loin l’intrusion dans les communications. Mais les discussions avancent vite à Bruxelles. D’un coté, le Conseil, organe regroupant les gouvernements des États membres, doit publier sa position sur ce texte d’ici fin septembre. Celle-ci s’annonce très mauvaise, poussée par plusieurs États – France en tête. Certains États comme l’Allemagne ou l’Autriche auraient néanmoins exprimé des réserves quand à l’incompatibilité de cette dernière version par rapport à leur propre position officielle. Une lettre ouverte a été signée le 13 septembre par plus de 80 organisations, dont La Quadrature, pour que les États membres n’adoptent pas le CSAR dans sa version actuelle.

      De l’autre coté, le Parlement européen devra également adopter sa version du texte, d’abord en commission en octobre puis en novembre en séance plénière. Si beaucoup d’eurodéputé·es s’opposent au texte, cela ne suffira sans doute pas à bloquer son adoption. Pour agir, nous vous invitons à rejoindre la campagne « Stop Scanning me » menée par une coalition d’organisations et à partager le plus possible les informations sur la mobilisation en cours2. Vous pouvez également appeler des parlementaires européens pour les inviter à rejeter ce texte.

      #surveillance-généralisée

  • Projet de loi SREN : le gouvernement sourd à la réalité d’internet
    https://www.laquadrature.net/2023/09/12/projet-de-loi-sren-le-gouvernement-sourd-a-la-realite-dinternet

    Le projet de loi visant à sécuriser et réguler l’espace numérique (aussi appelé « SREN » ou « Espace numérique ») est actuellement en discussion à l’Assemblée nationale, après avoir été voté en juillet dernier au Sénat. Ce texte,…

    #Censure #Données_personnelles

  • Un vol massif de données personnelles à Pôle emploi, six millions d’inscrits pourraient être concernés - Le Parisien
    https://www.leparisien.fr/economie/six-millions-de-personnes-pourraient-etre-concernees-par-un-vol-de-donnee

    Nom, prénom, numéro de Sécurité sociale… Un nouvel « acte de cybermalvaillance » a touché l’opérateur, via l’un de ses prestataires. Il pourrait concerner les données de six millions de demandeurs d’emploi. La direction de Pôle emploi va porter plainte.

    La CNIL va-t-elle enquêter ? A qui va-t-on ponctionner 4% du chiffre d’affaires annuel ?

    • les [ex] chômeurs volés seront-ils prévenus ?

      il est conseillé aux demandeurs d’emploi « de rester vigilants face à tout type de démarche ou proposition qui pourrait paraître frauduleuse. » Ils seront informés individuellement, assure encore la direction. Un appui sera également disponible via la plateforme téléphonique 39 49 afin d’accompagner ceux qui auraient des interrogations en lien avec le sujet. »

      Qui est touché ? « Cela pourrait, selon le prestataire, concerner 10 millions de personnes, c’est-à-dire celles inscrites à Pôle emploi en février 2022 et celles en cessation d’inscription depuis moins de 12 mois à cette date-là », nous détaille la direction de Pôle emploi. Soit respectivement 6 et 4 millions. Et d’ajouter : « Il y a parfois des décalages dans le temps dans la transmission des documents, ce qui explique que les personnes en cessation d’inscription apparaissent dans ce fichier ».

    • Des données personnelles de dix millions de demandeurs d’emploi dérobées
      https://www.lemonde.fr/pixels/article/2023/08/24/des-donnees-personnelles-de-dix-millions-de-demandeurs-d-emploi-derobees_618

      Des données personnelles d’environ dix millions de personnes inscrites à Pôle emploi ont été dérobées après un « acte de cyber-malveillance », a annoncé l’établissement public ce 23 août. D’après les informations du Parisien, Majorel, spécialiste de la relation client à qui est sous-traitée la numérisation de documents envoyés par les demandeurs d’emploi, a ainsi été touché par un vol de données.

      Ah, finalement, +4 millions. Ça doit être l’inflation qui commence à baisser à l’approche du pic de la hausse.

    • https://www.ladepeche.fr/2023/08/25/piratage-informatique-massif-les-donnees-de-10-millions-de-demandeurs-demp
      J’adore l’image du #darkweb par ladepeche


      Un source code html pour un login/password classique sur un mac mais ça fait peur, c’est avec vue sur fond noir.

      On conseillera aux chômeurs inscrits à pôle emploi de changer rapidement de date de naissance, de nom de famille ou de numéro de portable, voire de déménager très vite.

    • Je vois pas trop le sens de cette arnaque puisque ces données sont en accès libre sur le site de Pôle-emploi. Suffit de se faire passer pour un employeur pour accéder aux coordonnées des chômeureuses.

      https://www.pole-emploi.fr/candidat/soyez-vigilants/acte-de-cyber-malveillance-soyez.html

      Suite à un acte de cyber malveillance dont l’un de nos prestataires a été victime, des informations personnelles vous concernant sont susceptibles d’être divulguées.
      Vos nom et prénom, votre statut actuel ou ancien de demandeur d’emploi ainsi que votre numéro de sécurité sociale pourraient être concernés.
      Vos adresses e-mail, numéros de téléphone, mots de passe et coordonnées bancaires ne sont en revanche pas concernés.

    • Vols de données des privés d’emploi inscrits à Pôle emploi : que chacun prenne ses responsabilités
      https://snjcgt.fr/2023/08/24/vols-de-donnees-des-prives-demploi-inscrits-a-pole-emploi-que-chacun-prenne-s


      Cette situation qui s’était déjà produite, à moindre échelle, en 2021 est révélatrice des choix politiques de Pôle Emploi et de l’État pour l’ensemble des services publics : sous-traitance généralisée et dématérialisation quasi-intégrale imposées tant aux privé·es d’emploi qu’aux conseiller·es, sont les résultats des politiques d’austérité budgétaire des gouvernements successifs.

      Pour la CGT, cette numérisation à marche forcée au seul service de la diminution des coûts et la mise en concurrence d’acteurs privés induisent une perte de contrôle concernant les outils pouvant garantir la sécurité des données. La #CGT revendique de développer la numérisation en utilisant les compétences des services internes, seuls capables de définir une politique de #cybersécurité et de développement de services numériques et de matériels adaptés aux besoins des usagers.

      Avec la création imposée de #France_Travail et la multiplication des intervenants, prestataires, les échanges de données et d’accès aux dossiers vont s’intensifier faisant de la sécurisation des données un point crucial. D’autant plus important concernant France Travail Handicap qui possédera des données sensibles sur l’état de santé des travailleur·ses inscrit·es.

      La CGT rappelle que récemment une entreprise d’intérim, également prestataire de Pôle Emploi, s’est fait pirater ses données et plusieurs centaines de personnes ont été victimes de prélèvements frauduleux. Aujourd’hui, la CGT est à leurs côtés dans leurs démarches judiciaires.

      La CGT et son comité national des travailleurs précaires et privés d’emploi seront très vigilants sur les suites données et les préjudices subis par les usagers de Pôle Emploi.

    • 11,4 millions d’utilisateurs de Pôle Emploi dans les mains de plusieurs pirates ? Damien Bancal, ZATAZ.COM, Gendarme réserviste
      https://www.zataz.com/114-millions-dutilisateurs-de-pole-emploi-dans-les-mains-de-plusieurs-pirates

      Mais qui est ce pirate ?

      Le groupe Clop qui a mis à mal le prestataire de services de données externe Majorel, il y a plusieurs semaines, via la faille MOVEit ? La banque ING, par exemple, avait alerté le passage des pirates chez son prestataire Majorel. Même alerte pour Deutsche Bank et Commerzbank. ClOp s’était invité via la faille MOVEIt pour mettre la main sur des données que les banques avaient transmises à Majorel. Cela pourrait être logique, Pôle Emploi parlant d’une infiltration datant de la semaine du 17 août. [les infiltrations de Cl0P ne cessent d’être révélées par les pirates eux-mêmes depuis des semaines.]

      Le pirate diffuse aussi la géolocalisation (sous forme de Longitude/Latitude) des personnes présentes dans l’un des fichiers volé.
      Ou alors, il s’agit d’un autre pirate que ZATAZ a croisé, début août, sur plusieurs blackmarket.

      Rien qu’une tarte !

      Ce pirate, un commerçant malveillant que je baptiserai « Rien qu’une tarte » [PieWithNothing]. Un spécialiste malveillant très connu dans la vente de base de données. Il officiait déjà dans différents forums pirates, dont certains fermés par les autorités tels que Raid Forum ou encore Breached.

      Le 8 août 2023, soit une semaine avant la cyber attaque annoncée par Pôle Emploi, Tarte commercialisait pour 900$ deux fichiers Pôle Emploi. Le premier de 1,2 million de personnes (2021). Le second, 10,2 millions d’enregistrements datant de 2022. Le pirate parle de données comprenant : nom complet, âge, téléphone portable, e-mail, commune, code postal, NIR, RCI, niveau de formation, expérience, permis de conduire, disponibilité d’une voiture, emploi souhaité, géolocalisation, Date. Soit 11,4 millions de données. Il n’y a pas de numéro de sécurité sociale dans cette seconde fuite (2022), mais les téléphones, les adresses électroniques, Etc. Les NIR sont dans la première base de données (2021).

      Et ce n’est pas une nouveauté ! Le même pirate avait diffusé, en 2021, sur le site Raid Forum, une base de données de 1,2 million de personnes provenant déjà de Pôle Emploi. A l’époque, il vendait cette BDD 1 200$. Il s’agit de la première BDD de la vente d’août 2023.

      Pôle emploi a tenu à souligner qu’il n’y avait « aucun risque sur l’indemnisation et l’accompagnement proposé » et que l’accès à l’espace personnel sur le site « pole-emploi.fr » restait sécurisé. Malgré cela, l’organisme a recommandé aux demandeurs d’emploi de se montrer vigilants face à toute démarche ou proposition pouvant sembler frauduleuse. Un support téléphonique sera mis à disposition via la plateforme téléphonique 39 49 pour accompagner les demandeurs d’emploi ayant des questions relatives à cette situation.

      Parmi les démarches malveillantes envisageables, ZATAZ n’en citera que deux : faux contrat de travail pour des missions de réception de chèques ou de produits volés ; infiltration d’ordinateur via des fichiers communiqués dans un courriel aux couleurs de Pôle Emploi, Etc.

    • Majorel, Cl0p, MOVEit... Le scénario probable de la fuite de données Pôle emploi | Silicon
      https://www.silicon.fr/majorel-cl0p-moveit-fuite-donnees-pole-emploi-470755.html

      Les failles en question avaient été découvertes à quelques jours d’intervalle, dans MOVEit Transfer, logiciel de transfert sécurisé de fichiers. L’une et l’autre ouvraient la voie à des injections SQL au niveau du front-end web. Avec, entre autres conséquences potentielles, l’exfiltration de données.

  • L’arrivée de #meta sur le fédivers est-elle une bonne nouvelle ?
    https://www.laquadrature.net/2023/08/09/larrivee-de-meta-sur-le-fedivers-est-elle-une-bonne-nouvelle

    Le fédivers (de l’anglais fediverse, mot-valise de « fédération » et « univers ») est un ensemble de médias sociaux composé d’une multitude de plateformes et de logiciels, où les uns communiquent avec les autres grâce à un protocole…

    #Censure #Données_personnelles #Surveillance #facebook #fédiverse #interop #mastodon #régulation

  • Worldcoin just officially launched. Here’s why it’s being investigated. | MIT Technology Review
    https://www.technologyreview.com/2023/08/07/1077250/worldcoin-officially-launched-why-its-being-investigated/?truid=a497ecb44646822921c70e7e051f7f1a

    It’s a project that claims to use cryptocurrency to distribute money across the world, though its bigger ambition is to create a global identity system called “World ID” that relies on individuals’ unique biometric data to prove that they are humans. It officially launched on July 24 in more than 20 countries, and Sam Altman, the CEO of OpenAI and one of the biggest tech celebrities right now, is one of the cofounders of the project.

    The company makes big, idealistic promises: that it can deliver a form of universal basic income through technology to make the world a better and more equitable place, while offering a way to verify your humanity in a digital future filled with nonhuman intelligence, which it calls “proof of personhood.” If you’re thinking this sounds like a potential privacy nightmare, you’re not alone.

    “Our investigation revealed wide gaps between Worldcoin’s public messaging, which focused on protecting privacy, and what users experienced. We found that the company’s representatives used deceptive marketing practices, collected more personal data than it acknowledged, and failed to obtain meaningful informed consent.”

    What’s more, the company was using test users’ sensitive, but anonymized, data to train artificial intelligence models, but Eileen and Adi found that individuals did not know their data was being used that way.

    Importantly, a core objective of the Worldcoin project is to perfect its “proof of personhood” methodology, which requires a lot of data to train AI models. If its proof-of-personhood system becomes widely adopted, this could be quite lucrative for its investors, particularly during an AI gold rush like the one we’re seeing now.

    The company announced this week that it will allow other companies and governments to deploy its identity system.

    “Worldcoin’s proposed identity solution is problematic whether or not other companies and governments use it. Of course, it would be worse if it were used more broadly without so many key questions being answered,” says Eileen. “But I think at this stage, it’s clever marketing to try to convince everyone to get scanned and sign up so that they can achieve the ‘fastest’ and ‘biggest onboarding into crypto and Web3’ to date, as Blania told me last year.”

    #Biométrie #Vie_privée #Données_personnelles #Worldcoin #Proof_of_personhood

  • #Frontex #risk_analyses based on unreliable information, EU watchdog says

    The EU border management agency Frontex produces untrustworthy risk analyses on migration due to the ‘low reliability of the data collected’, an investigation conducted by the #European_Data_Protection_Supervisor (#EDPS) found on Wednesday (31 May).

    The supervisor, which oversees the data processing of EU bodies, questioned the methodology used to integrate interviews collected on the field into risk analyses and denounced the “absence of a clear mapping and exhaustive overview of the processing of personal data” which the authority assessed as not sufficiently protected.

    The voluntary nature of interviews themselves is also not guaranteed, the report has found, as they “are conducted in a situation of deprivation (or limitation) of liberty” and aim at “identifying suspects on the basis of the interviewee’s testimony”.

    The concerns regard “the use of information of low reliability for the production of risk analyses and its implications for certain groups who may be unduly targeted or represented in the output of risk analysis products”.

    “Such undue representation could have negative impacts on individuals and groups through operational actions as well as the policy decision-making process,” the EU watchdog said.

    The new investigation results from fieldwork occurred in late 2022 at the Frontex headquarters in Warsaw.

    It is not the first time that the body has raised serious concerns about the data processing practices of an EU agency. In 2020, the supervisor initiated an investigation on Europol, the EU’s law enforcement agency, that resulted in the European Commission revising the agency’s mandate.

    Lack of protection

    The report explains that Frontex uses as its “main source of personal data collection” interviews that it conducts jointly with the member state they are operating in. Interviews are carried out on an ad hoc basis with people intercepted while trying to cross a border “without authorisation”.

    The EU agency collects information about their journey, the causes of the departure and any other information that can be relevant to the agency’s risk analysis.

    Despite Frontex carrying out interviews without putting the name of individuals, the information the exchanges contain “would allow for the identification of the interviewee and thus constitutes personal data within the meaning of data protection law”, the report argued.

    Among others, the EU agency collects personal data about individuals suspected to be involved in cross-border crimes, such as human smuggling, whose data are shared with Europol.

    According to the report, the EU agency may not “systematically” collect information about cross-border crimes since it “must be strictly limited to” Europol, Eurojust, and the member states’ “identified needs”.

    However, evidence shown by the EDPS indicates “that Frontex is automatically exchanging the debriefing reports with Europol without assessing the strict necessity of such exchange”.

    Since the latter constitutes a breach of Frontex rules themselves, the authority said that it would open an investigation on the matter.

    The authority also considers the arrangements that should be put in place when data are collected jointly between Frontex and member states to be “incomplete”.

    According to the EDPS, there are “no arrangements between the joint controllers for the allocation of their respective data protection obligations regarding the processing of personal data of interviewees”.

    “The audit report challenges the fundamental legality of risk analysis systems used against migrant people, and it highlights the serious harms that derive from their use,” Caterina Rodelli, EU Policy Analyst at the NGO Access Now told EURACTIV.

    Rodelli sees the EDPS report as an “important step” to set a limit to Frontex’s “disproportionate power” and it comes in a pivotal moment of risk assessment of data collecting tools regarding migratory flows.

    The authority sent Frontex 32 recommendations, of which 24 must to be implemented by the end of 2023.

    https://www.euractiv.com/section/data-privacy/news/frontex-risk-analyses-based-on-unreliable-information-eu-watchdog-says
    #chiffres #statistiques #méthodologie #fiabilité #europol #données_personnelles #frontières #migrations #réfugiés

    –—

    voir aussi ce fil de discussion auquel cet article a été ajouté :
    https://seenthis.net/messages/705957

  • L’Italie bloque ChatGPT, les grands modèles de langage inquiètent
    https://www.nextinpact.com/article/71372/litalie-bloque-chatgpt-grands-modeles-langage-inquietent

    Après le chatbot Replika début février, ChatGPT subit les foudres de l’autorité italienne. L’annonce a été faite par la Garante per la protezione dei dati personali (GPDP), l’équivalente de notre CNIL. D’autres institutions en Europe et aux États-Unis s’inquiètent aussi de ChatGPT, mais c’est le premier blocage du genre.

    La GPDP n’y va pas par quatre chemins et ne veut laisser « aucun moyen pour ChatGPT de continuer à traiter des données en violation des lois sur la protection de la vie privée ». Le régulateur a ainsi imposé « une limitation temporaire, mais immédiate au traitement des données des utilisateurs italiens par OpenAI ». Cette dernière est pour rappel à l’origine de ChatGPT.
    Les griefs de la GPDP contre ChatGPT

    Dans son exposé des griefs, la GPDP commence par rappeler que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et des informations relatives au paiement des abonnés ».

    L’autorité à d’autres reproches à faire, notamment l’absence « d’information aux utilisateurs et aux personnes dont les données sont collectées par Open AI et, plus important encore, il ne semble pas y avoir de base juridique par rapport à la collecte et au traitement massifs de données personnelles afin d’"entrainer" les algorithmes ».

    La GPDP s’appuie sur des tests mis en ligne pour affirmer que « les informations mises à disposition par ChatGPT ne sont pas toujours factuelles, de sorte que des données personnelles inexactes sont traitées ». Elle reproche enfin l’absence de vérification d’age alors que, selon les conditions d’utilisation d’OpenAI, ChatGPT est interdit au moins de 13 ans.

    Le régulateur italien explique enfin qu’OpenAI dispose de 20 jours pour lui notifier les mesures mises en place pour se conformer à son injonction, « faute de quoi une amende pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial pourra être infligée ».
    La CNIL française n’a pas reçu de plainte

    Interrogée par l’AFP, la CNIL précise n’avoir « pas reçu de plainte et n’a pas de procédure similaire en cours ». La Commission s’est néanmoins rapprochée de son homologue « afin d’échanger sur les constats qui ont pu être faits ».

    La GPDP s’appuyant sur le RGPD pour expliquer sa décision, la CNIL et d’autres pays pourraient suivre le pas si les autorités arrivent à la même conclusion.
    Europol et le BEUC s’inquiètent, une plainte à la FTC

    Quoi qu’il en soit, la GPDP italienne n’est pas la seule institution à s’émouvoir de ChatGPT, et les inquiétudes ne datent pas d’hier. Europol a publié un document cette semaine sur « l’impact des grands modèles de langage [LLM, ndlr] sur l’application de la loi », expliquant que des criminels pourraient se servir de l’intelligence artificielle pour leurs méfaits.

    Dangers des grands modèles de langage : des chercheuses avaient prévenu

    Cette semaine également, le Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la FTC (Federal Trade Commission). Elle « exhorte la FTC à enquêter sur OpenAI et à suspendre la vente de produits utilisant des grands modèles de langage, tels que GPT-4 ». Le CAIDP leur reproche notamment de décrire « comment commettre des actes terroristes, comment assassiner des dirigeants politiques et comment dissimuler la maltraitance des enfants. GPT-4 a la capacité d’entreprendre une surveillance de masse à grande échelle, en combinant sa capacité à ingérer des images, lier des identités et développer des profils complets ».

    Dans la foulée, le Bureau européen des unions de consommateurs (BEUC) a demandé « aux autorités européennes et nationales d’ouvrir une enquête sur ChatGPT et les chatbots similaires ».

    Le BEUC rappelle que l’Union européenne travaille actuellement sur la « première législation au monde sur l’IA », mais le Bureau craint qu’il faille encore « des années » avant que la loi n’entre en vigueur. Il ne souhaite donc pas laisser « les consommateurs exposés au risque de préjudice d’une technologie qui n’est pas suffisamment réglementée pendant cette période intérimaire ».
    Le Sénat dégaine sa proposition de résolution

    De manière opportune, le Sénat explique que sa commission des affaires européennes « a adopté à l’unanimité hier matin une proposition de résolution européenne pour appuyer l’instauration d’une réglementation européenne » dans le domaine des intelligences artificielles.

    La commission affirme « la nécessité de prévenir une utilisation excessive de cette technologie, et d’en promouvoir un déploiement conforme aux valeurs européennes, c’est-à-dire au service de l’humain, fiable et éthique ». Les rapporteurs rappellent que « mal utilisée, l’intelligence artificielle est susceptible de causer de graves atteintes aux droits fondamentaux, qu’il s’agisse du respect de la vie privée, de l’accès à la justice ou encore du respect du principe de non-discrimination ».

    La proposition de résolue comporte plusieurs points, notamment « l’interdiction générale de certaines applications particulièrement contraires aux valeurs de l’Union européenne ». Le document demande aussi d’« expliciter l’articulation entre la réglementation européenne sur l’intelligence artificielle et le règlement général sur la protection des données ».

    Il ne s’agit que d’une proposition de la commission des affaires européennes, qui est désormais renvoyée à la commission des lois, « qui peut ou non s’en saisir avant qu’elle ne devienne définitivement une résolution du Sénat d’ici un mois ».

    #ChatGPT #Données_personnelles #Italie #Interdiction

  • Un appel au numéro 09 69 39 99 98 de La Banque Postale, qui me demande avant d’accéder à un interlocuteur de taper le numéro de mon compte suivi de mon code secret. Quand on me répond (par mon nom et prénom), je glisse quand même que cela s’appelle une faille de sécurité monstre. La réponse vaut de l’or : « Oui mais ici on accède pas à votre compte, c’est juste pour donner des informations ». Uhuh, et comme je demande à parler à une personne responsable, on me raccroche au nez.

    #Labanquepostale #france #sécurité_informatique #données_personnelles #incurie_informatique #idiocratie

  • ‘Crazy invasive technology’ : UK faces legal challenge for GPS tagging of migrants

    A complaint has been filed by the anti-surveillance advocacy group Privacy International against the U.K. #Home_Office, which is rolling out #GPS tracking devices for migrants entering the country through irregular routes. Privacy International says the practice is excessive, unlawful and threatens the fundamental rights to privacy to which everyone in the United Kingdom is entitled.

    “These are just individuals who are seeking a new life in the U.K.,” said Lucie Audibert, a lawyer at Privacy International. “And so the necessity of surveilling them and monitoring in this way is highly questionable, and I question the effectiveness of it as well.”

    The devices, which are bulky ankle bracelets of the same type that have been used in the criminal justice system for decades, monitor migrants’ movements 24/7. Anyone who is on immigration bail in the U.K. can be tagged, for an unlimited amount of time.

    The Home Office unveiled a new 12-month pilot to experiment with tagging people arriving on small boats in June, when Prime Minister Boris Johnson said migrants couldn’t be allowed to simply “vanish” into the country. The Home Office have said they intend to use the tags to stop migrants bound for offshore detention centers in Rwanda from disappearing — despite absconding rates being as low as 1% in 2020, according to a Freedom of Information request by Migrants Organise.

    Privacy International argues that the practice of tagging migrants lacks the proper safeguards that are in place when the devices are used in the criminal justice system. They add that the devices can be inaccurate as well as intrusive. The privacy rights charity filed complaints with the Information Commissioner’s Office and the Forensic Science Regulator.

    Privacy and migration advocates say the Home Office can use the location data to check up on migrants who claim to remain in the U.K. on the basis of family ties with the country — to assess whether they really do visit their relatives. They also say the surveillance measure leaves migrants traumatized, stigmatized and — in some cases — housebound, afraid to engage with the outside world.

    The use of GPS tagging on migrants has already been trialed extensively in the U.S., under a program known as “Alternatives to Detention,” which has been expanded under President Joe Biden. The U.S. government argues that placing people under electronic surveillance is kinder and less brutal than imprisonment, and keeps more people out of immigration detention centers. But immigrants in the U.S. say the tags are dehumanizing.

    “You feel like you’re in prison again,” a U.S. asylum seeker told us in May. He described crying “tears of joy” when the bracelet was removed from his body after three months’ wear.

    The argument that the tags are a humane alternative to detaining migrants has been mirrored in the U.K.’s policy, according to Audibert. But, she says, it’s a false premise: “Every alternative to detention in the criminal justice system has never reduced prison numbers. It has just expanded the size of the population that was controlled.”

    The Home Office recently expanded the criteria for who is eligible to be tagged to include anyone who arrives in the U.K. via irregular routes, such as small boats — a practice which is now a criminal offense in the country. Earlier this month, a report in the Guardian revealed that the Home Office was rolling out new “facial recognition smartwatches” to migrants as a complement to the ankle tags. The smartwatches, though removable, require migrants convicted of a criminal offense to scan their face up to five times per day to ensure they’re still wearing them.

    The Home Office, in a statement, emphasized the tags will be used on “foreign national criminals” but made no mention of its pilot scheme to also tag asylum seekers with GPS ankle bracelets.

    A Home Office spokesperson said: “Since August 2021, the Home Office has successfully tagged over 2,500 foreign criminals, reassuring victims that their perpetrators cannot escape the law and will be removed from the U.K. at the earliest opportunity. Since January 2019, the Government has removed over 10,000 foreign criminals.”

    The use of GPS tracking has severe effects on the mental health of the wearer, according to research by Monish Bhatia, a criminology lecturer at Birkbeck, University of London. He describes, in a report published last year, how many people who are tagged experience it as imprisonment and punishment. They say the tag makes them feel like criminals, and that they have to live with the stigma if their tag is spotted.

    The tag means they’re often reluctant to engage with their community and do everyday activities like playing sport for fear of revealing their tag, and can end up isolating themselves, in a form of self-inflicted house arrest, because they do not want to be tracked.

    Bhatia argued the practice of tagging had no use other than to wield power over asylum seekers and minority groups. “It’s purely for control — and it is discriminatory. I’ve called it racial surveillance on more than a few occasions and I’ll stick with that term to describe this technology,” he said.

    The U.K. has in recent years rolled out a massive program of surveillance and technology to try to deter migrants from crossing the English Channel, at a cost of tens of millions of dollars to the British taxpayer. Audibert described how the GPS policy forms part of this strategy of deterrence and is part of the Home Office’s overall intention to stop migrants from making dangerous journeys across the water in small, fragile vessels.

    “They’re pouring millions of pounds into this crazy invasive technology,” said Audibert, who described how most migrants had no interest in breaching their bail conditions. “It’s criminalizing people that aren’t criminals in the first place.”

    https://www.codastory.com/authoritarian-tech/surveillance-uk-migrants-gps-trackers

    #surveillance #migrations #asile #réfugiés #frontières #données #données_personnelles #UK #Angleterre #géolocalisation

    –-

    Et parallèlement l’Union européenne...
    EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants
    https://seenthis.net/messages/966671

    ping @isskein @karine4

  • EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants

    Frontex and the European Commission sidelined their own data protection watchdogs in pursuing a much-criticised expansion of “intrusive” data collection from migrants and refugees to feed into Europol’s vast criminal databases, BIRN can reveal.

    On November 17 last year, when Hervé Yves Caniard entered the 14-floor conference room of the European Union border agency Frontex in Warsaw, European newspapers were flooded with stories of refugees a few hundreds kilometres away, braving the cold at the Belarusian border with Poland.

    A 14-year-old Kurd had died from hypothermia a few days earlier; Polish security forces were firing teargas and water cannon to push people back.

    The unfolding crisis was likely a topic of discussion at the Frontex Management Board meeting, but so too was a longer-term policy goal concerning migrants and refugees: the expansion of a mass surveillance programme at Europe’s external borders.

    PeDRA, or ‘Processing of Personal Data for Risk Analysis,’ had begun in 2016 as a way for Frontex and the EU police body Europol to exchange data in the wake of the November 2015 Paris attacks by Islamist militants that French authorities had linked to Europe’s then snowballing refugee crisis.

    At the November 2021 meeting, Caniard and his boss, Frontex’s then executive director, Fabrice Leggeri, were proposing to ramp it up dramatically, allowing Frontex border guards to collect what some legal experts have called ‘intrusive’ personal data from migrants and asylum seekers, including genetic data and sexual orientation; to store, analyse and share that data with Europol and security agencies of member states; and to scrape social media profiles, all on the premise of cracking down on ‘illegal’ migration and terrorism.

    The expanded PeDRA programme would target not just individuals suspected of cross-border crimes such as human trafficking but also the witnesses and victims.

    Caniard, the veteran head of the Frontex Legal Unit, had been appointed that August by fellow Frenchman Leggeri to lead the drafting of the new set of internal PeDRA rules. Caniard was also interim director of the agency’s Governance Support Centre, which reported directly to Leggeri, and as such was in a position to control internal vetting of the new PeDRA plan.

    That vetting was seriously undermined, according minutes of board meetings leaked by insiders and internal documents obtained via Freedom of Information requests submitted by BIRN.

    The evidence gathered by BIRN point to an effort by the Frontex leadership under Leggeri, backed by the European Commission, to sideline EU data protection watchdogs in order to push through the plan, regardless of warnings of institutional overreach, threats to privacy and the criminalisation of migrants.

    Nayra Perez, Frontex’s own Data Protection Officer, DPO, warned repeatedly that the PeDRA expansion “cannot be achieved by breaching compliance with EU legislation” and that the programme posed “a serious risk of function creep in relation to the Agency’s mandate.” But her input was largely ignored, documents reveal.

    The DPO warned of the possibility of Frontex data being transmitted in bulk, “carte blanche”, to Europol, a body which this year was ordered to delete much of a vast store of personal data that it was found to have amassed unlawfully by the EU’s top data protection watchdog, the European Data Protection Supervisor, EDPS.

    Backed by the Commission, Frontex ignored a DPO recommendation that it consult the EDPS, currently led by Polish Wojciech Wiewiórowski, over the new PeDRA rules. In a response for this story, the EDPS warned of the possibility of “unlawful” processing of data by Frontex.

    Having initially told BIRN that the DPO’s “advisory and auditing role” had been respected throughout the process, shortly before publication of this story Frontex conceded that Perez’s office “could have been involved more closely to the drafting and entrusted with the role of the chair of the Board”, an ad hoc body tasked with drafting the PeDRA rules.

    In June, the EDPS asked Frontex to make multiple amendments to the expanded surveillance programme in order to bring it into line with EU data protection standards; Frontex told BIRN it had now entrusted the DPO to redraft “relevant MB [Management Board] decisions in line with the EDPS recommendations and lessons learned.”

    Dr Niovi Vavoula, an expert in EU privacy and criminal law at Queen Mary University of London, said that the expanded PeDRA programme risked the “discriminatory criminalisation” of innocent people, prejudicing the outcomes of criminal proceedings against those flagged as “suspects” by Frontex border guards.

    As written, the revamped PeDRA “is another piece of the puzzle of the emerging surveillance and criminalisation of migrants and refugees,” she said.

    Religious beliefs, sexual orientation

    Leggeri had long held a vision of Frontex as more than simply a ‘border management’ body, one that would see it working in tandem with Europol in matters of law enforcement; to this end, both agencies have been keen to loosen restrictions on the exchange of personal data between them.

    Almost six years to the day before the Warsaw PeDRA meeting, a gun and bomb attack by Islamist militants killed 130 people in Paris. It was November 13, 2015, at the height of the refugee crisis in the Mediterranean and Aegean Seas.

    The following month, Leggeri signed a deal with the then head of Europol, Briton Richard Wainwright, which opened the door to the exchange of personal data between the two agencies. Addressing the UK parliament, Wainwright described a “symbiotic” relationship between the agencies in protecting the EU’s borders. In early 2016, a PeDRA pilot project launched in Italy, quickly followed by Greece and Spain.

    At the same time, Europol launched its own parallel programme of so-called Secondary Security Checks on migrants and refugees in often cramped, squalid camps in Italy and Greece using facial recognition technology. The checks, most recently expanded to refugees from Ukraine in Lithuania, Poland, Romania, Slovakia and Moldova, were introduced “in order to identify suspected terrorists and criminals” but Europol is tight-lipped about the criteria determining who gets checked and what happens with the data obtained.

    Since the launch of PeDRA, Frontex officers have been gathering information from newly-arrived migrants concerning individuals suspected of involvement in smuggling, trafficking or terrorism and transmitting the data to Europol in the form of “personal data packages,” which are then cross-checked against and stored within its criminal databases.

    According to its figures, under the PeDRA programme, Frontex has shared the personal data – e.g. names, personal descriptions and phone numbers – of 11,254 people with Europol between 2016 and 2021.

    But the 2015 version of the PEDRA programme was only its first incarnation.

    Until 2019, rules governing Frontex meant that its capacity to collect and exchange the personal data of migrants had been strictly limited.

    In December 2021, after years of acrimonious legal wrangling, the Frontex Management Board – comprising representatives of the 27 EU member states and the European Commission – gave the green light to the expansion of PeDRA.

    Under the new rules, which have yet to enter into force, Frontex border guards will be able to collect a much wider range of sensitive personal data from all migrants, including genetic and biometric data, such as DNA, fingerprints or photographs, information on their political and religious beliefs, and sexual orientation.

    The agency told BIRN it had not yet started processing personal data “related to sexual orientation” but that the collection of such information may be necessary to “determine whether suspects who appear to be similar are in fact the same.”

    In terms of social media monitoring, Frontex said it had not decided yet whether to take advantage of such a tool; minutes of a joint meeting in April, however, show that Frontex and Europol agreed on “strengthening cooperation on social media monitoring”.

    Indeed, in 2019, Frontex published plans to pay a surveillance company 400,000 euros to track people on social media, including “civil society and diaspora communities” within the EU, but abandoned it in November of that year after Privacy International questioned the legality of the plan.

    Yet, under the expanded PeDRA, Vavoula, of Queen Mary University, said Frontex officers could be tasked without scraping social media profiles “without restrictions”.

    Commenting on the entire programme, she added that PeDRA “could not have been drafted by someone with a deep knowledge of data protection law”. She cited numerous violations of elementary data protection safeguards, especially for children, the elderly and other vulnerable individuals, who should generally be treated differently from other subjects.

    “Sufficient procedural safeguards should be introduced to ensure the protection of fundamental rights of children to the fullest possible extent including the requirement of justified reasons of such a processing of personal data,” Vavoula said. “Genetic data is much more sensitive than biometric data,” and therefore requires “specific safeguards” not present in the text.

    Vavoula also noted the absence of a “maximum retention period,” warning, “Frontex may retain the data forever.”
    Internal dissent swept aside

    Internal documents seen by BIRN show that the man tasked by Leggeri to oversee the drafting of the new PeDRA rules, Caniard, ignored objections raised by the agency’s own data protection watchdog.

    Perez, a Spanish lawyer and Frontex’s DPO, has the task of monitoring the agency’s compliance with EU data protection laws not only concerning the thousands of migrants whose data will be stored in its databases but also of the agency’s rapidly expanding staff base, currently numbering more than 1,900 but soon to include a ‘standing corps’ of up to 10,000 border guards.

    She had also been working on earlier drafts of the new PeDRA rules since 2018, only to be leapfrogged by Caniard when he was appointed by Leggeri in August 2021.

    When she was shown an advanced draft of the new PeDRA rules in October 2021, Perez did not mince her words. “The process of drafting the new rules de facto encroaches on the tasks legally assigned to the DPO,” she said in an internal Frontex document obtained by BIRN. “When the DPO issues an opinion, such advice cannot be overruled or amended.”

    The DPO proposed more than a hundred changes to the draft; she warned that, under the proposed rules, Frontex “seems to arrogate the capacity to police the internet” through monitoring of social media and that victims and witnesses of crime whose data is shared with Europol face “undesirable consequences” of being part of a “pan-European criminal database.”

    During intense internal discussions in late 2021, as the deadline for approving the new rules was fast approaching, the DPO said that Frontex had failed to make a compelling case for the collection of sensitive data such as ethnicity or sexual orientation.

    “…the legal threshold to be met is not a ‘nice to have’ but a strict necessity,” Perez wrote.

    When the final draft landed on the desk of the Frontex Management Board in November 2021, it was clear that many of the DPO’s recommendations had been disregarded.

    At this point, Frontex was already the target of a probe by the European Anti-Fraud Office into its role in so-called ‘pushbacks’ in which migrants are illegally turned away at the EU’s borders, the findings of which would eventually force Leggeri’s resignation in April this year.

    In an initial written response for this story, Frontex said that the DPO “had an active, pivotal role in the deliberations” concerning the new rules and that the watchdog’s “advisory and auditing role was respected” throughout the process.

    Minutes of the November board meeting appeared to contradict this, however. Written in English and partially disclosed following an ‘access to documents request’, they cite Caniard conceding that the DPO was “consulted twice with a very short notice” and that, since Perez issued her opinion only the day before the meeting, there “was no possibility to take stock of it”. Perez submitted her opinion on November 16 and the board meeting was held on November 17 and 18.

    The DPO, for its part, urged the management board to “work on the current draft to eliminate inconsistencies” and, though not legally obliged, “to consult the EDPS prior to adoption”.

    Prior to publication of this story, BIRN asked Frontex again whether the DPO’s mandate had been respected during the drafting of the new PeDRA rules. The agency backtracked, saying it should have involved Perez’s office more closely and that the DPO would rewrite the programme.

    Dissent was not confined to the DPO. Danish and Dutch representatives in the meeting urged the board to delay voting on the rules given that the DPO’s opinions had not been taken on board and to “do its utmost to avoid any situation where it is necessary to amend rules just adopted just because an EDPS’ conflicting opinion is issued.”

    According to the minutes of the November meeting, the Commission representative, however, dismissed this, declaring that it considered the text “more than mature for adoption” and that there was no need to consult the EDPS because “it is not mandatory”.

    Email exchanges between the Commission and Frontex reveal the urgency with which the Commission wanted the new rules adopted, even at the cost of foregoing EDPS participation.

    One, from the Commission to Frontex on November 14, 2021, just days before the Board meeting said that, “while it would have been good to consult the EDPS on everything, it is more important now to get at least the two first decisions adopted.” An earlier mail, from July 2021 and sent directly to Leggeri, said it was “an absolute political priority to put in place the data protection framework of the Agency without any further delays.” That framework included the processing of personal data under PeDRA.

    Asked why it supported the expansion of the Frontex surveillance programme without first having the proposal checked by EDPS, the Commission told BIRN it would not comment on “discussion held in the management board or other internal meetings.”

    The EDPS, the EU’s top data protection authority, was only shown a copy of the new rules in late January 2022.

    Asked for its opinion, the EDPS told BIRN it is “concerned that the rules adopted do not specify with sufficient clarity how the intended processing will be carried out, nor define precisely how safeguards on data protection will be implemented.”

    The processing of highly vulnerable categories of individuals, including asylum seekers, could pose “severe risks for fundamental rights and freedoms,” such as the right to asylum, it said. It further stressed that “routine”, i.e. systematic, exchange of personal data between Frontex and Europol is not permitted and that such exchange can only take place “on a case-by-case basis.”
    Collecting data with ‘religious’ fervour

    Experts question the effectiveness of such extensive data collection in combating serious crime.

    Douwe Korff, Emeritus Professor of international law at London Metropolitan University, decried the apparent lack of results and accountability.

    “There isn’t even the absolute minimum requirement for law enforcement authorities to provide serious proof that the expansion of surveillance powers will be effective and proportionate,” said Korff, who has contributed to research on mass surveillance for EU institutions for years.

    “If you ask how many people have you arrested using this data that are completely innocent, they don’t even want to know about this. They pursue this policy of mass data collection with a religious belief.”

    Indeed, when the EDPS ordered Europol in January to delete data amassed unlawfully concerning individuals with no link to criminal activity, member states and the Commission came to the rescue with legal amendments enabling the agency to sidestep the order.

    In May, Frontex and Europol put forward a proposal, drafted by a joint working group named ‘The Future Group’, for a new surveillance programme at the bloc’s external borders that would implement large-scale profiling of EU and third-country nationals using Artificial Intelligence.

    https://balkaninsight.com/2022/07/07/eus-frontex-tripped-in-plan-for-intrusive-surveillance-of-migrants
    #surveillance #migrations #asile #réfugiés #frontières #Frontex #données #Europol #PeDRA #Processing_of_Personal_Data_for_Risk_Analysis #Caniard #Hervé_Yves_Caniard #Leggeri #Fabrice_Leggeri #Nayra_Perez #Italie #Grèce #Espagne #Secondary_Security_Checks #données_personnelles

  • Les données numériques des femmes, armes de la justice américaine contre l’avortement ?
    https://www.rts.ch/info/sciences-tech/technologies/13190398-les-donnees-numeriques-des-femmes-armes-de-la-justice-americaine-contre

    La Cour suprême américaine pourrait remettre en cause le droit à l’avortement en laissant les Etats légiférer. Ceux qui interdiraient cet acte pourraient poursuivre des femmes en se basant sur leurs données numériques.
    La criminalisation de l’avortement pourrait prendre une tout autre dimension en utilisant les données numériques comme preuves au tribunal. L’achat d’un test de grossesse sur internet, une géolocalisation à proximité d’un centre de Planning familial ou des données de santé provenant d’une application de fitness sont des preuves qui pourraient être utilisées lors d’une action en justice.

    En 2017, une jeune Afro-Américaine du Mississippi a été inculpée de meurtre au 2ème degré de son enfant mort-né. L’accusation s’est basée sur une recherche qu’elle avait réalisée en ligne sur une pilule abortive. Même si elle a été relaxée en 2020, ces épisodes risquent de se généraliser.

    Des données précieuses pour une publicité ciblée
    Les données numériques des recherches effectuées sur Internet sont collectées et exploitées pour proposer de la publicité ciblée ou encore à d’autres fins.

    Selon une étude https://www.privacyinternational.org/long-read/3196/no-bodys-business-mine-how-menstruations-apps-are-sharing-your , les applications de suivi du cycle menstruel envoient des informations très personnelles sur la santé et les pratiques sexuelles des femmes directement à Facebook comme l’utilisation de contraceptifs, les dates de leurs règles, les symptômes et les humeurs.

    Les annonceurs s’intéressent à l’humeur des personnes car cela les aide à cibler stratégiquement les publicités à des moments où elles sont plus susceptibles d’acheter. Par exemple, les femmes enceintes, ou cherchant à le devenir, sont susceptibles de changer leurs habitudes d’achat.

    Pas de protection
    Dans un contexte de criminalisation de l’avortement, ces informations pourraient être intéressantes pour les services de police. Notamment aux Etats-Unis où, contrairement à l’Europe, aucune loi ne protège les citoyennes et les citoyens de l’utilisation de ces données numériques par la justice.

    En Europe, les données de santé sont considérées comme sensibles. Elles sont donc assujetties à des protections particulières par le Règlement Général de Protection des Données (ou le RGPD).

    En Suisse, le droit à l’avortement subit actuellement quelques pressions, sans pour autant être remis en question. Deux initiatives fédérales pour réduire le nombre d’IVG ont été lancées en 2021 : « La nuit porte conseil » et « Sauver les bébés viables ». La récolte des signatures court jusqu’en juin 2023.

    #femmes #usa #avortement #données #surveillance #facebook #santé #bigdata #algorithme #data #google #données_personnelles #profiling #vie_privée #flicage #smartphone #publicité

  • Les tiers-lieux (Innovation sociale et prospective) par Valérie Peugeot | MOOC Digital Paris
    https://moocdigital.paris/cours/innovation-sociale-prospective/tiers-lieux

    Un MOOC sur l’innovation numérique et les communs, avec la participation de Valérie Peugeot. 6 séquences d’une dizaine de minutes.

    Valérie Peugeot donne d’abord une définition générale de l’innovation sociale. C’est une réponse face à un besoin qui n’est apporté ni par l’État ni par le marché, et va être proposée par un collectif de citoyens sous différentes formes. Ce qui l’intéresse, c’est ce que cela peut apporter en termes de créativité. « Je considère cela comme un terreau dans lequel on va pouvoir puiser de l’imagination, renouveler nos idées et manières de voir le monde pour trouver de nouvelles réponses ». Elle répertorie 2 500 tiers-lieux en France, et ils seront bientôt 3 000. C’est là qu’on trouve « cette imagination fertile pour faire vivre les territoires autrement ». Elle décrit différents types d’initiatives et la pluralité des activités qui y sont développées. Elle s’interroge : comment passer du local à une plus grande échelle ?

    Valérie Peugeot

    Chercheuse au sein d’Orange Labs et présidente de l’association Vecam, Valérie Peugeot a rejoint le collège des commissaires de la Commission Nationale de l’Informatique et des Libertés (CNIL) en avril 2016, où elle a la charge du secteur de la santé. De 2013 à 2015, elle a été vice-présidente du Conseil National du Numérique. Au sein du laboratoire de sciences sociales et humaines d’Orange Labs, les recherches de Valérie Peugeot portent sur les dispositifs numériques de contribution citoyenne dans la ville, la sobriété numérique ou encore l’inclusion numérique. Elle est également directrice pédagogique de l’Executive master « Digital humanities » à Sciences po Paris. En tant que présidente de l’association Vecam, Valérie Peugeot a notamment œuvré à la diffusion de la pensée et des pratiques des communs en France. Attachée au monde de l’ESS (économie sociale et solidaire), elle est membre du Conseil d’administration de la Fondation du Crédit coopératif. Elle est co-auteur avec Serge Abiteboul de l’ouvrage Terra Data - Qu’allons-nous faire des données numériques ? (Editions Le Pommier, 2017).

    #Communs #Valérie_Peugeot #Innovation_sociale #Données_personnelles #Tiers_Lieux

  • Le Canada a formé des éléments d’un régiment ukrainien lié à l’extrême droite Simon Coutu - Radio Canada
    https://ici.radio-canada.ca/nouvelle/1873461/canada-regiment-ukrainien-lie-extreme-droite-azov

    Le Canada a dépensé près d’un milliard de dollars pour former des forces ukrainiennes depuis 2014. Des militaires du régiment Azov, connu pour ses liens avec l’extrême droite, ont profité de cet entraînement, selon des documents analysés par Radio-Canada.

    Fondé par un néonazi notoire, le régiment Azov s’est fait connaître pour ses faits d’armes en 2014 contre les séparatistes prorusses, notamment à Marioupol, là où il combat de nouveau aujourd’hui. D’ailleurs, avec le repositionnement des forces russes dans le sud et dans l’est de l’Ukraine, le bataillon pourrait avoir un rôle central à jouer dans les futurs combats.

    Lorsque Vladimir Poutine avance vouloir “dénazifier” l’Ukraine en envahissant ce pays, il fait notamment référence à cette unité controversée. Si l’effectif du bataillon s’est diversifié depuis son intégration au sein de la Garde nationale ukrainienne (GNU), il entretient toujours des liens avec l’extrême droite.

    C’est en raison de ces affiliations fascistes qu’Ottawa répète d’ailleurs, depuis 2015, que jamais les Forces armées canadiennes (FAC) ne fourniront ou n’ont fourni d’entraînement ou de soutien à ce régiment ni à des unités affiliées.

    Pourtant, des photos prises au centre de formation de Zolochiv de la garde nationale ukrainienne , dans l’ouest de l’Ukraine, montrent le contraire. Les Forces armées canadiennes ont bel et bien contribué à la formation des soldats du régiment Azov en 2020, au point où cette unité se targue maintenant de pouvoir former ses propres militaires selon les standards occidentaux.

    Sur deux clichés publiés sur les réseaux sociaux de la Garde nationale ukrainienne (Nouvelle fenêtre) https://www.facebook.com/ngutrainingcentr/posts/2178291778970663 le 20 novembre 2020, on aperçoit deux militaires qui portent sur leur uniforme un écusson fourni par le régiment Azov au moment où ils participent à un entraînement auprès des Forces armées canadiennes. Il s’agit de l’emblème du test Spartan, un tournoi avec des épreuves de force. L’écusson est aussi frappé du logo du régiment Azov, qui évoque la Wolfsangel, un symbole qui a été utilisé par plusieurs unités nazies.

    Selon Oleksiy Kuzmenko, un journaliste spécialiste de l’extrême droite ukrainienne, la présence de ces écussons suggère fortement que le régiment Azov a eu accès à l’entraînement militaire canadien.

    “L’écusson en question est fermement et exclusivement associé au régiment Azov”, dit-il. “Ces éléments de preuve démontrent que les militaires canadiens n’ont pas mis en place les mécanismes qui empêcheraient cette unité militaire d’extrême droite d’accéder à l’aide occidentale fournie aux forces militaires et de sécurité”, dit le reporter, qui collabore notamment avec le média d’investigation en ligne Bellingcat (Nouvelle fenêtre). https://www.bellingcat.com

    Chercheur à l’Institut national des langues et civilisations orientales (INALCO), spécialiste de l’Ukraine, de l’extrême droite et du nationalisme ukrainien, Adrien Nonjon reconnaît lui aussi ce symbole sur les photos.

    “Je peux vous assurer avec une certitude absolue que c’est un écusson d’Azov”, fait-il observer. “Ce régiment se présente comme une formation d’élite et essaie d’inculquer ce modèle de dépassement de soi à ses combattants. Cela dit, on peut aussi imaginer que l’individu qui porte cet écusson est un ancien membre du régiment.”

    Sur une autre image (Nouvelle fenêtre) https://www.flickr.com/photos/cfcombatcamera/50562875068/in/photostream

    Flickr
    prise lors du même entraînement, cette fois-ci par une photographe des Forces armées canadiennes, on aperçoit un soldat ukrainien qui porte un écusson aux couleurs de la 14e division de la Waffen-SS, créée en 1943 par le régime nazi d’Adolf Hitler pour combattre l’Union des républiques socialistes soviétiques avec des volontaires ukrainiens. Une cérémonie destinée à rendre hommage à cette division a d’ailleurs été condamnée en 2021 (Nouvelle fenêtre) https://www.president.gov.ua/news/shodo-akciyi-u-kiyevi-do-richnici-stvorennya-diviziyi-ss-gal-68225 par le président Volodymyr Zelensky.

    Sur cette photo prise par les Forces armées canadiennes, on aperçoit un militaire ukrainien qui porte un écusson de la 14e division de la Waffen-SS.


    Photo : Avr Melissa Gloude, Forces armées canadiennes. Photomontage : Charlie Debons, Radio-Canada

    Si, historiquement, cette division de la Waffen-SS n’a pas participé aux massacres de Juifs en Ukraine durant la Seconde Guerre mondiale, il n’en reste pas moins que l’image du lion doré et des trois couronnes est très controversée.

    “On ne s’en sort pas : [la Waffen-SS], c’est une bande de nazis”, affirme le professeur et titulaire de la Chaire en études ukrainiennes de l’Université d’Ottawa, Dominique Arel. “En tant que division, ils ont été créés trop tard pour participer à l’Holocauste et ont été utilisés comme de la chair à canon par les Allemands.
    Mais il n’en demeure pas moins que la symbolique est forte. Les SS, c’est le groupe le plus criminel du 20e siècle.”

    Opération Unifier
    Depuis 2015, le Canada a contribué à former 33 346 candidats des Forces de sécurité de l’Ukraine, dont 1951 éléments de la garde nationale ukrainienne , dans le cadre de l’opération Unifier, selon le ministère de la Défense nationale (Nouvelle fenêtre). https://www.canada.ca/fr/ministere-defense-nationale/services/operations/operations-militaires/operations-en-cours/operation-unifier.html Le coût de ce programme s’élève à plus de 890 millions de dollars. Tous les six mois, environ 200 membres des Forces armées canadiennes se relaient pour offrir de l’aide en matière d’instruction sur la force de sécurité. Tout ce personnel a été temporairement déplacé en Pologne jusqu’à ce que les conditions permettent une reprise de l’entraînement.

    Les militaires canadiens ont travaillé en collaboration avec le Centre de formation de la Garde nationale ukrainienne à Zolochiv du 20 février 2019 au 13 février 2022, selon les Forces armées canadiennes.

    Interrogé sur la présence de ces écussons sur l’uniforme de militaires ukrainiens durant un entraînement mené par les Forces armées canadiennes, le ministère de la Défense nationale a formellement nié avoir formé des membres du régiment Azov.

    “Les Forces armées canadiennes n’ont jamais donné quelque formation que ce soit aux membres du bataillon Azov”, assure par courriel le ministère de la Défense nationale. “Les militaires participant à l’op Unifier ont toujours reçu l’ordre de ne pas s’entraîner avec les membres du bataillon Azov et de n’avoir aucun contact avec eux.”

    Le porte-parole du ministère convient cependant que “les membres de l’op Unifier n’exercent aucune surveillance sur les personnes choisies pour assister aux cours ou aux séances de formation”.

    Des membres de la Garde nationale ukrainienne suivent une séance de formation de la part de militaires canadiens de l’opération Unifier le 22 janvier 2021.


    Photo : Avr Melissa Gloude, Forces armées canadiennes

    Selon le ministère, il incombe à l’Ukraine d’effectuer les vérifications requises en ce qui concerne les militaires en formation.

    “Les Forces armées canadiennes n’ont ni le pouvoir ni le mandat de faire enquête sur les militaires d’autres pays. Toutefois, le personnel de l’op Unifier a toujours eu l’obligation et le droit de demander au personnel de commandement des installations d’entraînement ou des académies militaires ukrainiennes de retirer des cours donnés ou supervisés par des membres des Forces armées canadiennes tout soldat ukrainien qu’ils soupçonnent d’être inadéquat du point de vue des valeurs canadiennes ou du droit international.”

    Contacté par courriel, un représentant de la garde nationale ukrainienne a réfuté que des éléments du régiment Azov aient pu participer à une formation auprès de militaires canadiens, malgré les écussons particuliers du régiment observés sur leurs propres photos. “Quant à la période que vous mentionnez [novembre 2020], cette unité n’y a pas fait d’exercice”, écrit un porte-parole. “Et cette pièce ne fait pas partie de leur uniforme.”

    Les membres du régiment Azov n’ont pas répondu à nos requêtes par courriel ni sur le réseau Telegram.

    Des membres du régiment Azov de la Garde nationale ukrainienne ainsi que des activistes du parti d’extrême droite Corps national et du groupe radical Secteur droit ont participé à un rassemblement pour marquer la Journée des défenseurs de l’Ukraine, à Kiev, en octobre 2016.


    Photo : Reuters / Gleb Garanich _

    Former Azov par la bande
    Le 18 août 2021, un communiqué publié sur le site web de la garde nationale ukrainienne avançait par ailleurs que des éléments du régiment Azov (aussi connu sous le nom “de détachement spécial de l’unité militaire 3057”) avaient reçu un entraînement auprès d’instructeurs formés selon un programme élaboré avec la participation de représentants de l’opération Unifier, appelé “PR-1”.

    “Le premier groupe de chasseurs de l’unité militaire 3057 a commencé à s’entraîner dans le cadre du programme de formation de base des soldats selon les normes de l’Organisation du traité de l’Atlantique nord [...]”, peut-on y lire. “Un tel cours en Ukraine n’a lieu qu’au Centre de formation de la Garde nationale ukrainienne à Zolochiv [...]. Le programme de formation de base des soldats est la première étape de la croissance du système de formation professionnelle de la Garde nationale d’Ukraine. Il a été élaboré conjointement avec des représentants de l’opération Unifier selon les normes de l’Organisation du traité de l’Atlantique nord.”

    Un communiqué publié sur le site web du régiment Azov au mois d’août 2021 précise que 35 combattants ont participé à cette formation.

    Au mois d’octobre, Azov se targuait de former 33 cadets selon le programme PR-1, mais cette fois-ci dans ses propres installations, grâce aux entraînements reçus à Zolochiv. On y mentionne aussi que, “pour le prochain cours, les instructeurs sont prêts à accepter deux fois plus de militaires et à dispenser régulièrement une telle formation”.

    Questionné sur cette formation offerte par des instructeurs d’Azov, “élaborée avec des représentants de l’opération Unifier selon les normes de l’Organisation du traité de l’Atlantique nord”, le ministère canadien de la Défense nationale affirme “ne pas être au courant”.

    La garde nationale ukrainienne et toutes ses sous-organisations, comme le Centre de formation de Zolochiv – où les membres des Forces armées canadiennes opéraient –, “ont toujours été pleinement conscients et ont convenu que le ministère de la Défense nationale et les FAC ne formeraient pas les membres du régiment Azov et n’auraient pas de contacts avec eux”, indique un porte-parole par courriel. “De plus, la [garde nationale ukrainienne ] a toujours accepté de prendre des mesures pour éviter des interactions.”

    La garde nationale ukrainienne n’a pas donné suite à notre demande à ce sujet.

    Dépolitisé ou néofasciste ?
    Le régiment Azov, qui participe à la défense de la ville de Marioupol, dévastée par l’armée russe, est une unité très controversée en Ukraine, comme ailleurs.

    Les autorités russes utilisent le spectre d’Azov pour justifier l’invasion de l’Ukraine. Dans un discours diffusé quelques minutes avant le début de l’invasion, le 24 février, Vladimir Poutine avait déclaré chercher “à démilitariser et à dénazifier l’Ukraine”, alors que le président du pays, Volodymyr Zelensky, est juif. Le 10 mars, le ministre russe des Affaires étrangères, Sergueï Lavrov, a justifié le bombardement d’une maternité à Marioupol par la présence du “bataillon Azov et d’autres radicaux” sur place.


    Le président de la Russie, Vladimir Poutine, a déclaré chercher à démilitariser et à dénazifier l’Ukraine au cours d’un discours télévisé le 24 février 2022.
    Photo : Associated Press

    Créé par le néonazi Andriy Biletsky, le régiment Azov compterait aujourd’hui 10 000 combattants sur les quelque 200 000 soldats de l’armée ukrainienne, selon son fondateur.

    Il s’agit donc d’une entité minoritaire, bien loin de ce que laisse supposer la propagande de Vladimir Poutine.

    Les quelque 800 combattants qui le composaient à l’origine, durant la guerre du Donbass, ont contribué à reprendre la ville de Marioupol aux séparatistes prorusses en 2014. De nombreux volontaires étaient issus de la formation ultranationaliste Patriote d’Ukraine et de l’Assemblée sociale nationale, d’allégeance néofasciste.

    Andriy Biletsky a siégé au Parlement de 2014 à 2019. Si son discours s’est affiné depuis, il a mentionné en 2008 que la mission de l’Ukraine consiste à “ mener les races blanches du monde dans une croisade finale… contre les Untermenschen [les sous-humains] dirigés par les Sémites”.

    En juin 2015, le Canada a annoncé qu’il ne soutiendrait pas et n’entraînerait pas ce régiment. En visite à Kiev, le ministre de la Défense nationale de l’époque, Jason Kenney, l’avait alors qualifié  (Nouvelle fenêtre) https://www.theglobeandmail.com/news/national/kenney-says-nationalist-azov-group-shouldnt-tarnish-ukraines-image/article25157369 d’un “petit nombre de pommes pourries”.

    Toutefois, en 2018, une délégation de militaires et de diplomates canadiens a rencontré des membres du régiment en Ukraine (Nouvelle fenêtre) https://ottawacitizen.com/news/national/defence-watch/canadian-officials-who-met-with-ukrainian-unit-linked-to-neo-nazis-fe malgré les mises en garde formulées un an plus tôt par les Forces armées canadiennes.

    Un rapport de 2016 du Haut-Commissariat aux droits de l’homme  (Nouvelle fenêtre)des Nations unies (Nouvelle fenêtre) https://www.ohchr.org/sites/default/files/Documents/Countries/UA/Ukraine_13th_HRMMU_Report_3March2016.pdf accuse par ailleurs le régiment Azov d’avoir enfreint le droit international humanitaire. On l’accuse notamment d’avoir violé et torturé des détenus dans la région du Donbass et d’avoir déplacé des résidents après avoir pillé des propriétés civiles.

    Le bataillon Azov a été intégré à la garde nationale ukrainienne en 2014 à la suite des premiers accords de Minsk. Il serait donc “dépolitisé”, selon le chercheur à l’INALCO Adrien Nonjon. Il n’aurait alors plus de liens avec le Corps national, le parti du fondateur du régiment Azov, Andriy Biletsky.

    Des volontaires ukrainiens du bataillon Azov avec leurs drapeaux ont fait une démonstration de force lors de la Journée des volontaires ukrainiens à Kiev, en Ukraine, le samedi 14 mars 2020.

    “Tant les séparatistes que l’Ukraine se sont engagés dans une volonté de désescalade”, fait-il observer. “Ils ont intégré ces éléments subversifs pour pouvoir les surveiller et les contrôler. C’est un corps militaire comme un autre et je dirais même que c’est une unité d’élite au sein de la Garde nationale ukrainienne. On pourra toujours dire qu’il y a des liens qui existent, mais ils sont plutôt informels, basés sur une camaraderie, parce qu’ils ont tous été au front.”

    Toutefois, pour Oleksiy Kuzmenko, qui est aussi l’auteur d’un rapport pour l’université George Washington (Nouvelle fenêtre) https://www.illiberalism.org/wp-content/uploads/2021/09/IERES-Papers-no-11-September-2021-FINAL.pdf sur les contacts entre les militaires occidentaux et des membres du groupe d’extrême droite ukrainien Ordre militaire Centuria, il ne fait aucun doute que le régiment Azov entretient toujours des liens avec le parti d’extrême droite Corps national, malgré un vernis politiquement correct.

    “Pour commencer, jusqu’au début de la nouvelle agression de la Russie, le centre de recrutement du régiment à Kiev partageait un emplacement avec les bureaux du parti au centre ATEK d’Azov. Il est aussi important de souligner que le chef actuel du régiment, Denis Prokopenko, et son adjoint, Svyatoslav Palamar, sont tous deux membres depuis 2014 et ont servi sous Biletsky. Le fondateur du régiment Azov et d’autres leaders du Corps national ont d’ailleurs continué à visiter le régiment avant la guerre. J’ajouterais aussi qu’en 2019, le régiment s’est rangé du côté du mouvement civil lorsqu’il a perturbé la campagne de réélection du président Petro Porochenko. Finalement, la faction armée d’Azov a accueilli l’aile jeunesse du Corps national en août 2021 dans le cadre d’un entraînement.”

    Dans de récents communiqués publiés sur la plateforme Telegram, un porte-parole du régiment dénonce le manque d’implication de l’Occident dans le conflit qui oppose l’Ukraine à la Russie. “Une des unités les plus motivées de notre pays, le régiment Azov, est qualifiée de fasciste et de nazie [...]. On nous interdit d’obtenir des armes et de nous entraîner avec des instructeurs de l’Organisation du traité de l’Atlantique nord, nos réseaux sociaux ont été bloqués, etc. Les vrais fascistes sont non pas les combattants du régiment Azov mais bien les dirigeants russes et l’armée russe, qui ont eu l’audace d’appeler la guerre en Ukraine une "opération spéciale de "dénazification.”

    Il reste que, selon le chercheur Dominique Arel, le régiment Azov “n’est pas dépolitisé du tout”. Par contre, il s’interroge quant à la pertinence d’aborder cette question alors que l’Ukraine subit l’invasion russe.

    Des milliers de civils sont toujours coincés à Marioupol, qui est bombardée quotidiennement par les forces russes.
    Photo : afp via getty images / ARIS MESSINIS

    “C’est une branche qui est dangereuse”, admet-il. “Mais en ce moment, ils ne tabassent pas de Roms dans la rue : ils défendent leur pays. Les fascistes, ce sont les Russes qui terrorisent les populations civiles. Après la guerre, ça pourrait poser problème que l’extrême droite se retrouve armée. Mais actuellement, au-delà du régiment Azov, c’est une très bonne chose que l’Armée canadienne ait formé les forces ukrainiennes. On voit les résultats exceptionnels sur le terrain. Sur le sol, à Marioupol, l’armée, dont le régiment Azov, résiste toujours.”

    #Canada #azof #régiment_azof #ukraine #waffen-ss #armée #armée_canadienne #néonazi #ukronazi #zelinsky #pologne #Donbass #Marioupol #facisme #nazisme #dénazification #dominique_arel #otan

  • Tu as besoin de savoir ? Paye tes allocs ! - Association nationale des assistants de service social
    https://www.anas.fr/Paye-tes-allocs-_a1880.html

    DÉCLARATION DE L’ANAS DU 4 AVRIL 2022

    Paris, le 4 avril 2022,
     

    Depuis plus de trois ans, le site « mes-allocs.fr » prospère illégalement sur le dos des personnes les plus fragiles.

    Ce site se présente comme un simulateur de droits et propose aux internautes d’estimer leur éligibilité à certaines prestations en espèces à l’instar du site gouvernemental gratuit https://www.mesdroitssociaux.gouv.fr.

    Pourtant, derrière la vitrine d’une louable ambition énoncée sur son site internet, le fonctionnement de cette plateforme vient montrer une réalité bien plus mercantile en totale violation de la loi.

    En effet, il est proposé aux internautes de renseigner une multitude de données personnelles pour estimer un potentiel droit à une ou plusieurs prestations sociales. Dans un second temps, le site propose à l’utilisateur que ses « experts » réalisent le remplissage et l’envoi de formulaires d’accès à ces mêmes prestations en contrepartie de frais d’inscription et d’un abonnement de 29,90 euros par trimestre.

    Or, par un travail de collecte, d’analyse et de recherche, notre association, l’Association Nationale des Assistants de Service Social (ANAS), a établi le caractère illégal de l’activité de ce site internet (voir documents ci-dessous). Elle a par conséquent déposé plainte auprès de la procureure de la République d’Evry. Les principales institutions de sécurité sociale ont également été alertées.

    Pour l’ANAS, l’accès au système de protection sociale est gratuit et doit le demeurer au nom du principe de solidarité nationale.

    ben oui, on sait jamais à quelle sauce on va être mangé (ou trashé). le service public est ainsi fait que toute entreprise qui vient remédier à l’absence d’information sur les droits peut espérer prospérer. 30 balles c’est 10% de l’APL individuelle au montant le plus élevée possible. un RSA pour personne isolée, c’est 506 euros (max, car 12% de "forfait logement est ôté au montant théorique partout rabâche par la presse toujours plus ministérielle). le pire c’est de se faire une idée des montants de prime d’activité, ou de cumul alloc chômage, salaire de la chômeuse en activité à temps réduit...

    #opacité #allocataires #droits_sociaux #données_personnelles #mes-allocs.fr #racket #abus_de_faiblesse #CAF #simulateur_de_droits #Pôle_emploi #précarité

  • Contrôles discriminatoires : « Nous demandons le démantèlement des pratiques illégales des CAF » - Basta !
    https://basta.media/CAF-controles-abusifs-des-allocataires-CNAF-score-de-risque-fraude-tribune-


    Photo : Cheep, CC BY-SA 4.0, via Wikimedia Commons

    Contrôles abusifs des allocataires, suspension des versements, harcèlement des plus précaires… La CAF oublie ses missions initiales de protection et de soutien pour devenir un outil de police numérique. Une tribune du collectif « Changer de cap ».

    La numérisation à marche forcée des services publics contribue à faire des Caisses d’allocations familiales (CAF) un instrument de la mise en place d’une société de surveillance et de pénalisation des plus pauvres. Alors que la protection sociale est un droit universel depuis le Conseil national de la Résistance, les CAF développent une politique de plus en plus dure de contrôle des personnes en situation de précarité.

    Tous fichés...

    Plus de 1 000 données par personne sont collectées pour 13 millions de foyers [1], grâce à l’interconnexion de dizaines de fichiers administratifs (impôts, éducation, police, justice…) Les contrôleurs ont en outre le pouvoir de consulter nos comptes bancaires, nos factures de téléphone et d’énergie… Toutes ces données sont traitées à notre insu.

    Repère  :
    Le collectif « Changer de cap »
    Lire l’encadré
    Chaque allocataire fait l’objet d’un profilage établi par un logiciel, mais selon des variables définies par des décisions humaines. Des algorithmes déterminent des « scores de risque » de fraude, qui débouchent sur un véritable harcèlement des personnes en difficulté. Sont qualifiés de « risque » les variations de revenus, les situations familiales atypiques, la naissance hors de France… Il en résulte un ciblage des contrôles sur les personnes précaires, handicapées ou vulnérables.

    Plus de 32 millions de contrôles automatisés ont été réalisés par les CAF en 2020. Les témoignages collectés confirment la concentration de ces contrôles sur les femmes seules avec enfants, les chômeurs, des personnes handicapées, d’origine étrangère…

    [...]

    Vous pouvez vous joindre à cet #appel. Voici le lien pour le signer : https://changerdecap.net/petition-caf

    Voir les témoignages et le dossier complet https://changerdecap.net/caf-controle-social

    #allocataires #minima_sociaux #APL #RSA #CAF #CNAF #arbitraire #illégalité #contrôles #contrôleurs #visites_domiciliaires #indus #numérisation #reste_à_vivre #protection_sociale #droits_sociaux #précarité #précarisation #données_personnelles #données #pétition #chasse_aux_pauvres

  • Contrôles discriminatoires : « Nous demandons le démantèlement des pratiques illégales des CAF »
    https://www.laquadrature.net/2022/04/06/controles-discriminatoires-nous-demandons-le-demantelement-des-pratiqu

    Nous republions ici une tribune initiée par le collectif Changer de Cap et que nous avons signée. Elle est parue le 5 avril dans Basta !. Nous appelons à signer et faire circuler l’appel correspondant. Contrôles abusifs…

    #Données_personnelles #Surveillance #Vie_privée_-_Données_personnelles