• Tecnologie per il controllo delle frontiere in Italia: identificazione, riconoscimento facciale e finanziamenti europei


    Executive summary

    L’utilizzo documentato di un sistema di riconoscimento facciale da parte dell’amministrazione comunale di Como o da parte della Polizia di Stato italiana ha aperto anche in Italia il dibattito su una tecnologia che all’estero, già da tempo, si critica per la sua inaccuratezza algoritmica e per la poca trasparenza. Un tema sicuramente preoccupante per tutti ma che certamente assume caratteristiche ancor più pericolose quando interessa gruppi o individui particolarmente vulnerabili come migranti, rifugiati e richiedenti asilo. In questo caso i dati e le informazioni sono processati da parte di agenzie governative a fini di sorveglianza e di controllo, con tutele assai minori rispetto ai cittadini europei ed italiani. Ciò comporta un grande rischio per queste persone poiché le procedure di identificazione al loro arrivo in Italia, effettuate all’interno degli hotspot, rischiano di essere un’arma a doppio taglio per la loro permanenza nel nostro Paese (o in Europa), determinando uno stato di sorveglianza continuativa a causa della loro condizione. Ancora una volta alcune categorie di persone sono costrette ad essere “banco di prova” per la sperimentazione di dispositivi di controllo e sorveglianza, a dimostrazione che esistono e si reiterano rapporti di potere anche attraverso la tecnologia, portando alla creazione di due categorie distinte: chi sorveglia e chi è sorvegliato.

    Da questa ricerca emerge che le procedure di identificazione e categorizzazione dei migranti, rifugiati o richiedenti asilo fanno ampio utilizzo di dati biometrici—la polizia italiana raccoglie sia le impronte digitali che la foto del loro volto—ma non è sempre facile comprendere in che modo vengano applicate. Nel momento in cui viene effettuata l’identificazione, le categorie sopra citate hanno ben poche possibilità di conoscere appieno il percorso che faranno i loro dati personali e biometrici, nonché di opporsi al peso che poi questo flusso di informazioni avrà sulla loro condizione in Italia e in tutta l’Unione Europea. Quest’ultima, infatti, promuove da alcuni anni la necessità di favorire l’identificazione dei migranti, stranieri e richiedenti asilo attraverso un massiccio utilizzo di tecnologie: a partire dal mare, pattugliato con navi e velivoli a pilotaggio remoto che “scannerizzano” i migranti in arrivo; fino all’approdo sulla terraferma, dove oltre all’imposizione dell’identificazione e del fotosegnalamento i migranti hanno rischiato di vedersi puntata addosso una videocamera “intelligente”.

    Ampio spazio è lasciato alla trattazione di come lo stato italiano utilizzi la tecnologia del riconoscimento facciale già da alcuni anni, senza che organizzazioni indipendenti o professionisti possano controllare il suo operato. Oltre alla mancata trasparenza degli algoritmi che lo fanno funzionare, infatti, non sono disponibili informazioni chiare sul numero di persone effettivamente comprese all’interno del database che viene utilizzato proprio per realizzare le corrispondenze tra volti, AFIS (acronimo di Automated Fingerprint Identification System).

    Nelle intenzioni della polizia italiana, infatti, c’era l’impiego di un sistema di riconoscimento facciale, SARI Real-Time, per riconoscere in tempo reale l’identità delle persone a bordo di un’imbarcazione durante le fasi di sbarco sulle coste italiane. Il sistema SARI Real-Time, acquistato originariamente per l’utilizzo durante manifestazioni ed eventi pubblici, è stato reso inutilizzabile a seguito della pronuncia negativa del Garante della Privacy: rischierebbe di introdurre una sorveglianza di massa ingiustificata. La decisione del Garante tutela quindi non solo coloro che vivono nel nostro paese ma anche chi, in una situazione di estrema vulnerabilità, arriva sulle nostre coste dopo un viaggio interminabile e si vede sottoposto a un controllo sproporzionato ancor prima di ricevere supporto medico e valutazione dello status legale.

    Come Centro Hermes per la Trasparenza e i Diritti Umani Digitali dal 2011 ci interroghiamo sul funzionamento e sullo scopo delle innovazioni in campo tecnologico, analizzandole non solo da un punto di vista tecnico ma anche attraverso la lente dei diritti umani digitali. Negli ultimi anni la datificazione della società attraverso la raccolta indiscriminata di dati personali e l’estrazione di informazioni (e di valore) relative al comportamento e alle attività svolte da ognuno di noi sono il tema centrale di ricerca, analisi e advocacy dell’associazione. Siamo convinti infatti che vada messa in dubbio non solo la tecnologia digitale creata al presunto scopo di favorire il progresso o di dare una risposta oggettiva a fenomeni sociali complessi, ma anche il concetto di tecnologia come neutra e con pressoché simili ripercussioni su tutti gli individui della società. È importante a nostro parere che qualunque discorso sulla tecnologia racchiuda in sé una più ampia riflessione politica e sociologica, che cerchi di cogliere la differenza tra chi agisce la tecnologia e chi la subisce.

    Principali risultati:

    https://protecht.hermescenter.org
    #rapport #Hermes #frontières #Italie #reconnaissance_faciale #réfugiés #asile #migrations #contrôles_frontaliers #identification #financements_européens #technologie #complexe_militaro-industriel #Côme #surveillance #biométrie #données_biométriques #catégorisation #photos #empreintes_digitales #AFIS #algorythmes #Automated_Fingerprint_Identification_System #SARI_Real-Time #database #base_de_données

    sur la mise en place de reconnaissance faciale à Côme:
    https://seenthis.net/messages/859963

    ping @etraces

  • Data et nouvelles technologies, la face cachée du contrôle des mobilités

    Dans un rapport de juillet 2020, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle (#EU-Lisa) présente l’#intelligence_artificielle (#IA) comme l’une des « #technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

    L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme #Frontex ou EU-Lisa, ont été particulièrement actives dans l’expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de #surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

    La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

    http://migreurop.org/article3021.html

    Pour télécharger la note :
    migreurop.org/IMG/pdf/note_12_fr.pdf

    #migrations #réfugiés #asile #frontières #mobilité #mobilités #données #technologie #nouvelles_technologies #coronavirus #covid #IOM
    #migreurop

    ping @etraces

    voir aussi :
    Migreurop | Data : la face cachée du contrôle des mobilités
    https://seenthis.net/messages/900232

    • European funds for African IDs: migration regulation tool or privacy risk?

      The first person you meet after you land at Blaise Diagne Airport in Dakar is a border guard with a digital scanner.

      The official will scan your travel document and photograph and take a digital print of your index fingers.

      It’s the most visible sign of the new state-of-the-art digital biometrics system that is being deployed in the airport with the help of EU funding.

      The aim is to combat the increasingly sophisticated fake passports sold by traffickers to refugees.

      But it also helps Senegal’s government learn more about its own citizens.

      And it’s not just here: countries across West Africa are adopting travel documentation that has long been familiar to Europeans.

      Passports, ID cards and visas are all becoming biometric, and a national enrolment scheme is underway.

      In Europe too, there are proposals to create a biometric database of over 400 million foreign nationals, including fingerprints and photographs of their faces.

      The new systems are part of efforts to battle illegal migration from West Africa to the EU.

      ‘Fool-proof’ EU passport online

      Many are still plying the dangerous route across the Sahara and the Mediterranean to reach Europe, but a growing number are turning to the criminal gangs selling forged passports to avoid the treacherous journey over desert and sea.

      There’s a burgeoning market in travel documents advertised as ‘fake but real”.

      Prices vary according to the paperwork: an EU Schengen transit visa costs €5,000, while a longer-stay visa can be twice as high.

      Some forgers have even mastered the ability to incorporate holograms and hack the biometric chips.

      “Morphing” is an image processing technique that merges two people’s photographs into a single new face that appears to contain entirely new biometric data.

      Frontex, the EU’s border guard agency, says 7,000 people were caught trying to enter the Schengen area in 2019 carrying such documents — but it admits the true figure could be much higher.

      Sending migrants back

      Last year, the largest number of travellers with fake documents arrived via Turkish and Moroccan international airports.

      Many were caught in Italy, having arrived via Casablanca from sub-Saharan countries like Ghana, Mali, Nigeria and Senegal.

      A Frontex team responsible for deporting migrants without the correct paperwork was deployed this year at Rome’s Fiumicino Airport.

      It’s the first sign of a new European Commission regulation expanding the agency’s role, which includes access to biometric data held by member states, according to Jane Kilpatrick, a researcher at the civil liberties think-tank Statewatch.

      “The agency’s growing role in the collection of data, it links overtly to the agency’s role in deporting individuals from the EU,” she said.

      Over 490,000 return decisions were issued by member states last year, but only a third were actually sent back to a country outside the EU.

      There are multiple reasons why: some countries, for example, refuse to accept responsibility for people whose identity documents were lost, destroyed or stolen.

      Legally binding readmission agreements are now in place between the EU and 18 other countries to make that process easier.
      There are no records

      But a bigger problem is the fact that many African countries know very little about their own citizens.

      The World Bank estimates the continent is home to roughly half of the estimated one billion people on the planet who are unable to prove their identities.

      An absence of digitisation means that dusty registers are piling up in storage rooms.

      The same goes for many borders: unlike the scene at Dakar’s airport, many are still without internet access, servers, scanners and cameras.

      That, the Commission says, is why EU aid funds are being used to develop biometric identity systems in West African countries.

      The EU Trust Fund for Africa has allotted €60 million to support governments in Senegal and Côte d’Ivoire in modernising their registry systems and creating a national biometric identity database.

      Much of the funding comes through Civipol, a consulting firm attached to France’s interior ministry and part-owned by Milipol, one of the most important arms trade fairs in the world.

      It describes the objective of the programme in Côte d’Ivoire as identifying “people genuinely of Ivorian nationality and organising their return more easily”.
      Data security concerns

      European sources told Euronews that the EU-funded projects in West Africa were not designed to identify potential migrants or deport existing ones.

      A Commission spokesperson insisted no European entity — neither Frontex, nor member states, nor their partners — had access to the databases set up by West African countries.

      But the systems they are funding are intimately connected to anti-migration initiatives.

      One is the Migrant Information and Data Analysis System (MIDAS), a migration database that can send automatic queries to Interpol watchlists to detect travel documents and people possibly linked to organised crime, including human trafficking.

      Connections like these, and the role of French arms giants like Thales in the growing biometric market, has led data protection experts to become worried about possible abuses of privacy.
      World’s newest biometric market

      As Africa becomes the coveted market for biometric identification providers, the watchdog Privacy International has warned it risks becoming a mere testing ground for technologies later deployed elsewhere.

      So far 24 countries on the continent out of 53 have adopted laws and regulations to protect personal data.

      A letter by Privacy International, seen by Euronews, says EU must “ensure they are protecting rights before proceeding with allocating resources and technologies which, in absence of proper oversight, will likely result in fundamental rights abuses.”

      It has published internal documents tracking the development of Senegal’s system that suggest no privacy or data protection impact assessments have been carried out.

      Civipol, the French partner, denies this: it told Euronews that the Senegalese Personal Data Commission took part in the programme and Senegalese law was respected at every stage.

      Yet members of Senegal’s independent Commission of Personal Data (CDP), which is responsible for ensuring personal data is processed correctly, admit implementation and enforcement remained a challenge — even though they are proud of their country’s pioneering role in data governance in Africa.

      For the Senegalese cyber activist Cheick Fall, the charge is more serious: “Senegal has sinned by entrusting the processing of these data to foreign companies.”

      https://www.euronews.com/2021/07/30/european-funds-for-african-ids-migration-regulation-tool-or-privacy-risk

      #biométrie #aéroport #Afrique #étrangers #base_de_données_biométrique #empreintes_digitales #passeports #visas #hologramme #Morphing #image #photographie #Frontex #EU_Trust_Fund_for_Africa #Trust_Fund #Civipol #Milipol #armes #commerce_d'armes #Côte_d’Ivoire #Afrique_de_l'Ouest #Migrant_Information_and_Data_Analysis_System (#MIDAS) #Interpol #Thales #Sénégal #Senegalese_Personal_Data_Commission #Commission_of_Personal_Data (#CDP)

  • Mineurs étrangers : le fichier antifraude bientôt imposé à tous les départements

    Le projet de #loi « #protection_des_enfants » prévoit de rendre obligatoires à tous les départements le recours au #fichier_anti-fraude concernant les #mineurs_non_accompagnés, ainsi que la transmission de #données_personnelles aux autorités préfectorales. Les associations y voient un « outil de lutte contre l’immigration irrégulière ».

    Il avait été instauré en 2019, officiellement pour lutter contre le « #nomadisme » des #jeunes_migrants, soupçonnés de tenter leur chance d’un département à l’autre pour être reconnus #mineurs et pris en charge par l’#Aide_sociale_à_l’enfance. Le fichier « antifraude » (dit « #AEM », pour aide à l’#évaluation_de_la_minorité) revient, en force, sur le devant de la scène dans le cadre du projet de loi relatif à la « protection des enfants », examiné cette semaine à l’Assemblée nationale.

    Le texte prévoit en effet de le rendre obligatoire à tous les départements, alors qu’une poignée de récalcitrants – dont #Paris, la #Seine-Saint-Denis et le #Val-de-Marne – résistaient jusqu’alors, malgré les #sanctions_financières établies par un décret datant de juin 2020, venant réduire le montant de la contribution forfaitaire de l’État versée pour l’évaluation de la #minorité et la #prise_en_charge des jeunes. La somme passait, pour les départements refusant d’y avoir recours, de 500 à 100 euros.

    Depuis 2019, le gouvernement invite les #départements, sur la base du volontariat, à renvoyer les jeunes se présentant comme mineurs vers la préfecture, où un certain nombre de #données_personnelles (prise d’#empreintes_digitales, photos, #adresse_de_domiciliation, #numéro_de_téléphone...) sont alors collectées et enregistrées. Ces dernières sont ensuite comparées au fichier dit « #Visabio », qui répertorie les demandes de #visa formulées depuis l’étranger et peut biaiser les déclarations des jeunes se présentant comme mineurs, puisque certains d’entre eux tentent d’abord une demande de visa en se déclarant majeurs, dans le but de s’éviter la traversée par la mer.

    « Certains départements ne prennent même plus la peine de faire l’évaluation pour un jeune si la préfecture dit qu’il se trouve dans Visabio », souligne Jean-François Martini, juriste au Gisti. Selon le Groupe d’information et de soutien des immigrés, 77 départements ainsi que la métropole de Lyon auraient déjà recours au fichier AEM permettant la collecte d’informations. Pourtant, jusqu’à présent, impossible de mesurer l’éventuelle « fraude » à laquelle pourraient s’adonner les jeunes migrants en recherche de protection en France.

    « Rien ne justifie l’utilisation de ce fichier »

    Aucun chiffre, aucun bilan, rappelle Camille Boittiaux, référente MNA chez Médecins du monde, ne permettent d’« objectiver le phénomène de “nomadisme” ». « Rien ne justifie l’utilisation de ce fichier. Les arguments avancés par le gouvernement ne sont pas convaincants. Les MNA sont encore une fois considérés comme des migrants, de potentiels fraudeurs, avant d’être vus comme des #enfants. »

    Pourquoi donc vouloir rendre obligatoire un #fichier_biométrique controversé, auquel même la Défenseure des droits a manifesté son opposition, dans un avis critique adressé à la commission des affaires sociales de l’Assemblée nationale fin juin, pointant un texte « pas à la hauteur des besoins que l’on note en #protection_de_l’enfance », rappelant, au passage, que le droit des MNA de refuser de transmettre leurs #informations_personnelles « n’est plus considéré ni prévu » ?

    Pour les associations d’aide aux migrants et aux MNA, comme pour le député Guillaume Chiche, la réponse est simple : il s’agit de faire de la protection de l’enfance un « outil de #lutte_contre_l’immigration_irrégulière ». « On passe du champ de la protection de l’enfance à un système policier, et le fichier AEM en est le premier pont », prévient Jean-François Martini. Dans un communiqué interassociatif (https://www.gisti.org/spip.php?article6614) rassemblant le Gisti, La Cimade, Infomie, Médecins du monde et le Secours catholique, ces organisations dénoncent un « #fichage policier systématique » et la « nocivité » de ce fichier. « Depuis sa mise en œuvre par la plupart des départements métropolitains, c’est une catastrophe pour les jeunes à tous points de vue », poursuit le juriste auprès de Mediapart.

    La référente MNA de Médecins du monde pointe, elle aussi, les « effets délétères » du fichier dans les départements où il a déjà été mis en place : « On a constaté que certains mineurs craignaient le passage en préfecture et décidaient de ne pas intégrer le système de la protection de l’enfance. D’autres sont laissés sans mise à l’abri en attendant le passage à la préfecture. D’autres encore n’ont ni mise à l’abri ni évaluation après consultation du fichier par le département. » Une sorte de #tri faisant fi du principe de #présomption_de_minorité, qui doit normalement garantir une protection aux jeunes se déclarant mineurs durant toute la durée de leurs démarches.

    « L’article 15 relève exclusivement de la gestion de flux migratoires, relève le député Guillaume Chiche, membre de la commission des affaires sociales. On organise la délivrance de renseignements sur les MNA aux autorités préfectorales. Pire, on oblige les départements à leur présenter les MNA ! » Avec le risque, aux yeux du député ex-LREM, de « reléguer les travailleurs sociaux au rang d’enquêteurs et de supplétifs des forces de l’ordre ». « Il n’y a plus de #secret_professionnel, cela rompt le lien de #confiance avec les jeunes », déplore-t-il.

    Mélange des genres

    Dans son avis, la Défenseure des droits exprime « ses profondes inquiétudes » quant à l’article 15, qui tend « davantage à traiter du #contrôle_migratoire qu’à une réelle amélioration de la protection des mineurs non accompagnés ». MNA qui relèvent, rappelle-t-elle, uniquement des dispositifs de la protection de l’enfance « jusqu’à l’établissement de leur âge par une décision judiciaire », et qui devraient être exclus de procédures relevant « d’un contrôle et d’une gestion des flux migratoires ».

    Un mélange des genres « intolérable » pour le Gisti. « On ne peut pas à la fois faire de la protection de l’enfance et mettre en œuvre des mesures elles-mêmes affichées comme de la lutte contre l’immigration irrégulière, estime Jean-François Martini. Le résultat de l’évaluation finit entre les mains d’une préfecture qui peut en tirer un argument pour prononcer une mesure d’éloignement, on organise une collaboration objective entre professionnels de la protection de l’enfance et services des préfectures. »

    Contacté, le département du Val-de-Marne n’a pas donné suite à l’heure où nous publions cet article. Désormais passé à droite, celui qui faisait partie des derniers « résistants » au fichier AEM et avait même déposé un recours auprès du Conseil d’État avec la Seine-Saint-Denis pour contester le décret du 23 juin 2020, risque de changer de cap. En Seine-Saint-Denis, le fichier est jugé « inacceptable » et reste à ce jour inutilisé.

    « Ce n’est pas notre rôle, tranche Stéphane Troussel, président du Conseil départemental. Les départements ne sont pas des supplétifs du ministère de l’intérieur. C’est à ce titre qu’on a refusé d’appliquer le décret jusqu’ici. Avec le recours obligatoire au fichier, on va fouler au pied la libre administration des collectivités territoriales. L’État devrait aller au bout de sa logique : s’il considère que cela relève de la question migratoire, à lui de prendre en charge la mise à l’abri et l’évaluation ! »

    Difficile, pour Dominique Versini, adjointe en charge de la protection de l’enfance à Paris, de dire si le département pourra continuer de « résister » bien longtemps : « Avec la Seine-Saint-Denis et la #Gironde, on n’a pas cessé de subir des #pressions. On a été pointés du doigt par le gouvernement comme des “gauchistes” qui voudraient favoriser l’appel d’air. On a essayé de nous attaquer par le porte-monnaie avec le décret réduisant la contribution forfaitaire. On a admis le fait de ne pas recevoir l’argent de l’État, qui représente une perte de 2,2 millions d’euros de recettes par an pour Paris, parce que nos valeurs l’emportaient. Mais là, le problème, c’est que le recours au fichier va être rendu obligatoire par la loi... », appréhende l’élue.

    Alors que le gouvernement mène déjà une politique de lutte contre l’immigration illégale « très dure », il « passe » désormais par les départements, selon elle, pour récupérer des jeunes à expulser. « C’est une façon d’utiliser la protection de l’enfance au profit d’une politique de lutte contre l’immigration illégale et cela me choque profondément », dénonce l’ancienne ministre, qui souligne une violation de la Convention internationale des droits de l’enfant et de la présomption de minorité, les jeunes étant contraints de se rendre en préfecture avant même d’avoir fait l’objet d’une évaluation. « La puissance du ministère de l’intérieur l’emporte sur le secrétariat en charge de la protection de l’enfance et je le déplore », poursuit Dominique Versini.
    Rien pour améliorer le quotidien des mineurs étrangers

    Le projet de loi prévoit par ailleurs d’interdire le placement des mineurs à l’#hôtel, mais introduit tout de même un caractère d’urgence, avec une durée maximale de deux mois, qui laisse planer le doute : « Deux mois, c’est déjà énorme ! Il y a entre 7 500 et 10 000 enfants placés à l’hôtel, et cela répond quasiment tout le temps à des situations d’#urgence et de #mise_à_l’abri. Donc cela ne va rien changer », alerte Guillaume Chiche, ajoutant qu’une majorité des enfants placés à l’hôtel sont des MNA. « Quand j’ai interpellé le ministre [Adrien Taquet] en commission, il a répondu que la durée de deux mois correspondait au temps qu’il fallait aux départements pour évaluer la minorité. Il y a donc un #droit_d’exception pour les MNA, et il est criminel d’organiser le tri entre les enfants. »

    En 2020, 4 750 jeunes se sont présentés à Paris pour une évaluation (contre 1 500 en 2015). Les MNA représentent un tiers des enfants confiés à l’#ASE. Paris et la Seine-Saint-Denis comptabilisent, à eux seuls, 50 % des évaluations réalisées en France (et 70 % pour l’Île-de-France). Ces deux départements restent ceux qui accueillent le plus de mineurs isolés. Pour mieux prendre en compte les spécificités socio-économiques des départements, et notamment le niveau de pauvreté, le projet de loi prévoit de modifier les critères du système de #répartition des MNA sur le territoire français - créé en 2016 pour soulager les départements les plus sollicités.

    S’il ambitionne d’apporter une « réponse précise », guidée par « l’intérêt supérieur de l’enfant et la pérennisation de notre système de protection de l’enfance », force est de constater que le projet de loi reste à mille lieues des enjeux (lire notre analyse : https://www.mediapart.fr/journal/france/160621/enfants-en-danger-un-projet-de-loi-mille-lieues-des-enjeux), et que rien ou presque ne vise à améliorer la prise en charge et le quotidien des MNA, dont l’histoire et le parcours migratoire sont souvent traumatisants.

    Rien concernant ces jeunes voyant d’abord leur minorité contestée, exclus du dispositif de protection et laissés à la #rue durant la durée de leur recours, puis reconnus majeurs par le juge des enfants [un jeune sur deux à saisir le juge serait reconnu mineur - ndlr]. Rien concernant ces jeunes reconnus mineurs par un département, puis réévalués majeurs dans un second département en raison du système de répartition imposé. Rien, enfin, concernant ces ex-MNA qui, à leur majorité et malgré une formation en apprentissage, parfois avec le soutien d’un employeur, sont menacés d’expulsion, révélant toutes les incohérences de l’État (lire ici ou là le récit de ces gâchis).

    Un projet de loi « de #maltraitance », juge Jean-François Martini. « Il n’y a rien sur la protection des enfants ! Qu’il s’agisse de l’évaluation, des #tests_osseux qu’on ne veut pas interdire ou de la possibilité de placement à l’hôtel dans des cas d’urgence, on les met en situation de #fragilité extrême, et on ose dire que la République fait le job », tacle Guillaume Chiche. Et Camille Boittiaux de conclure : « Il aurait pu y avoir des dispositions protectrices pour une vraie prise en charge de ce public. Mais ils sont uniquement sur le volet sécuritaire et le contrôle des enfants. C’est une occasion manquée. »

    https://www.mediapart.fr/journal/france/070721/mineurs-etrangers-le-fichier-antifraude-bientot-impose-tous-les-departemen
    #France #mineurs_étrangers #MNA #fraude #anti-fraude #antifraude #amende #préfecture #biométrie #chantage #résistance

    ping @etraces @karine4 @isskein

    • Pas de mesures anti-mineurs isolés étrangers dans le projet de loi relatif à l’enfance !

      Le 16 juin a été présenté en Conseil des ministres un projet de loi relatif à l’enfance qui a pour ambition de « garantir véritablement aux enfants un cadre de vie sécurisant et serein, et aux professionnels un exercice amélioré de leurs missions ». Plusieurs dispositions concernent les mineur⋅es isolé⋅es. Pour ces enfants, il n’est pas question de « cadre sécurisant et serein » mais d’un fichage policier systématique et d’une modification de la clé de répartition territoriale des prises en charge, sans tenir compte de leur intérêt.

      Le texte prévoit un recours systématique au fichier d’appui à l’évaluation de la minorité (AEM), qui fait du passage en préfecture un préalable à toute mesure de protection de l’enfance. L’utilisation de ce fichier depuis 2019 par de nombreux départements a démontré sa nocivité : mineur·es laissé·es à la rue dans l’attente de leur passage en préfecture, refus de mise à l’abri et d’évaluation à l’issue de la consultation des fichiers, édiction de mesures d’éloignement à l’égard de ceux et celles « déclaré⋅es » majeur⋅es, les privant de leur droit à un recours devant le ou la juge des enfants, etc. Le gouvernement veut maintenant imposer l’utilisation de ce fichier aux derniers départements qui refusent de confondre protection de l’enfance et lutte contre l’immigration [1].

      La clé de répartition nationale des mineur·es isolé·es entre les départements est modifiée en fonction de nouveaux critères qui ne tiennent aucun compte de l’intérêt de l’enfant : rien sur les délais interminables de transfert entre certains départements qui retardent leur scolarisation et leur prise en charge éducative ; et rien non plus sur les « doubles évaluations » qui conduisent des départements à remettre en cause la mesure de protection prise à l’initiative d’autres départements.

      Encore une occasion manquée pour le gouvernement de prendre des mesures de protection propres à se mettre en conformité avec les droits de l’enfant : détermination de la minorité basée sur l’état civil, présomption de minorité, prise en charge des jeunes majeur·es renforcée, droit au séjour sécurisé…

      Nous appelons donc au retrait de ces dispositions du projet de loi, à l’inclusion de mesures protectrices pour les mineur·es isolé·es et à un approfondissement de celles qui peuvent constituer des pistes d’amélioration de la protection de tous les enfants : prévention de la maltraitance dans les établissements, limitation des placements à l’hôtel, renforcement des normes d’encadrement, etc.

      https://www.gisti.org/spip.php?article6614

  • President of Mexico should veto the biometric mobile phone registry
    https://www.accessnow.org/mexicos-new-biometric-mobile-phone-registry

    Collecting personal biometric data in exchange for a mobile SIM card is unnecessary and dangerous. Yet, this is the stark reality the Mexican Chamber of Senators has set in motion after voting yesterday, April 13, in favor of establishing a National Register of Mobile Phone Users. Access Now and Red en Defensa de los Derechos Digitales (R3D) call on the President of Mexico, Andrés Manuel López Obrador, to veto the alarming new biometric mobile phone registry. “The president must be consistent (...)

    #smartphone #SIM #biométrie #criminalité #données #reconnaissance #empreintes #AccessNow

    ##criminalité

  • Clearview AI Is Taking Facial Recognition Privacy to the Supreme Court
    https://onezero.medium.com/clearview-ai-is-taking-facial-recognition-privacy-to-the-supreme-cou

    International regulators have found Clearview AI’s technology breaches their privacy laws Clearview AI plans to challenge an Illinois law guarding against private facial recognition databases in the Supreme Court, according to Bloomberg Law. The Illinois’ Biometric Information Privacy Act (BIPA) has been a thorn in the side of tech giants like Google, Facebook, and Apple for years, as it prohibits the collection of data like facial recognition images, fingerprints, and iris scans without (...)

    #Clearview #algorithme #biométrie #reconnaissance #iris #empreintes #surveillance #législation #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #BIPA (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##scraping

  • Despite Scanning Millions With Facial Recognition, Feds Caught Zero Imposters at Airports Last Year
    https://onezero.medium.com/despite-scanning-millions-of-faces-feds-caught-zero-imposters-at-air

    U.S. Customs and Border Protection scanned more than 23 million people in public places with facial recognition technology in 2020 U.S. Customs and Border Protection scanned more than 23 million people with facial recognition technology at airports, seaports, and pedestrian crossings in 2020, the agency recently revealed in its annual report on trade and travel. The agency scanned four million more people than in 2019. The report indicates that the system caught no imposters traveling (...)

    #CBP #algorithme #CCTV #biométrie #facial #fraude #reconnaissance #vidéo-surveillance #iris #empreintes #frontières #surveillance (...)

    ##_

  • Les scanners chinois utilisés par les douanes belges pointés du doigt : « Avec ça, ils peuvent infiltrer nos aéroports »
    https://www.lalibre.be/belgique/societe/les-scanners-chinois-utilises-par-les-douanes-belges-pointes-du-doigt-avec-c

    Les douanes belges utilisent des scanners fabriqués par une société chinoise pourtant interdits dans d’autres pays pour des raisons de sécurité. Si les douanes elles-mêmes n’y voient aucun problème, les critiques se multiplient, à en croire l’édition de vendredi du journal De Standaard. Les scanners fixes et mobiles en question, fabriqués par la société chinoise Nuctech, sont utilisés dans les ports, certaines gares et aéroports belges. Cependant, de plus en plus de questions se posent à propos de cette (...)

    #scanner #biométrie #données #empreintes #surveillance #

    ##_

  • Artificial intelligence : #Frontex improves its maritime surveillance

    Frontex wants to use a new platform to automatically detect and assess „risks“ on the seas of the European Union. Suspected irregular activities are to be displayed in a constantly updated „threat map“ with the help of self-learning software.

    The EU border agency has renewed a contract with Israeli company Windward for a „maritime analytics“ platform. It will put the application into regular operation. Frontex had initially procured a licence for around 800,000 Euros. For now 2.6 million Euros, the agency will receive access for four workstations. The contract can be extended three times for one year at a time.

    Windward specialises in the digital aggregation and assessment of vessel tracking and maritime surveillance data. Investors in the company, which was founded in 2011, include former US CIA director David Petraeus and former CEO’s of Thomson Reuters and British Petroleum. The former chief of staff of the Israeli military, Gabi Ashkenazi, is considered one of the advisors.

    Signature for each observed ship

    The platform is based on artificial intelligence techniques. For analysis, it uses maritime reporting systems, including position data from the AIS transponders of larger ships and weather data. These are enriched with information about the ship owners and shipping companies as well as the history of previous ship movements. For this purpose, the software queries openly accessible information from the internet.

    In this way, a „fingerprint“ is created for each observed ship, which can be used to identify suspicious activities. If the captain switches off the transponder, for example, the analysis platform can recognise this as a suspicuous event and take over further tracking based on the recorded patterns. It is also possible to integrate satellite images.

    Windward uses the register of the International Maritime Organisation (IMO) as its database, which lists about 70,000 ships. Allegedly, however, it also processes data on a total of 400,000 watercraft, including smaller fishing boats. One of the clients is therefore the UN Security Council, which uses the technology to monitor sanctions.

    Against „bad guys“ at sea

    The company advertises its applications with the slogan „Catch the bad guys at sea“. At Frontex, the application is used to combat and prevent unwanted migration and cross-border crime as well as terrorism. Subsequently, „policy makers“ and law enforcement agencies are to be informed about results. For this purpose, the „risks“ found are visualised in a „threat map“.

    Windward put such a „threat map“ online two years ago. At the time, the software rated the Black Sea as significantly more risky than the Mediterranean. Commercial shipping activity off the Crimea was interpreted as „probable sanction evasions“. Ship owners from the British Guernsey Islands as well as Romania recorded the highest proportion of ships exhibiting „risky“ behaviour. 42 vessels were classified as suspicious for drug smuggling based on their patterns.

    Frontex „early warning“ units

    The information from maritime surveillance is likely to be processed first by the „Risk Analysis Unit“ (RAU) at Frontex. It is supposed to support strategic decisions taken by the headquarters in Warsaw on issues of border control, return, prevention of cross-border crime as well as threats of a „hybrid nature“. Frontex calls the applications used there „intelligence products“ and „integrated data services“. Their results flow together in the „Common Integrated Risk Analysis Model“ (CIRAM).

    For the operational monitoring of the situation at the EU’s external borders, the agency also maintains the „Frontex Situation Centre“ (FSC). The department is supposed to provide a constantly updated picture of migration movements, if possible in real time. From these reports, Frontex produces „early warnings“ and situation reports to the border authorities of the member states as well as to the Commission and the Council in Brussels.

    More surveillance capacity in Warsaw

    According to its own information, Windward’s clients include the Italian Guardia di Finanza, which is responsible for controlling Italian territorial waters. The Ministry of the Interior in Rome is also responsible for numerous EU projects aimed at improving surveillance of the central Mediterranean. For the training and equipment of the Libyan coast guard, Italy receives around 67 million euros from EU funds in three different projects. Italian coast guard authorities are also installing a surveillance system for Tunisia’s external maritime borders.

    Frontex now wants to improve its own surveillance capacities with further tenders. Together with the fisheries agency, The agency is awarding further contracts for manned maritime surveillance. It has been operating such a „Frontex Aerial Surveillance Service“ (FASS) in the central Mediterranean since 2017 and in the Adriatic Sea since 2018. Frontex also wants to station large drones in the Mediterranean. Furthermore, it is testing Aerostats in the eastern Mediterranean for a second time. These are zeppelins attached to a 1,000-metre long line.

    https://digit.site36.net/2021/01/15/artificial-intelligence-frontex-improves-its-maritime-surveillance
    #intelligence_artificielle #surveillance #surveillance_maritime #mer #asile #migrations #réfugiés #frontières #AI #Windward #Israël #complexe_militaro-industriel #militarisation_des_frontières #David_Petraeus #Thomson_Reuters #British_Petroleum #armée_israélienne #Gabi_Ashkenazi #International_Maritime_Organisation (#IMO) #thread_map #Risk_Analysis_Unit (#RAU) #Common_Integrated_Risk_Analysis_Model (#CIRAM) #Frontex_Situation_Centre (#FSC) #Frontex_Aerial_Surveillance_Service (#FASS) #zeppelins

    ping @etraces

    • Data et nouvelles technologies, la face cachée du contrôle des mobilités

      Dans un rapport de juillet 2020, l’Agence européenne pour la gestion opérationnelle des systèmes d’information à grande échelle (#EU-Lisa) présente l’intelligence artificielle (IA) comme l’une des « technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

      L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme Frontex ou EU-Lisa, ont été particulièrement actives dans l’#expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

      La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

      http://www.migreurop.org/article3021.html

      Pour télécharger le rapport :
      www.migreurop.org/IMG/pdf/note_12_fr.pdf

      ping @karine4 @rhoumour @_kg_ @i_s_

    • La #technopolice aux frontières

      Comment le #business de la #sécurité et de la #surveillance au sein de l’#Union_européenne, en plus de bafouer des #droits_fondamentaux, utilise les personnes exilées comme #laboratoire de recherche, et ce sur des #fonds_publics européens.

      On a beaucoup parlé ici ces derniers mois de surveillance des manifestations ou de surveillance de l’espace public dans nos villes, mais la technopolice est avant tout déployée aux #frontières – et notamment chez nous, aux frontières de la « forteresse Europe ». Ces #dispositifs_technopoliciers sont financés, soutenus et expérimentés par l’Union européenne pour les frontières de l’UE d’abord, et ensuite vendus. Cette surveillance des frontières représente un #marché colossal et profite grandement de l’échelle communautaire et de ses programmes de #recherche_et_développement (#R&D) comme #Horizon_2020.

      #Roborder – des essaims de #drones_autonomes aux frontières

      C’est le cas du projet Roborder – un « jeu de mots » entre robot et border, frontière en anglais. Débuté en 2017, il prévoit de surveiller les frontières par des essaims de #drones autonomes, fonctionnant et patrouillant ensemble. L’#intelligence_artificielle de ces drones leur permettrait de reconnaître les humains et de distinguer si ces derniers commettent des infractions (comme celui de passer une frontière ?) et leur dangerosité pour ensuite prévenir la #police_aux_frontières. Ces drones peuvent se mouvoir dans les airs, sous l’eau, sur l’eau et dans des engins au sol. Dotés de multiples capteurs, en plus de la détection d’activités criminelles, ces drones seraient destinés à repérer des “#radio-fréquences non fiables”, c’est-à-dire à écouter les #communications et également à mesurer la #pollution_marine.
      Pour l’instant, ces essaims de drones autonomes ne seraient pas pourvus d’armes. Roborder est actuellement expérimenté en #Grèce, au #Portugal et en #Hongrie.

      Un #financement européen pour des usages « civils »

      Ce projet est financé à hauteur de 8 millions d’euros par le programme Horizon 2020 (subventionné lui-même par la #Cordis, organe de R&D de la Commission européenne). Horizon 2020 représente 50% du financement public total pour la recherche en sécurité de l’UE. Roborder est coordonné par le centre de recherches et technologie de #Hellas (le #CERTH), en Grèce et comme le montre l’association #Homo_Digitalis le nombre de projets Horizon 2020 ne fait qu’augmenter en Grèce. En plus du CERTH grec s’ajoutent environ 25 participants venus de tous les pays de l’UE (où on retrouve les services de police d’#Irlande_du_Nord, le ministère de la défense grecque, ou encore des entreprises de drones allemandes, etc.).

      L’une des conditions pour le financement de projets de ce genre par Horizon 2020 est que les technologies développées restent dans l’utilisation civile, et ne puissent pas servir à des fins militaires. Cette affirmation pourrait ressembler à un garde-fou, mais en réalité la distinction entre usage civil et militaire est loin d’être clairement établie. Comme le montre Stephen Graham, très souvent les #technologies, à la base militaires, sont réinjectées dans la sécurité, particulièrement aux frontières où la migration est criminalisée. Et cette porosité entre la sécurité et le #militaire est induite par la nécessité de trouver des débouchés pour rentabiliser la #recherche_militaire. C’est ce qu’on peut observer avec les drones ou bien le gaz lacrymogène. Ici, il est plutôt question d’une logique inverse : potentiellement le passage d’un usage dit “civil” de la #sécurité_intérieure à une application militaire, à travers des ventes futures de ces dispositifs. Mais on peut aussi considérer la surveillance, la détection de personnes et la #répression_aux_frontières comme une matérialisation de la #militarisation de l’Europe à ses frontières. Dans ce cas-là, Roborder serait un projet à fins militaires.

      De plus, dans les faits, comme le montre The Intercept (https://theintercept.com/2019/05/11/drones-artificial-intelligence-europe-roborder), une fois le projet terminé celui-ci est vendu. Sans qu’on sache trop à qui. Et, toujours selon le journal, beaucoup sont déjà intéressés par Roborder.

      #IborderCtrl – détection d’#émotions aux frontières

      Si les essaims de drones sont impressionnants, il existe d’autres projets dans la même veine. On peut citer notamment le projet qui a pour nom IborderCtrl, testé en Grèce, Hongrie et #Lettonie.

      Il consiste notamment en de l’#analyse_d’émotions (à côté d’autres projets de #reconnaissances_biométriques) : les personnes désirant passer une frontière doivent se soumettre à des questions et voient leur #visage passer au crible d’un #algorithme qui déterminera si elles mentent ou non. Le projet prétend « accélérer le #contrôle_aux_frontières » : si le #détecteur_de_mensonges estime qu’une personne dit la vérité, un code lui est donné pour passer le contrôle facilement ; si l’algorithme considère qu’une personne ment, elle est envoyée dans une seconde file, vers des gardes-frontières qui lui feront passer un #interrogatoire. L’analyse d’émotions prétend reposer sur un examen de « 38 #micro-mouvements du visage » comme l’angle de la tête ou le mouvement des yeux. Un spectacle de gadgets pseudoscientifiques qui permet surtout de donner l’apparence de la #neutralité_technologique à des politiques d’#exclusion et de #déshumanisation.

      Ce projet a également été financé par Horizon 2020 à hauteur de 4,5 millions d’euros. S’il semble aujourd’hui avoir été arrêté, l’eurodéputé allemand Patrick Breyer a saisi la Cour de justice de l’Union Européenne pour obtenir plus d’informations sur ce projet, ce qui lui a été refusé pour… atteinte au #secret_commercial. Ici encore, on voit que le champ “civil” et non “militaire” du projet est loin de représenter un garde-fou.

      Conclusion

      Ainsi, l’Union européenne participe activement au puissant marché de la surveillance et de la répression. Ici, les frontières et les personnes exilées sont utilisées comme des ressources de laboratoire. Dans une optique de militarisation toujours plus forte des frontières de la forteresse Europe et d’une recherche de profit et de développement des entreprises et centres de recherche européens. Les frontières constituent un nouveau marché et une nouvelle manne financière de la technopolice.

      Les chiffres montrent par ailleurs l’explosion du budget de l’agence européenne #Frontex (de 137 millions d’euros en 2015 à 322 millions d’euros en 2020, chiffres de la Cour des comptes européenne) et une automatisation toujours plus grande de la surveillance des frontières. Et parallèlement, le ratio entre le nombre de personnes qui tentent de franchir la Méditerranée et le nombre de celles qui y laissent la vie ne fait qu’augmenter. Cette automatisation de la surveillance aux frontières n’est donc qu’une nouvelle façon pour les autorités européennes d’accentuer le drame qui continue de se jouer en Méditerranée, pour une “efficacité” qui finalement ne profite qu’aux industries de la surveillance.

      Dans nos rues comme à nos frontières nous devons refuser la Technopolice et la combattre pied à pied !

      https://technopolice.fr/blog/la-technopolice-aux-frontieres

    • Artificial Intelligence - based capabilities for European Border and Coast Guard

      In 2019, Frontex, the European Border and Coast Guard Agency, commissioned #RAND Europe to carry out an Artificial intelligence (AI) research study.

      The purpose of the study was to provide an overview of the main opportunities, challenges and requirements for the adoption of AI-based capabilities in border managament. Frontex’s intent was also to find synergies with ongoing AI studies and initiatives in the EU and contribute to a Europe-wide AI landscape by adding the border security dimension.

      Some of the analysed technologies included automated border control, object recognition to detect suspicious vehicles or cargo and the use of geospatial data analytics for operational awareness and threat detection.

      As part of the study, RAND provided Frontex in 2020 with a comprehensive report and an executive summary with conclusions and recommendations.

      The findings will support Frontex in shaping the future landscape of AI-based capabilities for Integrated Border Management, including AI-related research and innovation projects which could be initiated by Frontex (e.g. under #EU_Innovation_Hub) or recommended to be conducted under the EU Research and Innovation Programme (#Horizon_Europe).

      https://frontex.europa.eu/media-centre/news/news-release/artificial-intelligence-based-capabilities-for-european-border-and-co

    • Pour les réfugiés, la #biométrie tout au long du chemin

      Par-delà les murs qui poussent aux frontières du monde depuis les années 1990, les réfugiés, migrants et demandeurs d’asile sont de plus en plus confrontés à l’extension des bases de #données_biométriques. Un « #mur_virtuel » s’étend ainsi à l’extérieur, aux frontières et à l’intérieur de l’espace Schengen, construit autour de programmes et de #bases_de_données.

      Des réfugiés qui paient avec leurs #iris, des migrants identifiés par leurs #empreintes_digitales, des capteurs de #reconnaissance_faciale, mais aussi d’#émotions… Réunis sous la bannière de la « #frontière_intelligente », ces #dispositifs_technologiques, reposant sur l’#anticipation, l’#identification et l’#automatisation du franchissement de la #frontière grâce aux bases de données biométriques, ont pour but de trier les voyageurs, facilitant le parcours des uns et bloquant celui des autres.

      L’Union européenne dispose ainsi d’une batterie de bases de données qui viennent compléter les contrôles aux frontières. Depuis 2011, une agence dédiée, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle, l’#EU-Lisa, a pour but d’élaborer et de développer, en lien avec des entreprises privées, le suivi des demandeurs d’asile.

      Elle gère ainsi plusieurs bases compilant des #données_biométriques. L’une d’elles, le « #Entry_and_Exit_System » (#EES), sera déployée en 2022, pour un coût évalué à 480 millions d’euros. L’EES a pour mission de collecter jusqu’à 400 millions de données sur les personnes non européennes franchissant les frontières de l’espace Schengen, afin de contrôler en temps réel les dépassements de durée légale de #visa. En cas de séjour prolongé devenu illégal, l’alerte sera donnée à l’ensemble des polices européennes.

      Se brûler les doigts pour ne pas être enregistré

      L’EU-Lisa gère également le fichier #Eurodac, qui consigne les empreintes digitales de chacun des demandeurs d’asile de l’Union européenne. Utilisé pour appliquer le #règlement_Dublin III, selon lequel la demande d’asile est déposée et traitée dans le pays européen où le migrant a été enregistré la première fois, il entraîne des stratégies de #résistance.

      « On a vu des migrants refuser de donner leurs empreintes à leur arrivée en Grèce, ou même se brûler les doigts pour ne pas être enregistrés dans Eurodac, rappelle Damien Simonneau, chercheur à l’Institut Convergences Migrations du Collège de France. Ils savent que s’ils ont, par exemple, de la famille en Allemagne, mais qu’ils ont été enregistrés en Grèce, ils seront renvoyés en Grèce pour que leur demande y soit traitée, ce qui a des conséquences énormes sur leur vie. » La procédure d’instruction dure en effet de 12 à 18 mois en moyenne.

      La collecte de données biométriques jalonne ainsi les parcours migratoires, des pays de départs jusqu’aux déplacements au sein de l’Union européenne, dans un but de limitation et de #contrôle. Pour lutter contre « la criminalité transfrontalière » et « l’immigration clandestine », le système de surveillance des zones frontières #Eurosur permet, via un partage d’informations en temps réel, d’intercepter avant leur arrivée les personnes tentant d’atteindre l’Union européenne.

      Des contrôles dans les pays de départ

      Pour le Transnational Institute, auteur avec le think tank Stop Wapenhandel et le Centre Delàs de plusieurs études sur les frontières, l’utilisation de ces bases de données témoigne d’une stratégie claire de la part de l’Union européenne. « Un des objectifs de l’expansion des #frontières_virtuelles, écrivent-ils ainsi dans le rapport Building Walls (https://www.tni.org/files/publication-downloads/building_walls_-_full_report_-_english.pdf), paru en 2018, est d’intercepter les réfugiés et les migrants avant même qu’ils n’atteignent les frontières européennes, pour ne pas avoir à traiter avec eux. »

      Si ces techniques permettent de pré-trier les demandes pour fluidifier le passage des frontières, en accélérant les déplacements autorisés, elles peuvent également, selon Damien Simonneau, avoir des effets pervers. « L’utilisation de ces mécanismes repose sur l’idée que la #technologie est un facilitateur, et il est vrai que l’#autonomisation de certaines démarches peut faciliter les déplacements de personnes autorisées à franchir les frontières, expose-t-il. Mais les technologies sont faillibles, et peuvent produire des #discriminations. »

      Ces #techniques_virtuelles, aux conséquences bien réelles, bouleversent ainsi le rapport à la frontière et les parcours migratoires. « Le migrant est confronté à de multiples points "frontière", disséminés un peu partout, analyse Damien Simonneau. Cela crée des #obstacles supplémentaires aux parcours migratoires : le contrôle n’est quasiment plus lié au franchissement d’une frontière nationale, il est déterritorialisé et peut se produire n’importe où, en amont comme en aval de la frontière de l’État. »

      Ainsi, la « politique d’#externalisation de l’Union européenne » permet au contrôle migratoire de s’exercer dans les pays de départ. Le programme européen « #SIV » collecte par exemple dès leur formulation dans les #consulats les données biométriques liées aux #demandes_de_visas.

      Plus encore, l’Union européenne délègue une partie de la gestion de ses frontières à d’autres pays : « Dans certains États du Sahel, explique Damien Simonneau, l’aide humanitaire et de développement est conditionnée à l’amélioration des contrôles aux frontières. »

      Un programme de l’Organisation internationale pour les migrations (OIM), le programme #MIDAS, financé par l’Union européenne, est ainsi employé par 23 pays, majoritairement en Afrique, mais aussi en Asie et en Amérique. Son but est de « collecter, traiter, stocker et analyser les informations [biométriques et biographiques] des voyageurs en temps réel » pour aider les polices locales à contrôler leurs frontières. Mais selon le réseau Migreurop, ces données peuvent également être transmises aux agences policières européennes. L’UE exerce ainsi un droit de regard, via Frontex, sur le système d’information et d’analyse de données sur la migration, installé à Makalondi au Niger.

      Des réfugiés qui paient avec leurs yeux

      Un mélange des genres, entre organisations humanitaires et États, entre protection, logistique et surveillance, qui se retrouve également dans les #camps_de_réfugiés. Dans les camps jordaniens de #Zaatari et d’#Azarq, par exemple, près de la frontière syrienne, les réfugiés paient depuis 2016 leurs aliments avec leurs iris.

      L’#aide_humanitaire_alimentaire distribuée par le Programme alimentaire mondial (PAM) leur est en effet versée sur un compte relié à leurs données biométriques. Il leur suffit de passer leurs yeux dans un scanner pour régler leurs achats. Une pratique qui facilite grandement la gestion #logistique du camp par le #HCR et le PAM, en permettant la #traçabilité des échanges et en évitant les fraudes et les vols.

      Mais selon Léa Macias, anthropologue à l’EHESS, cela a aussi des inconvénients. « Si ce paiement avec les yeux peut rassurer certains réfugiés, dans la mesure où cela les protège contre les vols, développe-t-elle, le procédé est également perçu comme une #violence. Les réfugiés ont bien conscience que personne d’autre au monde, dans une situation normale, ne paie ainsi avec son #corps. »

      Le danger de la fuite de données

      La chercheuse s’inquiète également du devenir des données ainsi collectées, et se pose la question de l’intérêt des réfugiés dans ce processus. « Les humanitaires sont poussés à utiliser ces nouvelles technologies, expose-t-elle, qui sont vues comme un gage de fiabilité par les bailleurs de fonds. Mais la #technologisation n’est pas toujours dans l’intérêt des réfugiés. En cas de fuite ou de hackage des bases de données, cela les expose même à des dangers. »

      Un rapport de Human Rights Watch (HRW) (https://www.hrw.org/news/2021/06/15/un-shared-rohingya-data-without-informed-consent), publié mardi 15 juin, alerte ainsi sur des #transferts_de_données biométriques appartenant à des #Rohingyas réfugiés au Bangladesh. Ces données, collectées par le Haut-commissariat aux réfugiés (HCR) de l’ONU, ont été transmises par le gouvernement du Bangladesh à l’État birman. Si le HCR a réagi (https://www.unhcr.org/en-us/news/press/2021/6/60c85a7b4/news-comment-statement-refugee-registration-data-collection-bangladesh.html) en affirmant que les personnes concernées avaient donné leur accord à ce #transfert_de_données pour préparer un éventuel retour en Birmanie, rien ne permet cependant de garantir qu’ils seront bien reçus si leur nom « bipe » au moment de passer la frontière.

      https://www.rfi.fr/fr/technologies/20210620-pour-les-r%C3%A9fugi%C3%A9s-la-biom%C3%A9trie-tout-au-long-du-chemin

      #smart_borders #tri #catégorisation #déterritorialisation #réfugiés_rohingyas

      –---

      Sur les doigts brûlés pour ne pas se faire identifier par les empreintes digitales, voir la scène du film Qu’ils reposent en paix de Sylvain George, dont j’ai fait une brève recension :

      Instant tragique : ce qu’un migrant appelle la « prière ». Ce moment collectif où les migrants tentent de faire disparaître leurs empreintes digitales. Étape symbolique où ils se défont de leur propre identité.

      https://visionscarto.net/a-calais-l-etat-ne-peut-dissoudre

  • Inside China’s unexpected quest to protect data privacy
    https://www.technologyreview.com/2020/08/19/1006441/china-data-privacy-hong-yanqing-gdpr

    A new privacy law would look a lot like Europe’s GDPR—but will it restrict state surveillance?

    Late in the summer of 2016, Xu Yuyu received a call that promised to change her life. Her college entrance examination scores, she was told, had won her admission to the English department of the Nanjing University of Posts and Telecommunications. Xu lived in the city of Linyi in Shandong, a coastal province in China, southeast of Beijing. She came from a poor family, singularly reliant on her father’s meager income. But her parents had painstakingly saved for her tuition; very few of her relatives had ever been to college.

    A few days later, Xu received another call telling her she had also been awarded a scholarship. To collect the 2,600 yuan ($370), she needed to first deposit a 9,900 yuan “activation fee” into her university account. Having applied for financial aid only days before, she wired the money to the number the caller gave her. That night, the family rushed to the police to report that they had been defrauded. Xu’s father later said his greatest regret was asking the officer whether they might still get their money back. The answer—“Likely not”—only exacerbated Xu’s devastation. On the way home she suffered a heart attack. She died in a hospital two days later.

    An investigation determined that while the first call had been genuine, the second had come from scammers who’d paid a hacker for Xu’s number, admissions status, and request for financial aid.

    For Chinese consumers all too familiar with having their data stolen, Xu became an emblem. Her death sparked a national outcry for greater data privacy protections. Only months before, the European Union had adopted the General Data Protection Regulation (GDPR), an attempt to give European citizens control over how their personal data is used. Meanwhile, Donald Trump was about to win the American presidential election, fueled in part by a campaign that relied extensively on voter data. That data included details on 87 million Facebook accounts, illicitly obtained by the consulting firm Cambridge Analytica. Chinese regulators and legal scholars followed these events closely.

    In the West, it’s widely believed that neither the Chinese government nor Chinese people care about privacy. US tech giants wield this supposed indifference to argue that onerous privacy laws would put them at a competitive disadvantage to Chinese firms. In his 2018 Senate testimony after the Cambridge Analytica scandal, Facebook’s CEO, Mark Zuckerberg, urged regulators not to clamp down too hard on technologies like face recognition. “We still need to make it so that American companies can innovate in those areas,” he said, “or else we’re going to fall behind Chinese competitors and others around the world.”

    In reality, this picture of Chinese attitudes to privacy is out of date. Over the last few years the Chinese government, seeking to strengthen consumers’ trust and participation in the digital economy, has begun to implement privacy protections that in many respects resemble those in America and Europe today.

    Even as the government has strengthened consumer privacy, however, it has ramped up state surveillance. It uses DNA samples and other biometrics, like face and fingerprint recognition, to monitor citizens throughout the country. It has tightened internet censorship and developed a “social credit” system, which punishes behaviors the authorities say weaken social stability. During the pandemic, it deployed a system of “health code” apps to dictate who could travel, based on their risk of carrying the coronavirus. And it has used a slew of invasive surveillance technologies in its harsh repression of Muslim Uighurs in the northwestern region of Xinjiang.

    This paradox has become a defining feature of China’s emerging data privacy regime, says Samm Sacks, a leading China scholar at Yale and New America, a think tank in Washington, DC. It raises a question: Can a system endure with strong protections for consumer privacy, but almost none against government snooping? The answer doesn’t affect only China. Its technology companies have an increasingly global footprint, and regulators around the world are watching its policy decisions.

    November 2000 arguably marks the birth of the modern Chinese surveillance state. That month, the Ministry of Public Security, the government agency that oversees daily law enforcement, announced a new project at a trade show in Beijing. The agency envisioned a centralized national system that would integrate both physical and digital surveillance using the latest technology. It was named Golden Shield.

    Eager to cash in, Western companies including American conglomerate Cisco, Finnish telecom giant Nokia, and Canada’s Nortel Networks worked with the agency on different parts of the project. They helped construct a nationwide database for storing information on all Chinese adults, and developed a sophisticated system for controlling information flow on the internet—what would eventually become the Great Firewall. Much of the equipment involved had in fact already been standardized to make surveillance easier in the US—a consequence of the Communications Assistance for Law Enforcement Act of 1994.

    Despite the standardized equipment, the Golden Shield project was hampered by data silos and turf wars within the Chinese government. Over time, the ministry’s pursuit of a singular, unified system devolved into two separate operations: a surveillance and database system, devoted to gathering and storing information, and the social-credit system, which some 40 government departments participate in. When people repeatedly do things that aren’t allowed—from jaywalking to engaging in business corruption—their social-credit score falls and they can be blocked from things like buying train and plane tickets or applying for a mortgage.

    In the same year the Ministry of Public Security announced Golden Shield, Hong Yanqing entered the ministry’s police university in Beijing. But after seven years of training, having received his bachelor’s and master’s degrees, Hong began to have second thoughts about becoming a policeman. He applied instead to study abroad. By the fall of 2007, he had moved to the Netherlands to begin a PhD in international human rights law, approved and subsidized by the Chinese government.

    Over the next four years, he familiarized himself with the Western practice of law through his PhD research and a series of internships at international organizations. He worked at the International Labor Organization on global workplace discrimination law and the World Health Organization on road safety in China. “It’s a very legalistic culture in the West—that really strikes me. People seem to go to court a lot,” he says. “For example, for human rights law, most of the textbooks are about the significant cases in court resolving human rights issues.”

    Hong found this to be strangely inefficient. He saw going to court as a final resort for patching up the law’s inadequacies, not a principal tool for establishing it in the first place. Legislation crafted more comprehensively and with greater forethought, he believed, would achieve better outcomes than a system patched together through a haphazard accumulation of case law, as in the US.

    After graduating, he carried these ideas back to Beijing in 2012, on the eve of Xi Jinping’s ascent to the presidency. Hong worked at the UN Development Program and then as a journalist for the People’s Daily, the largest newspaper in China, which is owned by the government.

    Xi began to rapidly expand the scope of government censorship. Influential commentators, or “Big Vs”—named for their verified accounts on social media—had grown comfortable criticizing and ridiculing the Chinese Communist Party. In the fall of 2013, the party arrested hundreds of microbloggers for what it described as “malicious rumor-mongering” and paraded a particularly influential one on national television to make an example of him.

    The moment marked the beginning of a new era of censorship. The following year, the Cyberspace Administration of China was founded. The new central agency was responsible for everything involved in internet regulation, including national security, media and speech censorship, and data protection. Hong left the People’s Daily and joined the agency’s department of international affairs. He represented it at the UN and other global bodies and worked on cybersecurity cooperation with other governments.

    By July 2015, the Cyberspace Administration had released a draft of its first law. The Cybersecurity Law, which entered into force in June of 2017, required that companies obtain consent from people to collect their personal information. At the same time, it tightened internet censorship by banning anonymous users—a provision enforced by regular government inspections of data from internet service providers.

    In the spring of 2016, Hong sought to return to academia, but the agency asked him to stay. The Cybersecurity Law had purposely left the regulation of personal data protection vague, but consumer data breaches and theft had reached unbearable levels. A 2016 study by the Internet Society of China found that 84% of those surveyed had suffered some leak of their data, including phone numbers, addresses, and bank account details. This was spurring a growing distrust of digital service providers that required access to personal information, such as ride-hailing, food-delivery, and financial apps. Xu Yuyu’s death poured oil on the flames.

    The government worried that such sentiments would weaken participation in the digital economy, which had become a central part of its strategy for shoring up the country’s slowing economic growth. The advent of GDPR also made the government realize that Chinese tech giants would need to meet global privacy norms in order to expand abroad.

    Hong was put in charge of a new task force that would write a Personal Information Protection Specification (PIPS) to help solve these challenges. The document, though nonbinding, would tell companies how regulators intended to implement the Cybersecurity Law. In the process, the government hoped, it would nudge them to adopt new norms for data protection by themselves.

    Hong’s task force set about translating every relevant document they could find into Chinese. They translated the privacy guidelines put out by the Organization for Economic Cooperation and Development and by its counterpart, the Asia-Pacific Economic Cooperation; they translated GDPR and the California Consumer Privacy Act. They even translated the 2012 White House Consumer Privacy Bill of Rights, introduced by the Obama administration but never made into law. All the while, Hong met regularly with European and American data protection regulators and scholars.

    Bit by bit, from the documents and consultations, a general choice emerged. “People were saying, in very simplistic terms, ‘We have a European model and the US model,’” Hong recalls. The two approaches diverged substantially in philosophy and implementation. Which one to follow became the task force’s first debate.

    At the core of the European model is the idea that people have a fundamental right to have their data protected. GDPR places the burden of proof on data collectors, such as companies, to demonstrate why they need the data. By contrast, the US model privileges industry over consumers. Businesses define for themselves what constitutes reasonable data collection; consumers only get to choose whether to use that business. The laws on data protection are also far more piecemeal than in Europe, divvied up among sectoral regulators and specific states.

    At the time, without a central law or single agency in charge of data protection, China’s model more closely resembled the American one. The task force, however, found the European approach compelling. “The European rule structure, the whole system, is more clear,” Hong says.

    But most of the task force members were representatives from Chinese tech giants, like Baidu, Alibaba, and Huawei, and they felt that GDPR was too restrictive. So they adopted its broad strokes—including its limits on data collection and its requirements on data storage and data deletion—and then loosened some of its language. GDPR’s principle of data minimization, for example, maintains that only necessary data should be collected in exchange for a service. PIPS allows room for other data collection relevant to the service provided.

    PIPS took effect in May 2018, the same month that GDPR finally took effect. But as Chinese officials watched the US upheaval over the Facebook and Cambridge Analytica scandal, they realized that a nonbinding agreement would not be enough. The Cybersecurity Law didn’t have a strong mechanism for enforcing data protection. Regulators could only fine violators up to 1,000,000 yuan ($140,000), an inconsequential amount for large companies. Soon after, the National People’s Congress, China’s top legislative body, voted to begin drafting a Personal Information Protection Law within its current five-year legislative period, which ends in 2023. It would strengthen data protection provisions, provide for tougher penalties, and potentially create a new enforcement agency.

    After Cambridge Analytica, says Hong, “the government agency understood, ‘Okay, if you don’t really implement or enforce those privacy rules, then you could have a major scandal, even affecting political things.’”

    The local police investigation of Xu Yuyu’s death eventually identified the scammers who had called her. It had been a gang of seven who’d cheated many other victims out of more than 560,000 yuan using illegally obtained personal information. The court ruled that Xu’s death had been a direct result of the stress of losing her family’s savings. Because of this, and his role in orchestrating tens of thousands of other calls, the ringleader, Chen Wenhui, 22, was sentenced to life in prison. The others received sentences between three and 15 years.Retour ligne automatique
    xu yuyu

    Emboldened, Chinese media and consumers began more openly criticizing privacy violations. In March 2018, internet search giant Baidu’s CEO, Robin Li, sparked social-media outrage after suggesting that Chinese consumers were willing to “exchange privacy for safety, convenience, or efficiency.” “Nonsense,” wrote a social-media user, later quoted by the People’s Daily. “It’s more accurate to say [it is] impossible to defend [our privacy] effectively.”

    In late October 2019, social-media users once again expressed anger after photos began circulating of a school’s students wearing brainwave-monitoring headbands, supposedly to improve their focus and learning. The local educational authority eventually stepped in and told the school to stop using the headbands because they violated students’ privacy. A week later, a Chinese law professor sued a Hangzhou wildlife zoo for replacing its fingerprint-based entry system with face recognition, saying the zoo had failed to obtain his consent for storing his image.

    But the public’s growing sensitivity to infringements of consumer privacy has not led to many limits on state surveillance, nor even much scrutiny of it. As Maya Wang, a researcher at Human Rights Watch, points out, this is in part because most Chinese citizens don’t know the scale or scope of the government’s operations. In China, as in the US and Europe, there are broad public and national security exemptions to data privacy laws. The Cybersecurity Law, for example, allows the government to demand data from private actors to assist in criminal legal investigations. The Ministry of Public Security also accumulates massive amounts of data on individuals directly. As a result, data privacy in industry can be strengthened without significantly limiting the state’s access to information.

    The onset of the pandemic, however, has disturbed this uneasy balance.

    On February 11, Ant Financial, a financial technology giant headquartered in Hangzhou, a city southwest of Shanghai, released an app-building platform called AliPay Health Code. The same day, the Hangzhou government released an app it had built using the platform. The Hangzhou app asked people to self-report their travel and health information, and then gave them a color code of red, yellow, or green. Suddenly Hangzhou’s 10 million residents were all required to show a green code to take the subway, shop for groceries, or enter a mall. Within a week, local governments in over 100 cities had used AliPay Health Code to develop their own apps. Rival tech giant Tencent quickly followed with its own platform for building them.

    The apps made visible a worrying level of state surveillance and sparked a new wave of public debate. In March, Hu Yong, a journalism professor at Beijing University and an influential blogger on Weibo, argued that the government’s pandemic data collection had crossed a line. Not only had it led to instances of information being stolen, he wrote, but it had also opened the door to such data being used beyond its original purpose. “Has history ever shown that once the government has surveillance tools, it will maintain modesty and caution when using them?” he asked.

    Indeed, in late May, leaked documents revealed plans from the Hangzhou government to make a more permanent health-code app that would score citizens on behaviors like exercising, smoking, and sleeping. After a public outcry, city officials canceled the project. That state-run media had also published stories criticizing the app likely helped.

    The debate quickly made its way to the central government. That month, the National People’s Congress announced it intended to fast-track the Personal Information Protection Law. The scale of the data collected during the pandemic had made strong enforcement more urgent, delegates said, and highlighted the need to clarify the scope of the government’s data collection and data deletion procedures during special emergencies. By July, the legislative body had proposed a new “strict approval” process for government authorities to undergo before collecting data from private-sector platforms. The language again remains vague, to be fleshed out later—perhaps through another nonbinding document—but this move “could mark a step toward limiting the broad scope” of existing government exemptions for national security, wrote Sacks and fellow China scholars at New America.

    Hong similarly believes the discrepancy between rules governing industry and government data collection won’t last, and the government will soon begin to limit its own scope. “We cannot simply address one actor while leaving the other out,” he says. “That wouldn’t be a very scientific approach.”

    Other observers disagree. The government could easily make superficial efforts to address public backlash against visible data collection without really touching the core of the Ministry of Public Security’s national operations, says Wang, of Human Rights Watch. She adds that any laws would likely be enforced unevenly: “In Xinjiang, Turkic Muslims have no say whatsoever in how they’re treated.”

    Still, Hong remains an optimist. In July, he started a job teaching law at Beijing University, and he now maintains a blog on cybersecurity and data issues. Monthly, he meets with a budding community of data protection officers in China, who carefully watch how data governance is evolving around the world.

    #criminalité #Nokia_Siemens #fraude #Huawei #payement #Cisco #CambridgeAnalytica/Emerdata #Baidu #Alibaba #domination #bénéfices #BHATX #BigData #lutte #publicité (...)

    ##criminalité ##CambridgeAnalytica/Emerdata ##publicité ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##Nortel_Networks ##Facebook ##biométrie ##consommation ##génétique ##consentement ##facial ##reconnaissance ##empreintes ##Islam ##SocialCreditSystem ##surveillance ##TheGreatFirewallofChina ##HumanRightsWatch

  • The Facial Recognition Backlash Is Here
    https://onezero.medium.com/the-facial-recognition-backlash-15b5707444f3

    But will the current bans last ? The facial recognition industry has been quietly working alongside law enforcement, military organizations, and private companies for years, leveraging 40-year old partnerships originally centered around fingerprint databases. But in 2020, the industry faced an unexpected reckoning. February brought an explosive New York Times report on Clearview AI, a facial recognition company that had scraped billions of images from social media to create an (...)

    #Clearview #Microsoft #Walmart #IBM #Amazon #biométrie #police #racisme #facial #reconnaissance #discrimination #empreintes #surveillance #algorithme #CCTV #vidéo-surveillance #ACLU (...)

    ##FightfortheFuture

  • Tech Companies Are Pushing Back Against Biometric Privacy Laws
    https://www.bloomberg.com/news/articles/2017-07-20/tech-companies-are-pushing-back-against-biometric-privacy-laws

    They want your body. Privacy advocates cheered when Illinois passed its Biometric Information Privacy Act (BIPA) in 2008 regulating commercial use of finger, iris, and facial scans. With companies such as Facebook Inc. and Google Inc. developing facial tagging technology, it was clear that laws would be needed to ensure companies didn’t collect and use biometric data in ways that compromised an individual’s right to privacy. If you lose your credit card, it’s easily replaced. But what happens (...)

    #Walmart #Google #Apple #Amazon #Facebook #biométrie #consentement #données #facial #législation #reconnaissance #iris #empreintes #lobbying #surveillance (...)

    ##EFF

  • #Calais : #maraudes et #ratonnades

    Les récentes images de #violences_policières nous rappellent celles vues à Calais lors du démantèlement de la jungle, ou, plus récemment encore, contre les réfugiés encore sur place.

    Le 15 Janvier 2018, lors de la visite d’Emmanuel Macron à Calais, deux associations d’aides aux réfugiés ont porté plainte contre X pour « destruction et #dégradation_de_biens ». Condamnés à dormir dehors, les réfugiés sont victimes de violences policières dénoncées depuis des mois par les associations : un jeune érythréen de 16 ans a perdu son oeil lors d’une opération de police...

    Un nationaliste repenti, des bénévoles à bout de souffle, des réfugiés épuisés : ils témoignent d’une histoire qui se répète désespérément, en plus grave et en plus rude.

    Patricia, qui participe bénévolement aux maraudes de Salam, témoigne de son incompréhension face à la #haine que certains habitants de Calais expriment à l’égard de ces réfugiés. Critiques venant de gens qui, parfois, connaissent eux aussi de grandes difficultés et doivent faire face à une autre forme de #misère.

    Romuald avait dans un premier temps trouvé sa place dans une association « anti-migrant » fréquentée par la sphère de l’extrême droite.

    « Qu’on gère l’immigration, qu’on ferme les #frontières, je suis pour, mais de là à gazer un mec parce qu’il n’est pas de la même couleur de peau, il y a tout un monde. Romuald, aujourd’hui bénévole pour l’#association_Salam. »

    Il quitte ce groupe, en désaccord avec sa radicalité. Quelque temps plus tard, Patricia l’a incité à se rendre à une maraude, puis à rejoindre l’association Salam dont il est aujourd’hui un des membres actifs.

    « Pour qu’un calaisien puisse gagner sa vie, il a intérêt à investir dans les barbelés ou les clôtures. Ici c’est grillagé dans tous les coins. Romuald »

    Youssef, lui, est membre d’#Utopia_56, une association venant en aide aux migrants de Calais. Il raconte les #dispersions, les #gaz_lacrymogènes et les violences policières.

    « On n’est pas équipés pour faire la guerre. Eux, ils ont des armes. »

    https://www.franceculture.fr/emissions/les-pieds-sur-terre/calais-maraudes-et-ratonnades


    #asile #migrations #réfugiés #démantèlement #destruction #campement #audio #podcast #SDF #logement #hébergement #sans-abri #haine_des_réfugiés #extrême_droite #solidarité #violence #Salam #anti-migrants #islamophobie #fake_news #anti-musulmans #témoignage #distribution_de_repas

    –---

    Minute 25’10, témoignage d’un migrant, Abeba d’Ethiopie :
    « Je suis dubliné, je suis l’esclave de mes #empreintes »
    #empreintes_digitales

    ping @isskein @karine4

  • Here’s how a well-connected security company is quietly building mass biometric databases in West Africa with EU aid funds
    https://www.privacyinternational.org/news-analysis/4290/heres-how-well-connected-security-company-quietly-building-mas

    Documents disclosed to Privacy International reveal how the European Union has been using aid funds to finance the development of biometric identity systems in countries in Africa as part of its response to migration, and highlight urgent concerns. Key points The EU is using aid funds to build mass-scale and high-risk biometric identification systems to manage migration flows to Europe and to facilitate deportations ; Civipol, a well-connected French company owned by some of the (...)

    #Airbus #Safran #Thalès #biométrie #migration #militaire #données #facial #reconnaissance #iris #empreintes (...)

    ##PrivacyInternational

  • La #Technopolice, moteur de la « #sécurité_globale »

    L’article 24 de la #loi_Sécurité_Globale ne doit pas devenir l’arbre qui cache la forêt d’une politique de fond, au cœur de ce texte, visant à faire passer la #surveillance et le #contrôle_de_la_population par la police à une nouvelle ère technologique.

    Quelques jours avant le vote de la loi Sécurité Globale à l’Assemblée Nationale, le ministère de l’Intérieur présentait son #Livre_blanc. Ce long #rapport de #prospective révèle la #feuille_de_route du ministère de l’Intérieur pour les années à venir. Comme l’explique Gérard Darmanin devant les députés, la proposition de loi Sécurité Globale n’est que le début de la transposition du Livre dans la législation. Car cette loi, au-delà de l’interdiction de diffusion d’#images de la police (#article_24), vise surtout à renforcer considérablement les pouvoirs de surveillance des #forces_de_l’ordre, notamment à travers la légalisation des #drones (article 22), la diffusion en direct des #caméras_piétons au centre d’opération (article 21), les nouvelles prérogatives de la #police_municipale (article 20), la #vidéosurveillance dans les hall d’immeubles (article 20bis). Cette loi sera la première pierre d’un vaste chantier qui s’étalera sur plusieurs années.

    Toujours plus de pouvoirs pour la police

    Le Livre blanc du ministère de l’Intérieur envisage d’accroître, à tous les niveaux, les pouvoirs des différentes #forces_de_sécurité (la #Police_nationale, la police municipale, la #gendarmerie et les agents de #sécurité_privée) : ce qu’ils appellent, dans la novlangue officielle, le « #continuum_de_la_sécurité_intérieure ». Souhaitant « renforcer la police et la rendre plus efficace », le livre blanc se concentre sur quatre angles principaux :

    - Il ambitionne de (re)créer une #confiance de la population en ses forces de sécurité, notamment par une #communication_renforcée, pour « contribuer à [leur] légitimité », par un embrigadement de la jeunesse – le #Service_National_Universel, ou encore par la création de « #journées_de_cohésion_nationale » (page 61). Dans la loi Sécurité Globale, cette volonté s’est déjà illustrée par la possibilité pour les policiers de participer à la « #guerre_de_l’image » en publiant les vidéos prises à l’aide de leurs #caméras_portatives (article 21).
    - Il prévoit d’augmenter les compétences des #maires en terme de sécurité, notamment par un élargissement des compétences de la police municipale : un accès simplifié aux #fichiers_de_police, de nouvelles compétences en terme de lutte contre les #incivilités … (page 135). Cette partie-là est déjà en partie présente dans la loi Sécurité Globale (article 20).
    - Il pousse à une #professionnalisation de la sécurité privée qui deviendrait ainsi les petites mains de la police, en vu notamment des #Jeux_olympiques Paris 2024, où le besoin en sécurité privée s’annonce colossal. Et cela passe par l’augmentation de ses #compétences : extension de leur #armement, possibilité d’intervention sur la #voie_publique, pouvoir de visionner les caméras, et même le port d’un #uniforme_spécifique (page 145).
    - Enfin, le dernier grand axe de ce livre concerne l’intégration de #nouvelles_technologies dans l’arsenal policier. Le titre de cette partie est évocateur, il s’agit de « porter le Ministère de l’Intérieur à la #frontière_technologique » (la notion de #frontière évoque la conquête de l’Ouest aux États-Unis, où il fallait coloniser les terres et les premières nations — la reprise de ce vocable relève d’une esthétique coloniale et viriliste).

    Ce livre prévoit une multitude de projets plus délirants et effrayants les uns que les autres. Il propose une #analyse_automatisée des #réseaux_sociaux (page 221), des #gilets_connectés pour les forces de l’ordre (page 227), ou encore des lunettes ou #casques_augmentés (page 227). Enfin, le Livre blanc insiste sur l’importance de la #biométrie pour la police. Entre proposition d’#interconnexion des #fichiers_biométriques (#TAJ, #FNAEG, #FAED…) (page 256), d’utilisation des #empreintes_digitales comme outil d’#identification lors des #contrôles_d’identité et l’équipement des #tablettes des policiers et gendarmes (#NEO et #NEOGEND) de lecteur d’empreinte sans contact (page 258), de faire plus de recherche sur la #reconnaissance_vocale et d’#odeur (!) (page 260) ou enfin de presser le législateur pour pouvoir expérimenter la #reconnaissance_faciale dans l’#espace_public (page 263).

    Le basculement technologique de la #surveillance par drones

    Parmi les nouveaux dispositifs promus par le Livre blanc : les #drones_de_police, ici appelés « #drones_de_sécurité_intérieure ». S’ils étaient autorisés par la loi « Sécurité Globale », ils modifieraient radicalement les pouvoirs de la police en lui donnant une capacité de surveillance totale.

    Il est d’ailleurs particulièrement marquant de voir que les rapporteurs de la loi considèrent cette légalisation comme une simple étape sans conséquence, parlant ainsi en une phrase « d’autoriser les services de l’État concourant à la #sécurité_intérieure et à la #défense_nationale et les forces de sécurité civile à filmer par voie aérienne (…) ». Cela alors que, du côté de la police et des industriels, les drones représentent une révolution dans le domaine de la sécurité, un acteur privé de premier plan évoquant au sujet des drones leur « potentiel quasiment inépuisable », car « rapides, faciles à opérer, discrets » et « tout simplement parfaits pour des missions de surveillance »

    Dans les discours sécuritaires qui font la promotion de ces dispositifs, il est en effet frappant de voir la frustration sur les capacités « limitées » (selon eux) des caméras fixes et combien ils fantasment sur le « potentiel » de ces drones. C’est le cas du maire LR d’Asnières-sur-Seine qui en 2016 se plaignait qu’on ne puisse matériellement pas « doter chaque coin de rue de #vidéoprotection » et que les drones « sont les outils techniques les plus adaptés » pour pallier aux limites de la présence humaine. La police met ainsi elle-même en avant la toute-puissance du #robot par le fait, par exemple pour les #contrôles_routiers, que « la caméra du drone détecte chaque infraction », que « les agents démontrent que plus rien ne leur échappe ». Même chose pour la #discrétion de ces outils qui peuvent, « à un coût nettement moindre » qu’un hélicoptère, « opérer des surveillances plus loin sur l’horizon sans être positionné à la verticale au-dessus des suspects ». Du côté des constructeurs, on vante les « #zooms puissants », les « #caméras_thermiques », leur donnant une « #vision_d’aigle », ainsi que « le #décollage possible pratiquement de n’importe où ».

    Tout cela n’est pas que du fantasme. Selon un rapport de l’Assemblée nationale, la police avait, en 2019, par exemple 30 drones « de type #Phantom_4 » et « #Mavic_Pro » (ou « #Mavic_2_Enterprise » comme nous l’avons appris lors de notre contentieux contre la préfecture de police de Paris). Il suffit d’aller voir les fiches descriptives du constructeur pour être inondé de termes techniques vantant l’omniscience de son produit : « caméra de nacelle à 3 axes », « vidéos 4K », « photos de 12 mégapixels », « caméra thermique infrarouge », « vitesse de vol maximale à 72 km/h » … Tant de termes qui recoupent les descriptions faites par leurs promoteurs : une machine volante, discrète, avec une capacité de surveiller tout (espace public ou non), et de loin.

    Il ne s’agit donc pas d’améliorer le dispositif de la vidéosurveillance déjà existant, mais d’un passage à l’échelle qui transforme sa nature, engageant une surveillance massive et largement invisible de l’espace public. Et cela bien loin du léger cadre qu’on avait réussi à imposer aux caméras fixes, qui imposait notamment que chaque caméra installée puisse faire la preuve de son utilité et de son intérêt, c’est-à-dire de la nécessité et de la #proportionnalité de son installation. Au lieu de cela, la vidéosurveillance demeure une politique publique dispendieuse et pourtant jamais évaluée. Comme le rappelle un récent rapport de la Cour des comptes, « aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de la délinquance commise sur la voie publique, ou encore les taux d’élucidation ». Autre principe fondamental du droit entourant actuellement la vidéosurveillance (et lui aussi déjà largement inappliqué) : chaque personne filmée doit être informée de cette surveillance. Les drones semblent en contradiction avec ces deux principes : leur utilisation s’oppose à toute notion d’information des personnes et de nécessité ou proportionnalité.

    Où serons-nous dans 4 ans ?

    En pratique, c’est un basculement total des #pratiques_policières (et donc de notre quotidien) que préparent ces évolutions technologiques et législatives. Le Livre blanc fixe une échéance importante à cet égard : « les Jeux olympiques et paralympiques de Paris de 2024 seront un événement aux dimensions hors normes posant des enjeux de sécurité majeurs » (p. 159). Or, « les Jeux olympiques ne seront pas un lieu d’expérimentation : ces technologies devront être déjà éprouvées, notamment à l’occasion de la coupe de monde de Rugby de 2023 » (p. 159).

    En juillet 2019, le rapport parlementaire cité plus haut constatait que la Police nationale disposait de 30 drones et de 23 pilotes. En novembre 2020, le Livre blanc (p. 231) décompte 235 drones et 146 pilotes. En 14 mois, le nombre de drones et pilotes aura été multiplié par 7. Dès avril 2020, le ministère de l’Intérieur a publié un appel d’offre pour acquérir 650 drones de plus. Rappelons-le : ces dotations se sont faites en violation de la loi. Qu’en sera-t-il lorsque les drones seront autorisés par la loi « sécurité globale » ? Avec combien de milliers d’appareils volants devra-t-on bientôt partager nos rues ? Faut-il redouter, au cours des #JO de 2024, que des dizaines de drones soient attribués à la surveillance de chaque quartier de la région parisienne, survolant plus ou moins automatiquement chaque rue, sans répit, tout au long de la journée ?

    Les évolutions en matières de reconnaissance faciale invite à des projections encore plus glaçantes et irréelles. Dès 2016, nous dénoncions que le méga-fichier #TES, destiné à contenir le visage de l’ensemble de la population, servirait surtout, à terme, à généraliser la reconnaissance faciale à l’ensemble des activités policières : enquêtes, maintien de l’ordre, contrôles d’identité. Avec le port d’une caméra mobile par chaque brigade de police et de gendarmerie, tel que promis par Macron pour 2021, et la retransmission en temps réel permise par la loi « sécurité globale », ce rêve policier sera à portée de main : le gouvernement n’aura plus qu’à modifier unilatéralement son #décret_TES pour y joindre un système de reconnaissance faciale (exactement comme il avait fait en 2012 pour permettre la reconnaissance faciale à partir du TAJ qui, à lui seul, contient déjà 8 millions de photos). Aux robots dans le ciel s’ajouteraient des humains mutiques, dont le casque de réalité augmentée évoqué par le Livre Blanc, couplé à l’analyse d’image automatisée et aux tablettes numériques NEO, permettrait des contrôles systématiques et silencieux, rompus uniquement par la violence des interventions dirigées discrètement et à distance à travers la myriade de drones et de #cyborgs.

    En somme, ce Livre Blanc, dont une large partie est déjà transposée dans la proposition de loi sécurité globale, annonce le passage d’un #cap_sécuritaire historique : toujours plus de surveillance, plus de moyens et de pouvoirs pour la police et consorts, dans des proportions et à un rythme jamais égalés. De fait, c’est un #État_autoritaire qui s’affirme et se consolide à grand renfort d’argent public. Le Livre blanc propose ainsi de multiplier par trois le #budget dévolu au ministère de l’Intérieur, avec une augmentation de 6,7 milliards € sur 10 ans et de 3 milliards entre 2020 et 2025. Une provocation insupportable qui invite à réfléchir sérieusement au définancement de la police au profit de services publiques dont le délabrement plonge la population dans une #insécurité bien plus profonde que celle prétendument gérée par la police.

    https://www.laquadrature.net/2020/11/19/la-technopolice-moteur-de-la-securite-globale
    #France #Etat_autoritaire

    ping @isskein @karine4 @simplicissimus @reka @etraces

  • DHS Plans to Start Collecting Eye Scans and DNA
    https://theintercept.com/2020/11/17/dhs-biometrics-dna

    As the agency plans to collect more biometrics, including from U.S. citizens, Northrop Grumman is helping build the infrastructure. Through a little-discussed potential bureaucratic rule change, the Department of Homeland Security is planning to collect unprecedented levels of biometric information from immigration applicants and their sponsors — including U.S. citizens. While some types of applicants have long been required to submit photographs and fingerprints, a rule currently under (...)

    #NorthropGrumman #Clearview #ICE #DHS #BAE_ #FBI #CBP #biométrie #migration #données #facial #reconnaissance #iris #empreintes #génétique #surveillance (...)

    ##EFF

  • Police are using fingerprint scanners to target Black Britons
    https://www.wired.co.uk/article/police-fingerprint-scan-uk

    Police use of mobile fingerprint scanners is soaring. But as with stop-and-search, stop-and-scan is disproportionately being used against ethnic minorities Three quarters of police forces in England and Wales now have access to mobile fingerprint scanners issued by the Home Office, new data reveals. In total, 28 of 43 police forces have started using the Strategic Mobile solution technology since it was first trialled, with four conducting their own pilot tests and seven other forces in (...)

    #scanner #activisme #biométrie #empreintes

  • Le Parlement européen dévoile un nouveau système de pointage biométrique
    https://www.euractiv.fr/section/economie/news/exclusive-parliament-documents-reveal-new-biometric-attendance-system

    Le Parlement européen veut mettre en place un système de pointage biométrique pour les députés européens participant à des réunions dans ses locaux de Bruxelles, révèlent des documents internes consultés par EURACTIV. Un nouveau « registre central de présence biométrique » permettant de pointer la participation des députés aux réunions parlementaires a été approuvé par le Bureau du Parlement européen. Grâce à cette technologie, ces derniers percevront « automatiquement » leur indemnité journalière pour leur (...)

    #biométrie #empreintes #surveillance #travail

  • Amazon introduit le paiement sans contact avec la paume de la main
    https://geeko.lesoir.be/2020/09/29/amazon-introduit-le-paiement-sans-contact-avec-la-paume-de-la-main

    La paume à la place de la carte bancaire : Amazon a dévoilé mardi une technologie biométrique sans contact pour permettre aux clients de payer en magasin d’un simple mouvement de la main. Ce service, intitulé Amazon One, sera dans un premier temps déployé dans deux des supérettes Amazon Go situées à Seattle, le siège de la compagnie. Le groupe de Jeff Bezos compte ajouter la technologie à ses autres épiceries aux États-Unis (à Chicago, San Francisco et New York, en plus des autres points à Seattle) et (...)

    #Amazon #algorithme #payement #reconnaissance #empreintes

  • Big Data has allowed ICE to dramatically expand its deportation efforts.
    https://slate.com/technology/2020/09/palantir-ice-deportation-immigrant-surveillance-big-data.html

    A New Mexico man gets a call from federal child welfare officials. His teenage brother has arrived alone at the border after traveling 2,000 miles to escape a violent uncle in Guatemala. The officials ask him to take custody of the boy. He hesitates ; he is himself undocumented. The officials say not to worry. He agrees and gives the officials his information. Seven months later, ICE agents arrest him at his house and start deportation proceedings. A family in suburban Maryland gets a (...)

    #Palantir #CBP #ICE #algorithme #biométrie #migration #facial #reconnaissance #BigData #conducteur·trice·s #empreintes (...)

    ##surveillance

  • Machine-Readable Refugees

    Hassan (not his real name; other details have also been changed) paused mid-story to take out his wallet and show me his ID card. Its edges were frayed. The grainy, black-and-white photo was of a gawky teenager. He ran his thumb over the words at the top: ‘Jamhuri ya Kenya/Republic of Kenya’. ‘Somehow,’ he said, ‘no one has found out that I am registered as a Kenyan.’

    He was born in the Kenyan town of Mandera, on the country’s borders with Somalia and Ethiopia, and grew up with relatives who had escaped the Somali civil war in the early 1990s. When his aunt, who fled Mogadishu, applied for refugee resettlement through the United Nations High Commissioner for Refugees, she listed Hassan as one of her sons – a description which, if understood outside the confines of biological kinship, accurately reflected their relationship.

    They were among the lucky few to pass through the competitive and labyrinthine resettlement process for Somalis and, in 2005, Hassan – by then a young adult – was relocated to Minnesota. It would be several years before US Citizenship and Immigration Services introduced DNA tests to assess the veracity of East African refugee petitions. The adoption of genetic testing by Denmark, France and the US, among others, has narrowed the ways in which family relationships can be defined, while giving the resettlement process the air of an impartial audit culture.

    In recent years, biometrics (the application of statistical methods to biological data, such as fingerprints or DNA) have been hailed as a solution to the elusive problem of identity fraud. Many governments and international agencies, including the UNHCR, see biometric identifiers and centralised databases as ways to determine the authenticity of people’s claims to refugee and citizenship status, to ensure that no one is passing as someone or something they’re not. But biometrics can be a blunt instrument, while the term ‘fraud’ is too absolute to describe a situation like Hassan’s.

    Biometrics infiltrated the humanitarian sector after 9/11. The US and EU were already building centralised fingerprint registries for the purposes of border control. But with the start of the War on Terror, biometric fever peaked, most evidently at the borders between nations, where the images of the terrorist and the migrant were blurred. A few weeks after the attacks, the UNHCR was advocating the collection and sharing of biometric data from refugees and asylum seekers. A year later, it was experimenting with iris scans along the Afghanistan/Pakistan frontier. On the insistence of the US, its top donor, the agency developed a standardised biometric enrolment system, now in use in more than fifty countries worldwide. By 2006, UNHCR agents were taking fingerprints in Kenya’s refugee camps, beginning with both index fingers and later expanding to all ten digits and both eyes.

    Reeling from 9/11, the US and its allies saw biometrics as a way to root out the new faceless enemy. At the same time, for humanitarian workers on the ground, it was an apparently simple answer to an intractable problem: how to identify a ‘genuine’ refugee. Those claiming refugee status could be crossed-checked against a host country’s citizenship records. Officials could detect refugees who tried to register under more than one name in order to get additional aid. Biometric technologies were laden with promises: improved accountability, increased efficiency, greater objectivity, an end to the heavy-handed tactics of herding people around and keeping them under surveillance.

    When refugees relinquish their fingerprints in return for aid, they don’t know how traces of themselves can travel through an invisible digital architecture. A centralised biometric infrastructure enables opaque, automated data-sharing with third parties. Human rights advocates worry about sensitive identifying information falling into thehands of governments or security agencies. According to a recent privacy-impact report, the UNHCR shares biometric data with the Department of Homeland Security when referring refugees for resettlement in the US. ‘The very nature of digitalised refugee data,’ as the political scientist Katja Jacobsen says, ‘means that it might also become accessible to other actors beyond the UNHCR’s own biometric identity management system.’

    Navigating a complex landscape of interstate sovereignty, caught between host and donor countries, refugee aid organisations often hold contradictory, inconsistent views on data protection. UNHCR officials have long been hesitant about sharing information with the Kenyan state, for instance. Their reservations are grounded in concerns that ‘confidential asylum-seeker data could be used for non-protection-related purposes’. Kenya has a poor record of refugee protection. Its security forces have a history of harassing Somalis, whether refugees or Kenyan citizens, who are widely mistrusted as ‘foreigners’.

    Such well-founded concerns did not deter the UNHCR from sharing data with, funding and training Kenya’s Department of Refugee Affairs (now the Refugee Affairs Secretariat), which since 2011 has slowly and unevenly taken over refugee registration in the country. The UNHCR hasconducted joint verification exercises with the Kenyan government to weed out cases of double registration. According to the anthropologist Claire Walkey, these efforts were ‘part of the externalisation of European asylum policy ... and general burden shifting to the Global South’, where more than 80 per cent of the world’s refugees live. Biometrics collected for protection purposes have been used by the Kenyan government to keep people out. Tens of thousands of ethnic Somali Kenyan citizens who have tried to get a Kenyan national ID have been turned away in recent years because their fingerprints are in the state’s refugee database.

    Over the last decade, biometrics have become part of the global development agenda, allegedly a panacea for a range of problems. One of the UN’s Sustainable Development Goals is to provide everyone with a legal identity by 2030. Governments, multinational tech companies and international bodies from the World Bank to the World Food Programme have been promoting the use of digital identity systems. Across the Global South, biometric identifiers are increasingly linked to voting, aid distribution, refugee management and financial services. Countries with some of the least robust privacy laws and most vulnerable populations are now laboratories for experimental tech.

    Biometric identifiers promise to tie legal status directly to the body. They offer seductively easy solutions to the problems of administering large populations. But it is worth asking what (and who) gets lost when countries and international bodies turn to data-driven, automated solutions. Administrative failures, data gaps and clunky analogue systems had posed huge challenges for people at the mercy of dispassionate bureaucracies, but also provided others with room for manoeuvre.

    Biometrics may close the gap between an ID and its holder, but it opens a gulf between streamlined bureaucracies and people’s messy lives, their constrained choices, their survival strategies, their hopes for a better future, none of which can be captured on a digital scanner or encoded into a database.

    https://www.lrb.co.uk/blog/2020/september/machine-readable-refugees
    #biométrie #identité #réfugiés #citoyenneté #asile #migrations #ADN #tests_ADN #tests_génétiques #génétique #nationalité #famille #base_de_donnée #database #HCR #UNHCR #fraude #frontières #contrôles_frontaliers #iris #technologie #contrôle #réinstallation #protection_des_données #empreintes_digitales #identité_digitale

    ping @etraces @karine4
    via @isskein

  • Eight case studies on regulating biometric technology show us a path forward
    https://www.technologyreview.com/2020/09/04/1008164/ai-biometric-face-recognition-regulation-amba-kak

    A new report from the AI Now Institute reveals how different regulatory approaches work or fall short in protecting communities from surveillance. Amba Kak was in law school in India when the country rolled out the Aadhaar project in 2009. The national biometric ID system, conceived as a comprehensive identity program, sought to collect the fingerprints, iris scans, and photographs of all residents. It wasn’t long, Kak remembers, before stories about its devastating consequences began to (...)

    #Clearview #Facebook #biométrie #migration #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #consentement #données #facial #reconnaissance #iris #Aadhaar #discrimination (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##empreintes ##pauvreté

  • Automated suspicion: The EU’s new travel surveillance initiatives

    This report examines how the EU is using new technologies to screen, profile and risk-assess travellers to the Schengen area, and the risks this poses to civil liberties and fundamental rights.

    By developing ‘interoperable’ biometric databases, introducing untested profiling tools, and using new ‘pre-crime’ watchlists, people visiting the EU from all over the world are being placed under a veil of suspicion in the name of enhancing security.

    Watch the animation below for an overview of the report. A laid-out version will be available shortly. You can read the press release here: https://www.statewatch.org/news/2020/july/eu-to-deploy-controversial-technologies-on-holidaymakers-and-business-tr

    –----

    Executive summary

    The ongoing coronavirus pandemic has raised the possibility of widespread surveillance and location tracking for the purpose of disease control, setting alarm bells ringing amongst privacy advocates and civil rights campaigners. However, EU institutions and governments have long been set on the path of more intensive personal data processing for the purpose of migration control, and these developments have in some cases passed almost entirely under the radar of the press and civil society organisations.

    This report examines, explains and critiques a number of large-scale EU information systems currently being planned or built that will significantly extend the collection and use of biometric and biographic data taken from visitors to the Schengen area, made up of 26 EU member states as well as Iceland, Liechtenstein, Norway and Switzerland. In particular, it examines new systems being introduced to track, analyse and assess the potential security, immigration or public health risks posed by non-EU citizens who have to apply for either a short-stay visa or a travel authorisation – primarily the #Visa_Information_System (#VIS), which is being upgraded, and the #European_Travel_Information_and_Authorisation_System (#ETIAS), which is currently under construction.

    The visa obligation has existed for years. The forthcoming travel authorisation obligation, which will cover citizens of non-EU states who do not require a visa, is new and will massively expand the amount of data the EU holds on non-citizens. It is the EU’s equivalent of the USA’s ESTA, Canada’s eTA and Australia’s ETA.[1] These schemes represent a form of “government permission to travel,” to borrow the words of Edward Hasbrouck,[2] and they rely on the extensive processing of personal data.

    Data will be gathered on travellers themselves as well as their families, education, occupation and criminal convictions. Fingerprints and photographs will be taken from all travellers, including from millions of children from the age of six onwards. This data will not just be used to assess an individual’s application, but to feed data mining and profiling algorithms. It will be stored in large-scale databases accessible to hundreds of thousands of individuals working for hundreds of different public authorities.

    Much of this data will also be used to feed an enormous new database holding the ‘identity data’ – fingerprints, photographs, names, nationalities and travel document data – of non-EU citizens. This system, the #Common_Identity_Repository (#CIR), is being introduced as part of the EU’s complex ‘interoperability’ initiative and aims to facilitate an increase in police identity checks within the EU. It will only hold the data of non-EU citizens and, with only weak anti-discrimination safeguards in the legislation, raises the risk of further entrenching racial profiling in police work.

    The remote monitoring and control of travellers is also being extended through the VIS upgrade and the introduction of ETIAS. Travel companies are already obliged to check, prior to an individual boarding a plane, coach or train, whether they have the visa required to enter the Schengen area. This obligation will be extended to include travel authorisations, with travel companies able to use the central databases of the VIS and ETIAS to verify whether a person’s paperwork is in order or not. When people arrive at the Schengen border, when they are within the Schengen area and long after they leave, their personal data will remain stored in these systems and be available for a multitude of further uses.

    These new systems and tools have been presented by EU institutions as necessary to keep EU citizens safe. However, the idea that more personal data gathering will automatically lead to greater security is a highly questionable claim, given that the authorities already have problems dealing with the data they hold now.

    Furthermore, a key part of the ‘interoperability’ agenda is the cross-matching and combination of data on tens of millions of people from a host of different databases. Given that the EU’s databases are already-known to be strewn with errors, this massively increases the risks of mistakes in decision making in a policy field – immigration – that already involves a high degree of discretion and which has profound implications for peoples’ lives.

    These new systems have been presented by their proponents as almost-inevitable technological developments. This is a misleading idea which masks the political and ethical judgments that lie behind the introduction of any new technology. It would be fairer to say that EU lawmakers have chosen to introduce unproven, experimental technologies – in particular, automated profiling – for use on non-EU citizens, who have no choice in the matter and are likely to face difficulties in exercising their rights.

    Finally, the introduction of new databases designed to hold data on tens of millions of non-citizens rests on the idea that our public authorities can be trusted to comply with the rules and will not abuse the new troves of data to which they are being given access. Granting access to more data to more people inevitably increases the risk of individual abuses. Furthermore, the last decade has seen numerous states across the EU turn their back on fundamental rights and democratic standards, with migrants frequently used as scapegoats for society’s ills. In a climate of increased xenophobia and social hostility to foreigners, it is extremely dangerous to assert that intrusive data-gathering will counterbalance a supposed threat posed by non-citizens.

    Almost all the legislation governing these systems has now been put in place. What remains is for them to be upgraded or constructed and put into use. Close attention should be paid by lawmakers, journalists, civil society organisations and others to see exactly how this is done. If all non-citizens are to be treated as potential risks and assessed, analysed, monitored and tracked accordingly, it may not be long before citizens come under the same veil of suspicion.

    https://www.statewatch.org/automated-suspicion-the-eu-s-new-travel-surveillance-initiatives

    #vidéo:
    https://vimeo.com/437830786

    #suspects #suspicion #frontières #rapport #StateWatch #migrations #asile #réfugiés #EU #UE #Union_européenne
    #surveillance #profiling #database #base_de_données #données_personnelles #empreintes_digitales #enfants #agences_de_voyage #privatisation #interopérabilité

    ping @mobileborders @isskein @etraces @reka

  • EU data watchdog to ‘convince’ Commission to ban automated recognition tech
    https://www.euractiv.com/section/digital/news/eu-data-watchdog-argues-for-moratorium-on-recognition-technology

    Automated recognition technologies in public spaces should be temporarily banned, the EU’s institutional data protection watchdog has said, arguing in favour of a moratorium. Applications that should be outlawed for a limited period of time not only include facial recognition technologies but also software that captures “gait, fingerprints, DNA, voice, keystrokes and other biometric or behavioral signals,” the European Data Protection Supervisor said on Tuesday (30 June). EDPS head Wojciech (...)

    #algorithme #CCTV #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #biométrie #génétique #données #facial #reconnaissance #vidéo-surveillance #clavier #comportement #empreintes (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##marche ##surveillance ##voix

  • Surveillance of minority Muslims in southern Thailand is powered by Chinese-style tech
    https://www.codastory.com/authoritarian-tech/surveillance-muslims-thailand

    Mandatory biometric registration has left many Malay Muslims distrustful of the state and concerned about how new technologies will impact their lives When Arief’s cell phone service was cut off, it came as no surprise. He had refused to visit the local branch of his mobile provider and give his fingerprints and a facial scan, in order to register his SIM card. He did so as a matter of principle, to show his opposition to what many believe to be increasing intrusions into the lives of Malay (...)

    #algorithme #CCTV #SIM #biométrie #génétique #racisme #données #facial #FAI #reconnaissance #vidéo-surveillance #BigData #empreintes #Islam #profiling #surveillance #discrimination #HumanRightsWatch #Mengvii (...)

    ##Face++

  • IDemia
    https://technopolice.fr/idemia

    Historique Idemia est une entreprise française qui se présente comme le « leader de l’identité augmentée ». Elle est née en 2017 de la fusion de Morpho (Safran), considéré comme chef de file mondial d’identification biométrique et d’Oberthur Technologies, spécialisé dans la fabrication de carte à puce et de documents d’identité. Idemia se veut leader d’identification biométrique ainsi que des paiements sécurités. Aujourd’hui, la société possède des références dans l’identification criminelle (avec le FBI, (...)

    #Idemia #Interpol #Morpho #NYPD #Safran #carte #PARAFE #biométrie #facial #reconnaissance #vidéo-surveillance #Aadhaar #empreintes #frontières #sport #surveillance (...)

    ##CNIL