• Tecnologie per il controllo delle frontiere in Italia: identificazione, riconoscimento facciale e finanziamenti europei


    Executive summary

    L’utilizzo documentato di un sistema di riconoscimento facciale da parte dell’amministrazione comunale di Como o da parte della Polizia di Stato italiana ha aperto anche in Italia il dibattito su una tecnologia che all’estero, già da tempo, si critica per la sua inaccuratezza algoritmica e per la poca trasparenza. Un tema sicuramente preoccupante per tutti ma che certamente assume caratteristiche ancor più pericolose quando interessa gruppi o individui particolarmente vulnerabili come migranti, rifugiati e richiedenti asilo. In questo caso i dati e le informazioni sono processati da parte di agenzie governative a fini di sorveglianza e di controllo, con tutele assai minori rispetto ai cittadini europei ed italiani. Ciò comporta un grande rischio per queste persone poiché le procedure di identificazione al loro arrivo in Italia, effettuate all’interno degli hotspot, rischiano di essere un’arma a doppio taglio per la loro permanenza nel nostro Paese (o in Europa), determinando uno stato di sorveglianza continuativa a causa della loro condizione. Ancora una volta alcune categorie di persone sono costrette ad essere “banco di prova” per la sperimentazione di dispositivi di controllo e sorveglianza, a dimostrazione che esistono e si reiterano rapporti di potere anche attraverso la tecnologia, portando alla creazione di due categorie distinte: chi sorveglia e chi è sorvegliato.

    Da questa ricerca emerge che le procedure di identificazione e categorizzazione dei migranti, rifugiati o richiedenti asilo fanno ampio utilizzo di dati biometrici—la polizia italiana raccoglie sia le impronte digitali che la foto del loro volto—ma non è sempre facile comprendere in che modo vengano applicate. Nel momento in cui viene effettuata l’identificazione, le categorie sopra citate hanno ben poche possibilità di conoscere appieno il percorso che faranno i loro dati personali e biometrici, nonché di opporsi al peso che poi questo flusso di informazioni avrà sulla loro condizione in Italia e in tutta l’Unione Europea. Quest’ultima, infatti, promuove da alcuni anni la necessità di favorire l’identificazione dei migranti, stranieri e richiedenti asilo attraverso un massiccio utilizzo di tecnologie: a partire dal mare, pattugliato con navi e velivoli a pilotaggio remoto che “scannerizzano” i migranti in arrivo; fino all’approdo sulla terraferma, dove oltre all’imposizione dell’identificazione e del fotosegnalamento i migranti hanno rischiato di vedersi puntata addosso una videocamera “intelligente”.

    Ampio spazio è lasciato alla trattazione di come lo stato italiano utilizzi la tecnologia del riconoscimento facciale già da alcuni anni, senza che organizzazioni indipendenti o professionisti possano controllare il suo operato. Oltre alla mancata trasparenza degli algoritmi che lo fanno funzionare, infatti, non sono disponibili informazioni chiare sul numero di persone effettivamente comprese all’interno del database che viene utilizzato proprio per realizzare le corrispondenze tra volti, AFIS (acronimo di Automated Fingerprint Identification System).

    Nelle intenzioni della polizia italiana, infatti, c’era l’impiego di un sistema di riconoscimento facciale, SARI Real-Time, per riconoscere in tempo reale l’identità delle persone a bordo di un’imbarcazione durante le fasi di sbarco sulle coste italiane. Il sistema SARI Real-Time, acquistato originariamente per l’utilizzo durante manifestazioni ed eventi pubblici, è stato reso inutilizzabile a seguito della pronuncia negativa del Garante della Privacy: rischierebbe di introdurre una sorveglianza di massa ingiustificata. La decisione del Garante tutela quindi non solo coloro che vivono nel nostro paese ma anche chi, in una situazione di estrema vulnerabilità, arriva sulle nostre coste dopo un viaggio interminabile e si vede sottoposto a un controllo sproporzionato ancor prima di ricevere supporto medico e valutazione dello status legale.

    Come Centro Hermes per la Trasparenza e i Diritti Umani Digitali dal 2011 ci interroghiamo sul funzionamento e sullo scopo delle innovazioni in campo tecnologico, analizzandole non solo da un punto di vista tecnico ma anche attraverso la lente dei diritti umani digitali. Negli ultimi anni la datificazione della società attraverso la raccolta indiscriminata di dati personali e l’estrazione di informazioni (e di valore) relative al comportamento e alle attività svolte da ognuno di noi sono il tema centrale di ricerca, analisi e advocacy dell’associazione. Siamo convinti infatti che vada messa in dubbio non solo la tecnologia digitale creata al presunto scopo di favorire il progresso o di dare una risposta oggettiva a fenomeni sociali complessi, ma anche il concetto di tecnologia come neutra e con pressoché simili ripercussioni su tutti gli individui della società. È importante a nostro parere che qualunque discorso sulla tecnologia racchiuda in sé una più ampia riflessione politica e sociologica, che cerchi di cogliere la differenza tra chi agisce la tecnologia e chi la subisce.

    Principali risultati:

    https://protecht.hermescenter.org
    #rapport #Hermes #frontières #Italie #reconnaissance_faciale #réfugiés #asile #migrations #contrôles_frontaliers #identification #financements_européens #technologie #complexe_militaro-industriel #Côme #surveillance #biométrie #données_biométriques #catégorisation #photos #empreintes_digitales #AFIS #algorythmes #Automated_Fingerprint_Identification_System #SARI_Real-Time #database #base_de_données

    sur la mise en place de reconnaissance faciale à Côme:
    https://seenthis.net/messages/859963

    ping @etraces

    • Il casellario delle identità AFIS: una banca dati discriminatoria usata dalle forze di polizia

      AFIS è un database nel quale sono raccolti i dati (impronte digitali e foto) di persone italiane e straniere sottoposte a procedimenti penali e dei soli cittadini non europei nell’ambito delle procedure amministrative di rinnovo e conversione del permesso di soggiorno.

      In applicazione di un decreto del Ministero dell’Interno del 24 maggio 2017, i dati amministrativi dei cittadini e delle cittadine extra UE vengono inseriti, confrontati e trattati come dati di polizia per il solo fatto di appartenere a persone straniere, con l’ulteriore paradosso che questi dati non vengono cancellati neanche quando le stesse ottengono la cittadinanza italiana.
      Potere di accesso ai dati degli stranieri senza motivazione?

      ASGI, dopo una serie di accessi agli atti e di accessi civici generalizzati al Ministero dell’Interno, ha rilevato che:

      i cittadini stranieri non possono cancellare i loro dati se non dopo 20 anni dal loro inserimento anche se nel frattempo la loro condizione giuridica è mutata, i loro dati sono verificati e trattati con pochissime limitazioni e da un alto numero di autorità amministrative.

      – I dati delle persone straniere sono confrontati sistematicamente con migliaia di altri dati senza motivazioni specifiche al fine di essere utilizzati per finalità di polizia ed indagine.

      - In particolare i confronti delle foto sono esposti ad un alto tasso di errori a causa della mancanza di un algoritmo in grado di mettere a confronto immagini di cittadini con la pelle di colore scuro.

      - I dati contenuti in AFIS appartenenti a cittadini con la cittadinanza non europea sono la netta maggioranza.

      Diversità di trattamento per milioni di persone

      La Direzione centrale anticrimine della Polizia di Stato, ha precisato il numero dei dati in loro possesso.

      “il numero di cartellini fotosegnaletici acquisiti e conservati all’interno della banca dati del Casellario Centrale d’Identità del Servizio Polizia Scientifica (AFIS), corrispondenti a cittadini di paesi terzi, con specifica indicazione: Cartellini acquisiti a soggetti che hanno dichiarato nazionalità: A) di paese terzo dell’Unione Europea 13.516.259, B) di stato membro dell’Unione Europea (Italia esclusa) 1.654.917, C) italiana 3.289.196. I dati sono riferiti al 28 luglio 2022”.

      Infatti, i cittadini stranieri sono foto segnalati diverse volte nell’arco della loro permanenza in Italia: al momento del loro arrivo sul territorio, nei casi di rinnovo, rilascio, conversione del titolo di soggiorno e tutte le volte che vengono foto segnalati, i loro dati confluiscono nella banca dati del Casellario AFIS.

      Per i cittadini italiani non funziona allo stesso modo: i dati di questi ultimi, rilasciati in occasione dell’ identificazione per finalità amministrative (es. per il rilascio del passaporto o della carta d’identità), sono conservati in registri appositi e non confluiscono nella banca dati AFIS (né possono essere in alcun modo utilizzati per scopi di indagine o altre finalità di polizia).
      Causa antidiscriminatoria

      ASGI, insieme all’Associazione Progetto Diritti ONLUS e due cittadini stranieri naturalizzati italiani, ha presentato un ricorso al Tribunale civile di Roma chiedendo l’accertamento del carattere discriminatorio del comportamento del Ministero dell’Interno, consistente nella conservazione e nel trattamento dei dati riguardanti i cittadini stranieri (raccolti in occasione delle pratiche amministrative di rilascio e rinnovo del permesso di soggiorno) all’interno di una banca dati di polizia utilizzata per la repressione dei reati. La conservazione e il trattamento di dati sensibili non può essere differenziata in ragione della nazionalità, salvo una espressa disposizione di legge, avendo i cittadini stranieri diritto alla parità di trattamento nei diritti civili rispetto agli italiani.

      Inoltre, la raccolta di dati biometrici, anche se dovesse ritenersi effettuata per finalità di polizia o per interesse pubblico, deve essere regolata – secondo la disciplina italiana e euro-unitaria – da leggi o da regolamenti che disciplinino il trattamento alla luce della specifica funzione perseguita e che tutelino i diritti dei titolari, mentre nella situazione contestata la raccolta e l’inserimento in banca dati di polizia avviene in via di fatto, in assenza di un espresso e motivato atto normativo.

      Tra le richieste che i ricorrenti hanno formulato al giudice, vi è la cancellazione dalla banca dati AFIS di tutti i dati appartenenti ai cittadini di Paesi non UE identificati per finalità di rilascio, rinnovo o conversione del permesso di soggiorno, nonché la cancellazione dei dati appartenenti ai cittadini stranieri naturalizzati italiani e la modifica del decreto ministeriale del 2017 che ha previsto l’obbligo di inserimento di tali dati in AFIS.

      Infine, i ricorrenti ritengono che l’ attuale trattamento illegittimo possa essere superato solo laddove il Ministero adotti un apposito e separato registro in cui siano conservati esclusivamente i dati dei cittadini stranieri raccolti all’atto del loro fotosegnalamento per il rinnovo e la conversione del titolo di soggiorno, con conseguente cancellazione del registro AFIS dei dati di cittadini extra-UE raccolti per finalità amministrative e pertanto anche dei dati dei ricorrenti.

      https://www.asgi.it/discriminazioni/casellario-afis-una-banca-dati-discriminatoria-forze-di-polizia

  • Les grands événements, olympiades de la sécurité urbaine numérique ?
    https://metropolitiques.eu/Les-grands-evenements-olympiades-de-la-securite-urbaine-numerique.ht

    Les grands événements internationaux sont de plus en plus les lieux de déploiement des politiques et des technologies de sécurité numérique, allant de la reconnaissance faciale aux systèmes anti-drones. Myrtille Picaud montre comment la Coupe du monde masculine de rugby de 2023 et les JO de 2024 vont accélérer leur développement. Après avoir organisé l’Euro masculin de football en 2016, la France accueillera lors du prochain mandat présidentiel deux grands événements sportifs : la Coupe du monde #Terrains

    / #Jeux_olympiques, sécurité, #technologie, #sport

    #sécurité
    https://metropolitiques.eu/IMG/pdf/met_picaud.pdf

  • Des chercheurs israéliens contournent la reconnaissance faciale grâce à l’IA
    https://fr.timesofisrael.com/des-chercheurs-israeliens-contournent-la-reconnaissance-faciale-gr

    Des chercheurs israéliens ont trouvé une méthode apparemment simple pour tromper les logiciels de reconnaissance faciale – en appliquant du maquillage conventionnel sur des zones spécifiques du visage selon un modèle déterminé par un programme d’intelligence artificielle.

    L’étude, menée à l’université Ben Gurion de Beer Sheva, a montré que, lorsque l’on applique le motif de maquillage généré par l’ordinateur sur les sujets testés, les systèmes sont contournés avec un taux de réussite proche de 100 %.


    Une image illustrant l’intelligence artificielle et les technologies de reconnaissance faciale. (Crédit : KENGKAT ; iStock by Getty Images)

    Vingt volontaires (10 hommes et 10 femmes) se sont vu appliquer du maquillage sur les zones du visage les plus identifiables selon la carte thermique générée par le logiciel, ou du maquillage aléatoire, et enfin pas de maquillage du tout.

    Les sujets ont ensuite été confrontés à un environnement réel en marchant dans un couloir équipé de deux caméras et de diverses conditions d’éclairage.

    Avec le modèle de maquillage conçu par le logiciel, les sujets n’ont été correctement identifiés que dans 1,22 % des cas, contre 33,73 % des cas avec un maquillage aléatoire et 47,57 % des cas sans aucun maquillage.

    « J’ai été surpris par les résultats de cette étude », a déclaré Nitzan Guetta, l’un des principaux auteurs de l’étude, au site américain Motherboard.


    Le système de reconnaissance faciale est incapable d’identifier le sujet une fois le maquillage généré par l’IA appliqué. (Autorisation de l’université Ben Gurion et de l’université Cornell)

    « [La maquilleuse] n’a pas fait trop d’astuces, elle a juste vu le modèle de maquillage de l’IA et a ensuite essayé de le copier. Ce n’est pas une copie parfaite. Il y a des différences, mais ça marche quand même », a-t-elle ajouté.

    L’étude a été menée en utilisant des palettes de couleurs neutres pour obtenir un look naturel et des techniques de maquillage conventionnelles, ce qui signifie qu’elle peut techniquement être reproduite par n’importe qui. Cependant, l’inconvénient de la méthode est que l’on est toujours très reconnaissable par les autres humains.


    Un participant avec un modèle de maquillage recommandé par le programme d’IA qui a pu tromper un système de reconnaissance faciale. (Autorisation de l’Université Ben Gurion et de l’Université Cornell)

    #IA #reconnaissance_faciale #biométrie #facial #surveillance #algorithme #reconnaissance #vidéo-surveillance #discrimination #smartphone #police #maquillage #surveillance #vidéo-surveillance #vidéosurveillance #caméras #reconnaissance

  • Rapport parlementaire : de nouveaux moyens de contrainte technologique
    https://www.piecesetmaindoeuvre.com/spip.php?article1568

    En juin 2021, le Sénat publiait un rapport légitimant la contrainte numérique durant les crises sanitaires (lire ici), où l’on pouvait notamment lire cette affirmation :

    « Plus la menace sera grande, plus les sociétés seront prêtes à accepter des technologies intrusives, et des restrictions plus fortes à leurs libertés individuelles – et c’est logique. »

    Confirmation en ce mois de septembre 2021 avec un autre rapport remis au Premier ministre, signé du député LREM de la Loire et ex-attaché parlementaire Jean-Michel Mis. Ce rapport est intitulé « Pour un usage responsable et acceptable par la société des technologies de sécurité ». La sécurité, comme la santé, étant « la première des libertés », selon la novlangue de l’ère cybernétique, on ne sera pas surpris du contenu de ce rapport. Il s’agit d’étendre les (...)

    https://www.vie-publique.fr/sites/default/files/rapport/pdf/281424.pdf #Nécrotechnologies

  • Data et nouvelles technologies, la face cachée du contrôle des mobilités

    Dans un rapport de juillet 2020, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle (#EU-Lisa) présente l’#intelligence_artificielle (#IA) comme l’une des « #technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

    L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme #Frontex ou EU-Lisa, ont été particulièrement actives dans l’expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de #surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

    La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

    http://migreurop.org/article3021.html

    Pour télécharger la note :
    migreurop.org/IMG/pdf/note_12_fr.pdf

    #migrations #réfugiés #asile #frontières #mobilité #mobilités #données #technologie #nouvelles_technologies #coronavirus #covid #IOM
    #migreurop

    ping @etraces

    voir aussi :
    Migreurop | Data : la face cachée du contrôle des mobilités
    https://seenthis.net/messages/900232

    • European funds for African IDs: migration regulation tool or privacy risk?

      The first person you meet after you land at Blaise Diagne Airport in Dakar is a border guard with a digital scanner.

      The official will scan your travel document and photograph and take a digital print of your index fingers.

      It’s the most visible sign of the new state-of-the-art digital biometrics system that is being deployed in the airport with the help of EU funding.

      The aim is to combat the increasingly sophisticated fake passports sold by traffickers to refugees.

      But it also helps Senegal’s government learn more about its own citizens.

      And it’s not just here: countries across West Africa are adopting travel documentation that has long been familiar to Europeans.

      Passports, ID cards and visas are all becoming biometric, and a national enrolment scheme is underway.

      In Europe too, there are proposals to create a biometric database of over 400 million foreign nationals, including fingerprints and photographs of their faces.

      The new systems are part of efforts to battle illegal migration from West Africa to the EU.

      ‘Fool-proof’ EU passport online

      Many are still plying the dangerous route across the Sahara and the Mediterranean to reach Europe, but a growing number are turning to the criminal gangs selling forged passports to avoid the treacherous journey over desert and sea.

      There’s a burgeoning market in travel documents advertised as ‘fake but real”.

      Prices vary according to the paperwork: an EU Schengen transit visa costs €5,000, while a longer-stay visa can be twice as high.

      Some forgers have even mastered the ability to incorporate holograms and hack the biometric chips.

      “Morphing” is an image processing technique that merges two people’s photographs into a single new face that appears to contain entirely new biometric data.

      Frontex, the EU’s border guard agency, says 7,000 people were caught trying to enter the Schengen area in 2019 carrying such documents — but it admits the true figure could be much higher.

      Sending migrants back

      Last year, the largest number of travellers with fake documents arrived via Turkish and Moroccan international airports.

      Many were caught in Italy, having arrived via Casablanca from sub-Saharan countries like Ghana, Mali, Nigeria and Senegal.

      A Frontex team responsible for deporting migrants without the correct paperwork was deployed this year at Rome’s Fiumicino Airport.

      It’s the first sign of a new European Commission regulation expanding the agency’s role, which includes access to biometric data held by member states, according to Jane Kilpatrick, a researcher at the civil liberties think-tank Statewatch.

      “The agency’s growing role in the collection of data, it links overtly to the agency’s role in deporting individuals from the EU,” she said.

      Over 490,000 return decisions were issued by member states last year, but only a third were actually sent back to a country outside the EU.

      There are multiple reasons why: some countries, for example, refuse to accept responsibility for people whose identity documents were lost, destroyed or stolen.

      Legally binding readmission agreements are now in place between the EU and 18 other countries to make that process easier.
      There are no records

      But a bigger problem is the fact that many African countries know very little about their own citizens.

      The World Bank estimates the continent is home to roughly half of the estimated one billion people on the planet who are unable to prove their identities.

      An absence of digitisation means that dusty registers are piling up in storage rooms.

      The same goes for many borders: unlike the scene at Dakar’s airport, many are still without internet access, servers, scanners and cameras.

      That, the Commission says, is why EU aid funds are being used to develop biometric identity systems in West African countries.

      The EU Trust Fund for Africa has allotted €60 million to support governments in Senegal and Côte d’Ivoire in modernising their registry systems and creating a national biometric identity database.

      Much of the funding comes through Civipol, a consulting firm attached to France’s interior ministry and part-owned by Milipol, one of the most important arms trade fairs in the world.

      It describes the objective of the programme in Côte d’Ivoire as identifying “people genuinely of Ivorian nationality and organising their return more easily”.
      Data security concerns

      European sources told Euronews that the EU-funded projects in West Africa were not designed to identify potential migrants or deport existing ones.

      A Commission spokesperson insisted no European entity — neither Frontex, nor member states, nor their partners — had access to the databases set up by West African countries.

      But the systems they are funding are intimately connected to anti-migration initiatives.

      One is the Migrant Information and Data Analysis System (MIDAS), a migration database that can send automatic queries to Interpol watchlists to detect travel documents and people possibly linked to organised crime, including human trafficking.

      Connections like these, and the role of French arms giants like Thales in the growing biometric market, has led data protection experts to become worried about possible abuses of privacy.
      World’s newest biometric market

      As Africa becomes the coveted market for biometric identification providers, the watchdog Privacy International has warned it risks becoming a mere testing ground for technologies later deployed elsewhere.

      So far 24 countries on the continent out of 53 have adopted laws and regulations to protect personal data.

      A letter by Privacy International, seen by Euronews, says EU must “ensure they are protecting rights before proceeding with allocating resources and technologies which, in absence of proper oversight, will likely result in fundamental rights abuses.”

      It has published internal documents tracking the development of Senegal’s system that suggest no privacy or data protection impact assessments have been carried out.

      Civipol, the French partner, denies this: it told Euronews that the Senegalese Personal Data Commission took part in the programme and Senegalese law was respected at every stage.

      Yet members of Senegal’s independent Commission of Personal Data (CDP), which is responsible for ensuring personal data is processed correctly, admit implementation and enforcement remained a challenge — even though they are proud of their country’s pioneering role in data governance in Africa.

      For the Senegalese cyber activist Cheick Fall, the charge is more serious: “Senegal has sinned by entrusting the processing of these data to foreign companies.”

      https://www.euronews.com/2021/07/30/european-funds-for-african-ids-migration-regulation-tool-or-privacy-risk

      #biométrie #aéroport #Afrique #étrangers #base_de_données_biométrique #empreintes_digitales #passeports #visas #hologramme #Morphing #image #photographie #Frontex #EU_Trust_Fund_for_Africa #Trust_Fund #Civipol #Milipol #armes #commerce_d'armes #Côte_d’Ivoire #Afrique_de_l'Ouest #Migrant_Information_and_Data_Analysis_System (#MIDAS) #Interpol #Thales #Sénégal #Senegalese_Personal_Data_Commission #Commission_of_Personal_Data (#CDP)

    • EU Watchdog Finds Commission Failed to Protect Human Rights From its Surveillance Aid to African Countries

      The European #Ombudsman has found that the European Commission failed to take necessary measures to ensure the protection of human rights in the transfers of technology with potential surveillance capacity supported by its multi-billion #Emergency_Trust_Fund_for_Africa

      The decision by the EU’s oversight body follows a year-long inquiry prompted by complaints outlining how EU bodies and agencies are cooperating with governments around the world to increase their surveillance powers filed by Privacy International, Access Now, the Border Violence Monitoring Network, Homo Digitalis, International Federation for Human Rights (FIDH), and Sea-Watch.

      The complainants welcome the decision by the European Ombudsman and call on the Commission to urgently review its support for surveillance in non-EU countries and to immediately implement the Ombudsman’s recommendations in their entirety. 

      The inquiry, which investigated the support of projects across Africa aimed at bolstering surveillance and tracking powers and involved extensive evidence-gathering from the Commission and complainants, found that “the Commission was not able to demonstrate that the measures in place ensured a coherent and structured approach to assessing the human rights impacts”.

      It recommends that the Commission now require that an “assessment of the potential human rights impact of projects be presented together with corresponding mitigation measures.” The lack of such protections, which the Ombudsman called a “serious shortcoming”, poses a clear risk that these surveillance transfer might cause serious violations of or interferences with other fundamental rights. 

       

      Ioannis Kouvakas, Senior Legal Officer at Privacy International, commenting on the decision:

      “This landmark decision in response to our complaint marks a turning point for the European Union’s external policy and sets a precedent that will hopefully protect the rights of communities in some of the most vulnerable situations for the years to come.”

      An FIDH Spokesperson said:

      “Indeed, this decision warns once again the European Commission about its failure to comply with its human rights obligations. The decision makes clear that the EU has to better develop its processes to effectively put the protection of human rights at core of the design and the implementation of its policies and external activities. All human rights and all activities are at stake.”

      Marwa Fatafta from Access Now said:

      “We welcome the Ombudsman’s decision which scrutinises the EU’s failure to protect and respect the human rights of people living off its shores. The EU’s ongoing surveillance transfers to authoritarian regimes in Africa and elsewhere cannot continue business as usual. We hope this decision will help hold the EU accountable to its values overseas, and protect the rights and freedoms of vulnerable communities from intrusive tracking and government surveillance.”

      Homo Digitalis said:

      “The shortcomings that the Ombudsman has identified prove that the Commission is not able to demonstrate that the measures in place ensure a coherent and structured approach to assessing the human rights impacts of #EUTFA projects. This is an important first step, but we need specific accountability mechanisms in place to address violations of rights and freedoms in EUTFA projects. This cannot be ensured via just some revised templates.”

      https://privacyinternational.org/press-release/4992/eu-watchdog-finds-commission-failed-protect-human-rights-its-s
      #EUTF_for_Africa

  • La Relève et La Peste
    https://lareleveetlapeste.fr/la-france-teste-officiellement-la-reconnaissance-faciale-dans-les-

    La surveillance algorithmique avance à pas de colombe. Lundi 19 juillet, le conseil régional d’Auvergne-Rhône-Alpes a adopté un plan de sécurité prévoyant de mettre en place, « à titre expérimental, un premier dispositif de reconnaissance faciale » dans les gares et les trains régionaux. Une logique sécuritaire assumée.

    Mais le combat est loin d’être gagné, nuance Martin Drago. « La tension médiatique se concentre sur la reconnaissance faciale ; pourtant c’est l’arbre qui cache la forêt, celle de la surveillance biométrique. » Analyse de démarche, de comportements dans la foule, détection d’émotions, suivi de silhouettes ou d’individus, captations sonores : tout cela constitue aussi de la surveillance de l’espace public par algorithmes.

    Selon le juriste de la Quadrature du Net, d’autres types de technologies sont déployées dans la plus grande opacité : à Valenciennes, dans les couloirs du métro parisien, à Marseille, à Cannes, à Saint-Étienne, peut-être à Toulouse.

    « Ces techniques reposent sur l’analyse de comportements par algorithmes, mais on ne sait pas ce dont il est vraiment question, car parfois, on ne l’apprend que quand l’expérimentation est passée. Or, du moment que l’on utilise notre corps pour nous marquer au sein d’une foule, c’est le même danger. »

    #Vidéosurveillance #Reconnaissance_faciale #surveillance #Technopolice

  • The new lawsuit that shows facial recognition is officially a civil rights issue | MIT Technology Review
    https://www.technologyreview.com/2021/04/14/1022676/robert-williams-facial-recognition-lawsuit-aclu-detroit-police/?truid=a497ecb44646822921c70e7e051f7f1a

    Robert Williams, who was wrongfully arrested because of a faulty facial recognition match, is asking for the technology to be banned.

    The news: On January 9, 2020, Detroit Police wrongfully arrested a Black man named Robert Williams due to a bad match from their department’s facial recognition system. Two more instances of false arrests have since been made public. Both are also Black men, and both have taken legal action to try rectifying the situation. Now Williams is following in their path and going further—not only by suing the Detroit Police for his wrongful arrest, but by trying to get the technology banned.

    The details: On Tuesday, the ACLU and the University of Michigan Law School’s Civil Rights Litigation Initiative filed a lawsuit on behalf of Williams, alleging that his arrest violated Williams’s Fourth Amendment rights and was in defiance of Michigan’s civil rights law. The suit requests compensation, greater transparency about the use of facial recognition, and that the Detroit Police Department stop using all facial recognition technology, either directly or indirectly.

    The significance: Racism within American law enforcement makes the use of facial recognition, which has been proven to misidentify Black people at much higher rates, even more concerning.

    #Reconnaissance_faciale #Racisme #Droits_humains #Intelligence_artificielle

  • Humanoid facial recognition arrives at German police

    When pursuing suspected criminals, some state police forces use a special ability of individual officers. Deployments often take place in major events

    Police forces are increasingly using so-called #super-recognisers. These are people who are particularly good at remembering faces. An estimated one to two percent of all people are said to have this ability, as discovered by British scientist Josh Davis during a study within the Metropolitan Police. There, it was noticed that the same officers were always able to identify a particularly large number of suspects on video footage.

    The researcher then helped the police in #Munich to set up the first such unit in Germany; in 2018, 13 policewomen and 14 policemen were selected for this after a multi-stage selection process. One of their first assignments was in the access control area and at the „video workstation“ of the #Oktoberfest, which took place in the same year; the comparison was made with images of people who had been denied entry, among other things. Allegedly, in Bavaria they have now helped to solve hundreds of cases.

    Even before the official start of the unit, six Bavarian super-recognisers supported the special commission „#Black_Block“ set up in Hamburg after the #G20 summit. The officers searched image material for suspected criminals. Also in London, the super-recognisers were first deployed in 2011 at the G20 summit. One of them is said to have identified 180 suspects from video recordings, whereas a software with facial recognition, which was also used, identified only one person.

    Humanoid facial recognition is also supposed to be possible if the picture of the wanted person is an old mugshot or if the person has changed their appearance with a cap, beard, sunglasses or paint. The Bavarian police claim to have successfully demonstrated this when handling environmental protests against the further construction of the #A49 in #Dannenröder_Forst. There, five of their super-recognisers were deployed at the request of the Hessian police. They trained 45 Frankfurt officers who are now also to be deployed for super-recognition. However, there are no plans to set up a separate unit in #Hesse.

    https://digit.site36.net/2021/03/06/humanoid-facial-recognition-arrives-at-german-police
    #reconnaissance_faciale #police #Allemagne #surveillance #surveillance_policière #humanoïdes #Bavière

    ping @davduf @etraces

  • « L’Etat de droit mute doucement vers une forme ultra-sécuritaire » , Asma Mhalla, le 06 novembre 2018
    https://www.lemonde.fr/idees/article/2018/11/06/l-etat-de-droit-mute-doucement-vers-une-forme-ultra-securitaire_5379355_3232

    Spécialiste des enjeux de l’économie numérique, Asma Mhalla montre, dans une tribune au « Monde », le glissement progressif d’un Etat de droit à un Etat de surveillance attentatoire aux droits des citoyens.

    (Quelqu’un.e traverse le wall, s’il vous plait ?)

    • Le Conseil d’Etat a fini par valider, le 18 octobre, le décret permettant la création du fichier TES (Titres électroniques sécurisés) qui rassemble les données personnelles et biométriques de la quasi-totalité de la population française. Et ce, bien que les risques d’une telle base de données qui généralise la reconnaissance faciale et la surveillance de masse perdurent.

      La même semaine, une étude produite conjointement par Cliqz et Ghostery, deux sociétés produisant des outils de protection des données personnelles, propose une analyse de premiers résultats – à interpréter avec beaucoup de précaution du reste – du règlement général sur la protection des données (#RGPD) appliqué depuis le 25 mai. Face à la promesse initiale de protéger les données personnelles des citoyens européens, l’effet semblerait être particulièrement aberrant puisqu’il aurait au contraire renforcé la position hégémonique de #Google sur ses marchés.

      Au nom de quel principe l’Etat s’autorise-t-il ce qu’il interdit aux entreprises privées ? Ne serions-nous pas en train de basculer d’un Etat de droit vers un Etat de sécurité avec la bénédiction paradoxale du droit lui-même et sans que cela n’émeuve grand monde ? Ce signal a priori faible marque pourtant une étape symbolique forte quant à notre devenir démocratique.

      Concept fondateur du droit public moderne, la fiction juridique qu’est l’Etat de droit traduit une certaine vision du pouvoir qui apparaît comme inhérente à la conception libérale de l’organisation politique : donnant à voir un pouvoir limité parce que régi par des règles, il implique que les gouvernants ne soient pas placés au-dessus des lois, mais exercent une fonction encadrée par le droit. La notion peut aussi se définir par opposition à l’Etat policier, caractérisé par le pouvoir discrétionnaire de l’administration.

      Or, à y regarder de plus près, une répartition inédite du pouvoir prend actuellement forme cristallisée autour de la capacité à collecter et exploiter les métadonnées. Matérialisée par l’apparition de deux pôles, l’un économique, l’autre sécuritaire, articulés autour d’un projet commun tacite de surveillance. C’est autour de ce phénomène que les luttes de pouvoir se concentrent désormais et que la relation des surveillants, Etat et plates-formes géantes, se dessine face aux surveillés.

      Les recours compliqués

      En dépit de leurs postures officielles en apparence divergentes, ces deux pôles d’un nouveau genre se positionnent sur un même continuum porté par une vision du monde cohérente où souveraineté algorithmique et souveraineté territoriale se compléteraient, où le « capitalisme de surveillance » irriguerait à la fois les intérêts publics et privés. Les termes initiaux du contrat social « liberté contre sécurité » glissent sans grande résistance vers la formulation « liberté contre sécurité contre vie privée » articulée autour d’un régime de vérité contemporain qui pose comme postulat que plus nous possédons de données, plus nous nous rapprochons avec précision de la « vérité ».

      Ce transfert d’une partie de la souveraineté de l’Etat le pousse à renforcer ses prérogatives en termes de souveraineté territoriale pour mieux s’auto-légitimer au regard du peuple. Par nécessité de survie, l’Etat de droit mute doucement vers une forme ultra-sécuritaire.

      Dès lors, à ce nouveau régime de vérité est assorti un discours dominant formalisé autour d’une rhétorique du repli, de la peur, de la menace, de la lutte antiterroriste. Légitimant ainsi la collecte massive de données et les dispositifs de surveillance généralisée qu’ils soient en réalité à des fins marchandes ou sécuritaires. Les intrications entre plates-formes privées et services d’intelligence, services d’ordre et armées nationales sont de notoriété publique, forment une complexe toile d’acteurs qui enregistre le moindre frémissement de nos existences numériques et physiques.

      Incertitude

      Le péril démocratique est aggravé par les systèmes de prédiction algorithmique. Ainsi, nul n’échappera à la surveillance et son corollaire la prédictibilité, ultime stratégie de neutralisation de l’incertitude. Car dans ce monde en réseau, c’est bien l’incertitude qui devient la hantise du pouvoir. La police et la justice interviennent désormais de façon prédictive et préventive avant le crime même. Pour être puni, il n’est plus nécessaire de commettre un crime mais de risquer de le commettre. Par cet impératif sécuritaire, nous risquons de faire face à une justice pénale sans crime qui nous considérerait tous coupables parce que tous potentiellement dangereux.

      Or l’Etat, par l’entremise du #Conseil_d’Etat, prend la responsabilité de préfigurer le développement et l’utilisation de ces technologies de surveillance émergentes. A titre d’exemple, l’article 4 du décret autorisant la création du fichier TES prévoit que son accès ne sera guère limité à la lutte contre la falsification et la contrefaçon mais également ouvert aux agents « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme » . Ce champ d’application très flou laisse craindre toutes sortes de dérives dans les usages policiers à venir de ce fichier. Abus qui seront démultipliés par le croisement du « mégafichier » avec nos données personnelles.

      Les recours pourront se révéler compliqués pour les citoyens. Sur le modèle des bureaucraties classiques, les algorithmes savent légitimer leur opacité pour conserver leur fonctionnalité. Face à ce qui apparaît comme l’évidence sécuritaire certains applaudissent, d’autres s’engourdissent. Reste que nous ne réussissons pas à nous saisir collectivement de ces occasions offertes pour débattre de la condition de nos libertés publiques et individuelles. A l’aune de ces évolutions récentes, les mots du philosophe Michaël Foessel formulés dès 2010 résonnent avec une acuité toute particulière : « la sécurité est le préalable de la démocratie, pas son horizon indépassable. »

      #État #capitalisme_de_plateforme #biométrie #reconnaissance_faciale #données #métadonnées #surveillance #sécuritaire #justice_pénale_sans_crime

  • Smile for the camera: the dark side of China’s emotion-recognition tech | China | The Guardian
    http://www.theguardian.com/global-development/2021/mar/03/china-positive-energy-emotion-surveillance-recognition-tech

    Ordinary people here in China aren’t happy about this technology but they have no choice. If the police say there have to be cameras in a community, people will just have to live with it. There’s always that demand and we’re here to fulfil it.”

    So says Chen Wei at Taigusys, a company specialising in emotion recognition technology, the latest evolution in the broader world of surveillance systems that play a part in nearly every aspect of Chinese society.

    Emotion-recognition technologies – in which facial expressions of anger, sadness, happiness and boredom, as well as other biometric data are tracked – are supposedly able to infer a person’s feelings based on traits such as facial muscle movements, vocal tone, body movements and other biometric signals. It goes beyond facial-recognition technologies, which simply compare faces to determine a match.

    #reconnaissance_faciale #chine

  • Comment le #maquillage peut nous protéger de la #reconnaissance_faciale ?
    https://www.ladn.eu/mondes-creatifs/maquillage-camouflage-devient-une-arme-anti-surveillance

    Dans les rues de Londres, le collectif anti-surveillance The Dazzle Club milite silencieusement et à couvert. Son arme de prédilection ? Le maquillage asymétrique pour tromper les dispositifs biométriques de reconnaissance faciale. Trois de ses fondatrices, Emily Roderick, Georgina Rowlands et Anna Hart, nous racontent.

    Août 2019. Le quartier de King’s Cross à Londres prévoit de déployer un système de #caméras de #surveillance utilisant la reconnaissance faciale sans consulter les #habitants. Les masques ne font pas encore partie de leur quotidien, mais le #collectif d’artistes The #Dazzle_Club s’interroge : « peut-on encore être libres dans l’espace public ? »

    Affublées de maquillages mystérieusement graphiques, Emily Roderick, Georgina Rowlands, Anna Hart et Evie Price se mettent alors à marcher, en silence, dans les rues de la capitale. Derrière la performance artistique se cache une véritable technique de camouflage, CV Dazzle, développée en 2010 par le chercheur Adam Harvey. Le but ? Protéger nos visages des algorithmes de reconnaissance faciale.

  • This is how we lost control of our faces | MIT Technology Review
    https://www.technologyreview.com/2021/02/05/1017388/ai-deep-learning-facial-recognition-data-history

    The largest ever study of facial-recognition data shows how much the rise of deep learning has fueled a loss of privacy.
    by

    Karen Hao
    February 5, 2021

    In 1964, mathematician and computer scientist Woodrow Bledsoe first attempted the task of matching suspects’ faces to mugshots. He measured out the distances between different facial features in printed photographs and fed them into a computer program. His rudimentary successes would set off decades of research into teaching machines to recognize human faces.

    Now a new study shows just how much this enterprise has eroded our privacy. It hasn’t just fueled an increasingly powerful tool of surveillance. The latest generation of deep-learning-based facial recognition has completely disrupted our norms of consent.

    People were extremely cautious about collecting, documenting, and verifying face data in the early days, says Raji. “Now we don’t care anymore. All of that has been abandoned,” she says. “You just can’t keep track of a million faces. After a certain point, you can’t even pretend that you have control.”

    A history of facial-recognition data

    The researchers identified four major eras of facial recognition, each driven by an increasing desire to improve the technology. The first phase, which ran until the 1990s, was largely characterized by manually intensive and computationally slow methods.

    But then, spurred by the realization that facial recognition could track and identify individuals more effectively than fingerprints, the US Department of Defense pumped $6.5 million into creating the first large-scale face data set. Over 15 photography sessions in three years, the project captured 14,126 images of 1,199 individuals. The Face Recognition Technology (FERET) database was released in 1996.

    The following decade saw an uptick in academic and commercial facial-recognition research, and many more data sets were created. The vast majority were sourced through photo shoots like FERET’s and had full participant consent. Many also included meticulous metadata, Raji says, such as the age and ethnicity of subjects, or illumination information. But these early systems struggled in real-world settings, which drove researchers to seek larger and more diverse data sets.

    In 2007, the release of the Labeled Faces in the Wild (LFW) data set opened the floodgates to data collection through web search. Researchers began downloading images directly from Google, Flickr, and Yahoo without concern for consent. LFW also relaxed standards around the inclusion of minors, using photos found with search terms like “baby,” “juvenile,” and “teen” to increase diversity. This process made it possible to create significantly larger data sets in a short time, but facial recognition still faced many of the same challenges as before. This pushed researchers to seek yet more methods and data to overcome the technology’s poor performance.

    Then, in 2014, Facebook used its user photos to train a deep-learning model called DeepFace. While the company never released the data set, the system’s superhuman performance elevated deep learning to the de facto method for analyzing faces. This is when manual verification and labeling became nearly impossible as data sets grew to tens of millions of photos, says Raji. It’s also when really strange phenomena start appearing, like auto-generated labels that include offensive terminology.

    Image-generation algorithms are regurgitating the same sexist, racist ideas that exist on the internet.

    The way the data sets were used began to change around this time, too. Instead of trying to match individuals, new models began focusing more on classification. “Instead of saying, ‘Is this a photo of Karen? Yes or no,’ it turned into ‘Let’s predict Karen’s internal personality, or her ethnicity,’ and boxing people into these categories,” Raji says.

    Amba Kak, the global policy director at AI Now, who did not participate in the research, says the paper offers a stark picture of how the biometrics industry has evolved. Deep learning may have rescued the technology from some of its struggles, but “that technological advance also has come at a cost,” she says. “It’s thrown up all these issues that we now are quite familiar with: consent, extraction, IP issues, privacy.”

    Raji says her investigation into the data has made her gravely concerned about deep-learning-based facial recognition.

    “It’s so much more dangerous,” she says. “The data requirement forces you to collect incredibly sensitive information about, at minimum, tens of thousands of people. It forces you to violate their privacy. That in itself is a basis of harm. And then we’re hoarding all this information that you can’t control to build something that likely will function in ways you can’t even predict. That’s really the nature of where we’re at.”

    #Reconnaissance_faciale #éthique #Histoire_numérique #Surveillance

  • How the Pandemic Turned Refugees Into ‘Guinea Pigs’ for Surveillance Tech

    An interview with Dr. Petra Molnar, who spent 2020 investigating the use of drones, facial recognition, and lidar on refugees

    The coronavirus pandemic unleashed a new era in surveillance technology, and arguably no group has felt this more acutely than refugees. Even before the pandemic, refugees were subjected to contact tracing, drone and LIDAR tracking, and facial recognition en masse. Since the pandemic, it’s only gotten worse. For a microcosm of how bad the pandemic has been for refugees — both in terms of civil liberties and suffering under the virus — look no further than Greece.

    Greek refugee camps are among the largest in Europe, and they are overpopulated, with scarce access to water, food, and basic necessities, and under constant surveillance. Researchers say that many of the surveillance techniques and technologies — especially experimental, rudimentary, and low-cost ones — used to corral refugees around the world were often tested in these camps first.

    “Certain communities already marginalized, disenfranchised are being used as guinea pigs, but the concern is that all of these technologies will be rolled out against the broader population and normalized,” says Petra Molnar, Associate Director of the Refugee Law Lab, York University.

    Molnar traveled to the Greek refugee camps on Lesbos in 2020 as part of a fact-finding project with the advocacy group European Digital Rights (EDRi). She arrived right after the Moria camp — the largest in Europe at the time — burned down and forced the relocation of thousands of refugees. Since her visit, she has been concerned about the rise of authoritarian technology and how it might be used against the powerless.

    With the pandemic still raging and states more desperate than ever to contain it, it seemed a good time to discuss the uses and implications of surveillance in the refugee camps. Molnar, who is still in Greece and plans to continue visiting the camps once the nation’s second lockdown lifts, spoke to OneZero about the kinds of surveillance technology she saw deployed there, and what the future holds — particularly with the European Border and Coast Guard Agency, Molnar says, adding “that they’ve been using Greece as a testing ground for all sorts of aerial surveillance technology.”

    This interview has been edited and condensed for clarity.

    OneZero: What kinds of surveillance practices and technologies did you see in the camps?

    Petra Molnar: I went to Lesbos in September, right after the Moria camp burned down and thousands of people were displaced and sent to a new camp. We were essentially witnessing the birth of the Kara Tepes camp, a new containment center, and talked to the people about surveillance, and also how this particular tragedy was being used as a new excuse to bring more technology, more surveillance. The [Greek] government is… basically weaponizing Covid to use it as an excuse to lock the camps down and make it impossible to do any research.

    When you are in Lesbos, it is very clear that it is a testing ground, in the sense that the use of tech is quite rudimentary — we are not talking about thermal cameras, iris scans, anything like that, but there’s an increase in the appetite of the Greek government to explore the use of it, particularly when they try to control large groups of people and also large groups coming from the Aegean. It’s very early days for a lot of these technologies, but everything points to the fact that Greece is Europe’s testing ground.

    They are talking about bringing biometric control to the camps, but we know for example that the Hellenic Coast Guard has a drone that they have been using for self-promotion, propaganda, and they’ve now been using it to follow specific people as they are leaving and entering the camp. I’m not sure if the use of drones was restricted to following refugees once they left the camps, but with the lockdown, it was impossible to verify. [OneZero had access to a local source who confirmed that drones are also being used inside the camps to monitor refugees during lockdown.]

    Also, people can come and go to buy things at stores, but they have to sign in and out at the gate, and we don’t know how they are going to use such data and for what purposes.

    Surveillance has been used on refugees long before the pandemic — in what ways have refugees been treated as guinea pigs for the policies and technologies we’re seeing deployed more widely now? And what are some of the worst examples of authoritarian technologies being deployed against refugees in Europe?

    The most egregious examples that we’ve been seeing are that ill-fated pilot projects — A.I. lie detectors and risk scorings which were essentially trying to use facial recognition and facial expressions’ micro-targeting to determine whether a person was more likely than others to lie at the border. Luckily, that technology was debunked and also generated a lot of debate around the ethics and human rights implications of using something like that.

    Technologies such as voice printing have been used in Germany to try to track a person’s country of origin or their ethnicity, facial recognition made its way into the new Migration’s Pact, and Greece is thinking about automating the triage of refugees, so there’s an appetite at the EU level and globally to use this tech. I think 2021 will be very interesting as more resources are being diverted to these types of tech.

    We saw, right when the pandemic started, that migration data used for population modeling became kind of co-opted and used to try and model flows of Covid. And this is very problematic because they are assuming that the mobile population, people on the move, and refugees are more likely to be bringing in Covid and diseases — but the numbers don’t bear out. We are also seeing the gathering of vast amounts of data for all these databases that Europe is using or will be using for a variety of border enforcement and policing in general.

    The concern is that fear’s being weaponized around the pandemic and technologies such as mobile tracking and data collection are being used as ways to control people. It is also broader, it deals with a kind of discourse around migration, on limiting people’s rights to move. Our concern is that it’ll open the door to further, broader rollout of this kind of tech against the general population.

    What are some of the most invasive technologies you’ve seen? And are you worried these authoritarian technologies will continue to expand, and not just in refugee camps?

    In Greece, the most invasive technologies being used now would probably be drones and unpiloted surveillance technologies, because it’s a really easy way to dehumanize that kind of area where people are crossing, coming from Turkey, trying to claim asylum. There’s also the appetite to try facial recognition technology.

    It shows just how dangerous these technologies can be both because they facilitate pushbacks, border enforcement, and throwing people away, and it really plays into this kind of idea of instead of humane responses you’d hope to happen when you see a boat in distress in the Aegean or the Mediterranean, now entities are turning towards drones and the whole kind of surveillance apparatus. It highlights how the humanity in this process has been lost.

    And the normalization of it all. Now it is so normal to use drones — everything is about policing Europe’s shore, Greece being a shield, to normalize the use of invasive surveillance tech. A lot of us are worried with talks of expanding the scope of action, mandate, and powers of Frontex [the European Border and Coast Guard Agency] and its utter lack of accountability — it is crystal clear that entities like Frontex are going to do Europe’s dirty work.

    There’s a particular framing applied when governments and companies talk about migrants and refugees, often linking them to ISIS and using careless terms and phrases to discuss serious issues. Our concern is that this kind of use of technology is going to become more advanced and more efficient.

    What is happening with regard to contact tracing apps — have there been cases where the technology was forced on refugees?

    I’ve heard about the possibility of refugees being tracked through their phones, but I couldn’t confirm. I prefer not to interact with the state through my phone, but that’s a privilege I have, a choice I can make. If you’re living in a refugee camp your options are much more constrained. Often people in the camps feel they are compelled to give access to their phones, to give their phone numbers, etc. And then there are concerns that tracking is being done. It’s really hard to track the tracking; it is not clear what’s being done.

    Aside from contact tracing, there’s the concern with the Wi-Fi connection provided in the camps. There’s often just one connection or one specific place where Wi-Fi works and people need to be connected to their families, spouses, friends, or get access to information through their phones, sometimes their only lifeline. It’s a difficult situation because, on the one hand, people are worried about privacy and surveillance, but on the other, you want to call your family, your spouse, and you can only do that through Wi-Fi and people feel they need to be connected. They have to rely on what’s available, but there’s a concern that because it’s provided by the authorities, no one knows exactly what’s being collected and how they are being watched and surveilled.

    How do we fight this surveillance creep?

    That’s the hard question. I think one of the ways that we can fight some of this is knowledge. Knowing what is happening, sharing resources among different communities, having a broader understanding of the systemic way this is playing out, and using such knowledge generated by the community itself to push for regulation and governance when it comes to these particular uses of technologies.

    We call for a moratorium or abolition of all high-risk technology in and around the border because right now we don’t have a governance mechanism in place or integrated regional or international way to regulate these uses of tech.

    Meanwhile, we have in the EU a General Data Protection Law, a very strong tool to protect data and data sharing, but it doesn’t really touch on surveillance, automation, A.I., so the law is really far behind.

    One of the ways to fight A.I. is to make policymakers understand the real harm that these technologies have. We are talking about ways that discrimination and inequality are reinforced by this kind of tech, and how damaging they are to people.

    We are trying to highlight this systemic approach to see it as an interconnected system in which all of these technologies play a part in this increasingly draconian way that migration management is being done.

    https://onezero.medium.com/how-the-pandemic-turned-refugees-into-guinea-pigs-for-surveillance-t

    #réfugiés #cobaye #surveillance #technologie #pandémie #covid-19 #coroanvirus #LIDAR #drones #reconnaissance_faciale #Grèce #camps_de_réfugiés #Lesbos #Moria #European_Digital_Rights (#EDRi) #surveillance_aérienne #complexe_militaro-industriel #Kara_Tepes #weaponization #biométrie #IA #intelligence_artificielle #détecteurs_de_mensonges #empreinte_vocale #tri #catégorisation #donneés #base_de_données #contrôle #technologies_autoritaires #déshumanisation #normalisation #Frontex #wifi #internet #smartphone #frontières

    ping @isskein @karine4

    ping @etraces

  • Artificial intelligence : #Frontex improves its maritime surveillance

    Frontex wants to use a new platform to automatically detect and assess „risks“ on the seas of the European Union. Suspected irregular activities are to be displayed in a constantly updated „threat map“ with the help of self-learning software.

    The EU border agency has renewed a contract with Israeli company Windward for a „maritime analytics“ platform. It will put the application into regular operation. Frontex had initially procured a licence for around 800,000 Euros. For now 2.6 million Euros, the agency will receive access for four workstations. The contract can be extended three times for one year at a time.

    Windward specialises in the digital aggregation and assessment of vessel tracking and maritime surveillance data. Investors in the company, which was founded in 2011, include former US CIA director David Petraeus and former CEO’s of Thomson Reuters and British Petroleum. The former chief of staff of the Israeli military, Gabi Ashkenazi, is considered one of the advisors.

    Signature for each observed ship

    The platform is based on artificial intelligence techniques. For analysis, it uses maritime reporting systems, including position data from the AIS transponders of larger ships and weather data. These are enriched with information about the ship owners and shipping companies as well as the history of previous ship movements. For this purpose, the software queries openly accessible information from the internet.

    In this way, a „fingerprint“ is created for each observed ship, which can be used to identify suspicious activities. If the captain switches off the transponder, for example, the analysis platform can recognise this as a suspicuous event and take over further tracking based on the recorded patterns. It is also possible to integrate satellite images.

    Windward uses the register of the International Maritime Organisation (IMO) as its database, which lists about 70,000 ships. Allegedly, however, it also processes data on a total of 400,000 watercraft, including smaller fishing boats. One of the clients is therefore the UN Security Council, which uses the technology to monitor sanctions.

    Against „bad guys“ at sea

    The company advertises its applications with the slogan „Catch the bad guys at sea“. At Frontex, the application is used to combat and prevent unwanted migration and cross-border crime as well as terrorism. Subsequently, „policy makers“ and law enforcement agencies are to be informed about results. For this purpose, the „risks“ found are visualised in a „threat map“.

    Windward put such a „threat map“ online two years ago. At the time, the software rated the Black Sea as significantly more risky than the Mediterranean. Commercial shipping activity off the Crimea was interpreted as „probable sanction evasions“. Ship owners from the British Guernsey Islands as well as Romania recorded the highest proportion of ships exhibiting „risky“ behaviour. 42 vessels were classified as suspicious for drug smuggling based on their patterns.

    Frontex „early warning“ units

    The information from maritime surveillance is likely to be processed first by the „Risk Analysis Unit“ (RAU) at Frontex. It is supposed to support strategic decisions taken by the headquarters in Warsaw on issues of border control, return, prevention of cross-border crime as well as threats of a „hybrid nature“. Frontex calls the applications used there „intelligence products“ and „integrated data services“. Their results flow together in the „Common Integrated Risk Analysis Model“ (CIRAM).

    For the operational monitoring of the situation at the EU’s external borders, the agency also maintains the „Frontex Situation Centre“ (FSC). The department is supposed to provide a constantly updated picture of migration movements, if possible in real time. From these reports, Frontex produces „early warnings“ and situation reports to the border authorities of the member states as well as to the Commission and the Council in Brussels.

    More surveillance capacity in Warsaw

    According to its own information, Windward’s clients include the Italian Guardia di Finanza, which is responsible for controlling Italian territorial waters. The Ministry of the Interior in Rome is also responsible for numerous EU projects aimed at improving surveillance of the central Mediterranean. For the training and equipment of the Libyan coast guard, Italy receives around 67 million euros from EU funds in three different projects. Italian coast guard authorities are also installing a surveillance system for Tunisia’s external maritime borders.

    Frontex now wants to improve its own surveillance capacities with further tenders. Together with the fisheries agency, The agency is awarding further contracts for manned maritime surveillance. It has been operating such a „Frontex Aerial Surveillance Service“ (FASS) in the central Mediterranean since 2017 and in the Adriatic Sea since 2018. Frontex also wants to station large drones in the Mediterranean. Furthermore, it is testing Aerostats in the eastern Mediterranean for a second time. These are zeppelins attached to a 1,000-metre long line.

    https://digit.site36.net/2021/01/15/artificial-intelligence-frontex-improves-its-maritime-surveillance
    #intelligence_artificielle #surveillance #surveillance_maritime #mer #asile #migrations #réfugiés #frontières #AI #Windward #Israël #complexe_militaro-industriel #militarisation_des_frontières #David_Petraeus #Thomson_Reuters #British_Petroleum #armée_israélienne #Gabi_Ashkenazi #International_Maritime_Organisation (#IMO) #thread_map #Risk_Analysis_Unit (#RAU) #Common_Integrated_Risk_Analysis_Model (#CIRAM) #Frontex_Situation_Centre (#FSC) #Frontex_Aerial_Surveillance_Service (#FASS) #zeppelins

    ping @etraces

    • Data et nouvelles technologies, la face cachée du contrôle des mobilités

      Dans un rapport de juillet 2020, l’Agence européenne pour la gestion opérationnelle des systèmes d’information à grande échelle (#EU-Lisa) présente l’intelligence artificielle (IA) comme l’une des « technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

      L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme Frontex ou EU-Lisa, ont été particulièrement actives dans l’#expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

      La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

      http://www.migreurop.org/article3021.html

      Pour télécharger le rapport :
      www.migreurop.org/IMG/pdf/note_12_fr.pdf

      ping @karine4 @rhoumour @_kg_ @i_s_

    • La #technopolice aux frontières

      Comment le #business de la #sécurité et de la #surveillance au sein de l’#Union_européenne, en plus de bafouer des #droits_fondamentaux, utilise les personnes exilées comme #laboratoire de recherche, et ce sur des #fonds_publics européens.

      On a beaucoup parlé ici ces derniers mois de surveillance des manifestations ou de surveillance de l’espace public dans nos villes, mais la technopolice est avant tout déployée aux #frontières – et notamment chez nous, aux frontières de la « forteresse Europe ». Ces #dispositifs_technopoliciers sont financés, soutenus et expérimentés par l’Union européenne pour les frontières de l’UE d’abord, et ensuite vendus. Cette surveillance des frontières représente un #marché colossal et profite grandement de l’échelle communautaire et de ses programmes de #recherche_et_développement (#R&D) comme #Horizon_2020.

      #Roborder – des essaims de #drones_autonomes aux frontières

      C’est le cas du projet Roborder – un « jeu de mots » entre robot et border, frontière en anglais. Débuté en 2017, il prévoit de surveiller les frontières par des essaims de #drones autonomes, fonctionnant et patrouillant ensemble. L’#intelligence_artificielle de ces drones leur permettrait de reconnaître les humains et de distinguer si ces derniers commettent des infractions (comme celui de passer une frontière ?) et leur dangerosité pour ensuite prévenir la #police_aux_frontières. Ces drones peuvent se mouvoir dans les airs, sous l’eau, sur l’eau et dans des engins au sol. Dotés de multiples capteurs, en plus de la détection d’activités criminelles, ces drones seraient destinés à repérer des “#radio-fréquences non fiables”, c’est-à-dire à écouter les #communications et également à mesurer la #pollution_marine.
      Pour l’instant, ces essaims de drones autonomes ne seraient pas pourvus d’armes. Roborder est actuellement expérimenté en #Grèce, au #Portugal et en #Hongrie.

      Un #financement européen pour des usages « civils »

      Ce projet est financé à hauteur de 8 millions d’euros par le programme Horizon 2020 (subventionné lui-même par la #Cordis, organe de R&D de la Commission européenne). Horizon 2020 représente 50% du financement public total pour la recherche en sécurité de l’UE. Roborder est coordonné par le centre de recherches et technologie de #Hellas (le #CERTH), en Grèce et comme le montre l’association #Homo_Digitalis le nombre de projets Horizon 2020 ne fait qu’augmenter en Grèce. En plus du CERTH grec s’ajoutent environ 25 participants venus de tous les pays de l’UE (où on retrouve les services de police d’#Irlande_du_Nord, le ministère de la défense grecque, ou encore des entreprises de drones allemandes, etc.).

      L’une des conditions pour le financement de projets de ce genre par Horizon 2020 est que les technologies développées restent dans l’utilisation civile, et ne puissent pas servir à des fins militaires. Cette affirmation pourrait ressembler à un garde-fou, mais en réalité la distinction entre usage civil et militaire est loin d’être clairement établie. Comme le montre Stephen Graham, très souvent les #technologies, à la base militaires, sont réinjectées dans la sécurité, particulièrement aux frontières où la migration est criminalisée. Et cette porosité entre la sécurité et le #militaire est induite par la nécessité de trouver des débouchés pour rentabiliser la #recherche_militaire. C’est ce qu’on peut observer avec les drones ou bien le gaz lacrymogène. Ici, il est plutôt question d’une logique inverse : potentiellement le passage d’un usage dit “civil” de la #sécurité_intérieure à une application militaire, à travers des ventes futures de ces dispositifs. Mais on peut aussi considérer la surveillance, la détection de personnes et la #répression_aux_frontières comme une matérialisation de la #militarisation de l’Europe à ses frontières. Dans ce cas-là, Roborder serait un projet à fins militaires.

      De plus, dans les faits, comme le montre The Intercept (https://theintercept.com/2019/05/11/drones-artificial-intelligence-europe-roborder), une fois le projet terminé celui-ci est vendu. Sans qu’on sache trop à qui. Et, toujours selon le journal, beaucoup sont déjà intéressés par Roborder.

      #IborderCtrl – détection d’#émotions aux frontières

      Si les essaims de drones sont impressionnants, il existe d’autres projets dans la même veine. On peut citer notamment le projet qui a pour nom IborderCtrl, testé en Grèce, Hongrie et #Lettonie.

      Il consiste notamment en de l’#analyse_d’émotions (à côté d’autres projets de #reconnaissances_biométriques) : les personnes désirant passer une frontière doivent se soumettre à des questions et voient leur #visage passer au crible d’un #algorithme qui déterminera si elles mentent ou non. Le projet prétend « accélérer le #contrôle_aux_frontières » : si le #détecteur_de_mensonges estime qu’une personne dit la vérité, un code lui est donné pour passer le contrôle facilement ; si l’algorithme considère qu’une personne ment, elle est envoyée dans une seconde file, vers des gardes-frontières qui lui feront passer un #interrogatoire. L’analyse d’émotions prétend reposer sur un examen de « 38 #micro-mouvements du visage » comme l’angle de la tête ou le mouvement des yeux. Un spectacle de gadgets pseudoscientifiques qui permet surtout de donner l’apparence de la #neutralité_technologique à des politiques d’#exclusion et de #déshumanisation.

      Ce projet a également été financé par Horizon 2020 à hauteur de 4,5 millions d’euros. S’il semble aujourd’hui avoir été arrêté, l’eurodéputé allemand Patrick Breyer a saisi la Cour de justice de l’Union Européenne pour obtenir plus d’informations sur ce projet, ce qui lui a été refusé pour… atteinte au #secret_commercial. Ici encore, on voit que le champ “civil” et non “militaire” du projet est loin de représenter un garde-fou.

      Conclusion

      Ainsi, l’Union européenne participe activement au puissant marché de la surveillance et de la répression. Ici, les frontières et les personnes exilées sont utilisées comme des ressources de laboratoire. Dans une optique de militarisation toujours plus forte des frontières de la forteresse Europe et d’une recherche de profit et de développement des entreprises et centres de recherche européens. Les frontières constituent un nouveau marché et une nouvelle manne financière de la technopolice.

      Les chiffres montrent par ailleurs l’explosion du budget de l’agence européenne #Frontex (de 137 millions d’euros en 2015 à 322 millions d’euros en 2020, chiffres de la Cour des comptes européenne) et une automatisation toujours plus grande de la surveillance des frontières. Et parallèlement, le ratio entre le nombre de personnes qui tentent de franchir la Méditerranée et le nombre de celles qui y laissent la vie ne fait qu’augmenter. Cette automatisation de la surveillance aux frontières n’est donc qu’une nouvelle façon pour les autorités européennes d’accentuer le drame qui continue de se jouer en Méditerranée, pour une “efficacité” qui finalement ne profite qu’aux industries de la surveillance.

      Dans nos rues comme à nos frontières nous devons refuser la Technopolice et la combattre pied à pied !

      https://technopolice.fr/blog/la-technopolice-aux-frontieres

    • Artificial Intelligence - based capabilities for European Border and Coast Guard

      In 2019, Frontex, the European Border and Coast Guard Agency, commissioned #RAND Europe to carry out an Artificial intelligence (AI) research study.

      The purpose of the study was to provide an overview of the main opportunities, challenges and requirements for the adoption of AI-based capabilities in border managament. Frontex’s intent was also to find synergies with ongoing AI studies and initiatives in the EU and contribute to a Europe-wide AI landscape by adding the border security dimension.

      Some of the analysed technologies included automated border control, object recognition to detect suspicious vehicles or cargo and the use of geospatial data analytics for operational awareness and threat detection.

      As part of the study, RAND provided Frontex in 2020 with a comprehensive report and an executive summary with conclusions and recommendations.

      The findings will support Frontex in shaping the future landscape of AI-based capabilities for Integrated Border Management, including AI-related research and innovation projects which could be initiated by Frontex (e.g. under #EU_Innovation_Hub) or recommended to be conducted under the EU Research and Innovation Programme (#Horizon_Europe).

      https://frontex.europa.eu/media-centre/news/news-release/artificial-intelligence-based-capabilities-for-european-border-and-co

    • Pour les réfugiés, la #biométrie tout au long du chemin

      Par-delà les murs qui poussent aux frontières du monde depuis les années 1990, les réfugiés, migrants et demandeurs d’asile sont de plus en plus confrontés à l’extension des bases de #données_biométriques. Un « #mur_virtuel » s’étend ainsi à l’extérieur, aux frontières et à l’intérieur de l’espace Schengen, construit autour de programmes et de #bases_de_données.

      Des réfugiés qui paient avec leurs #iris, des migrants identifiés par leurs #empreintes_digitales, des capteurs de #reconnaissance_faciale, mais aussi d’#émotions… Réunis sous la bannière de la « #frontière_intelligente », ces #dispositifs_technologiques, reposant sur l’#anticipation, l’#identification et l’#automatisation du franchissement de la #frontière grâce aux bases de données biométriques, ont pour but de trier les voyageurs, facilitant le parcours des uns et bloquant celui des autres.

      L’Union européenne dispose ainsi d’une batterie de bases de données qui viennent compléter les contrôles aux frontières. Depuis 2011, une agence dédiée, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle, l’#EU-Lisa, a pour but d’élaborer et de développer, en lien avec des entreprises privées, le suivi des demandeurs d’asile.

      Elle gère ainsi plusieurs bases compilant des #données_biométriques. L’une d’elles, le « #Entry_and_Exit_System » (#EES), sera déployée en 2022, pour un coût évalué à 480 millions d’euros. L’EES a pour mission de collecter jusqu’à 400 millions de données sur les personnes non européennes franchissant les frontières de l’espace Schengen, afin de contrôler en temps réel les dépassements de durée légale de #visa. En cas de séjour prolongé devenu illégal, l’alerte sera donnée à l’ensemble des polices européennes.

      Se brûler les doigts pour ne pas être enregistré

      L’EU-Lisa gère également le fichier #Eurodac, qui consigne les empreintes digitales de chacun des demandeurs d’asile de l’Union européenne. Utilisé pour appliquer le #règlement_Dublin III, selon lequel la demande d’asile est déposée et traitée dans le pays européen où le migrant a été enregistré la première fois, il entraîne des stratégies de #résistance.

      « On a vu des migrants refuser de donner leurs empreintes à leur arrivée en Grèce, ou même se brûler les doigts pour ne pas être enregistrés dans Eurodac, rappelle Damien Simonneau, chercheur à l’Institut Convergences Migrations du Collège de France. Ils savent que s’ils ont, par exemple, de la famille en Allemagne, mais qu’ils ont été enregistrés en Grèce, ils seront renvoyés en Grèce pour que leur demande y soit traitée, ce qui a des conséquences énormes sur leur vie. » La procédure d’instruction dure en effet de 12 à 18 mois en moyenne.

      La collecte de données biométriques jalonne ainsi les parcours migratoires, des pays de départs jusqu’aux déplacements au sein de l’Union européenne, dans un but de limitation et de #contrôle. Pour lutter contre « la criminalité transfrontalière » et « l’immigration clandestine », le système de surveillance des zones frontières #Eurosur permet, via un partage d’informations en temps réel, d’intercepter avant leur arrivée les personnes tentant d’atteindre l’Union européenne.

      Des contrôles dans les pays de départ

      Pour le Transnational Institute, auteur avec le think tank Stop Wapenhandel et le Centre Delàs de plusieurs études sur les frontières, l’utilisation de ces bases de données témoigne d’une stratégie claire de la part de l’Union européenne. « Un des objectifs de l’expansion des #frontières_virtuelles, écrivent-ils ainsi dans le rapport Building Walls (https://www.tni.org/files/publication-downloads/building_walls_-_full_report_-_english.pdf), paru en 2018, est d’intercepter les réfugiés et les migrants avant même qu’ils n’atteignent les frontières européennes, pour ne pas avoir à traiter avec eux. »

      Si ces techniques permettent de pré-trier les demandes pour fluidifier le passage des frontières, en accélérant les déplacements autorisés, elles peuvent également, selon Damien Simonneau, avoir des effets pervers. « L’utilisation de ces mécanismes repose sur l’idée que la #technologie est un facilitateur, et il est vrai que l’#autonomisation de certaines démarches peut faciliter les déplacements de personnes autorisées à franchir les frontières, expose-t-il. Mais les technologies sont faillibles, et peuvent produire des #discriminations. »

      Ces #techniques_virtuelles, aux conséquences bien réelles, bouleversent ainsi le rapport à la frontière et les parcours migratoires. « Le migrant est confronté à de multiples points "frontière", disséminés un peu partout, analyse Damien Simonneau. Cela crée des #obstacles supplémentaires aux parcours migratoires : le contrôle n’est quasiment plus lié au franchissement d’une frontière nationale, il est déterritorialisé et peut se produire n’importe où, en amont comme en aval de la frontière de l’État. »

      Ainsi, la « politique d’#externalisation de l’Union européenne » permet au contrôle migratoire de s’exercer dans les pays de départ. Le programme européen « #SIV » collecte par exemple dès leur formulation dans les #consulats les données biométriques liées aux #demandes_de_visas.

      Plus encore, l’Union européenne délègue une partie de la gestion de ses frontières à d’autres pays : « Dans certains États du Sahel, explique Damien Simonneau, l’aide humanitaire et de développement est conditionnée à l’amélioration des contrôles aux frontières. »

      Un programme de l’Organisation internationale pour les migrations (OIM), le programme #MIDAS, financé par l’Union européenne, est ainsi employé par 23 pays, majoritairement en Afrique, mais aussi en Asie et en Amérique. Son but est de « collecter, traiter, stocker et analyser les informations [biométriques et biographiques] des voyageurs en temps réel » pour aider les polices locales à contrôler leurs frontières. Mais selon le réseau Migreurop, ces données peuvent également être transmises aux agences policières européennes. L’UE exerce ainsi un droit de regard, via Frontex, sur le système d’information et d’analyse de données sur la migration, installé à Makalondi au Niger.

      Des réfugiés qui paient avec leurs yeux

      Un mélange des genres, entre organisations humanitaires et États, entre protection, logistique et surveillance, qui se retrouve également dans les #camps_de_réfugiés. Dans les camps jordaniens de #Zaatari et d’#Azarq, par exemple, près de la frontière syrienne, les réfugiés paient depuis 2016 leurs aliments avec leurs iris.

      L’#aide_humanitaire_alimentaire distribuée par le Programme alimentaire mondial (PAM) leur est en effet versée sur un compte relié à leurs données biométriques. Il leur suffit de passer leurs yeux dans un scanner pour régler leurs achats. Une pratique qui facilite grandement la gestion #logistique du camp par le #HCR et le PAM, en permettant la #traçabilité des échanges et en évitant les fraudes et les vols.

      Mais selon Léa Macias, anthropologue à l’EHESS, cela a aussi des inconvénients. « Si ce paiement avec les yeux peut rassurer certains réfugiés, dans la mesure où cela les protège contre les vols, développe-t-elle, le procédé est également perçu comme une #violence. Les réfugiés ont bien conscience que personne d’autre au monde, dans une situation normale, ne paie ainsi avec son #corps. »

      Le danger de la fuite de données

      La chercheuse s’inquiète également du devenir des données ainsi collectées, et se pose la question de l’intérêt des réfugiés dans ce processus. « Les humanitaires sont poussés à utiliser ces nouvelles technologies, expose-t-elle, qui sont vues comme un gage de fiabilité par les bailleurs de fonds. Mais la #technologisation n’est pas toujours dans l’intérêt des réfugiés. En cas de fuite ou de hackage des bases de données, cela les expose même à des dangers. »

      Un rapport de Human Rights Watch (HRW) (https://www.hrw.org/news/2021/06/15/un-shared-rohingya-data-without-informed-consent), publié mardi 15 juin, alerte ainsi sur des #transferts_de_données biométriques appartenant à des #Rohingyas réfugiés au Bangladesh. Ces données, collectées par le Haut-commissariat aux réfugiés (HCR) de l’ONU, ont été transmises par le gouvernement du Bangladesh à l’État birman. Si le HCR a réagi (https://www.unhcr.org/en-us/news/press/2021/6/60c85a7b4/news-comment-statement-refugee-registration-data-collection-bangladesh.html) en affirmant que les personnes concernées avaient donné leur accord à ce #transfert_de_données pour préparer un éventuel retour en Birmanie, rien ne permet cependant de garantir qu’ils seront bien reçus si leur nom « bipe » au moment de passer la frontière.

      https://www.rfi.fr/fr/technologies/20210620-pour-les-r%C3%A9fugi%C3%A9s-la-biom%C3%A9trie-tout-au-long-du-chemin

      #smart_borders #tri #catégorisation #déterritorialisation #réfugiés_rohingyas

      –---

      Sur les doigts brûlés pour ne pas se faire identifier par les empreintes digitales, voir la scène du film Qu’ils reposent en paix de Sylvain George, dont j’ai fait une brève recension :

      Instant tragique : ce qu’un migrant appelle la « prière ». Ce moment collectif où les migrants tentent de faire disparaître leurs empreintes digitales. Étape symbolique où ils se défont de leur propre identité.

      https://visionscarto.net/a-calais-l-etat-ne-peut-dissoudre

  • Non avrai mai più i miei dati | il manifesto
    https://ilmanifesto.it/non-avrai-mai-piu-i-miei-dati

    par Simone Pieranni (auteur de «Red Mirror»)

    Cina. Sotto la spinta dell’opinione pubblica cinese, per la prima volta una metropoli ha presentato una bozza di legge per arginare il riconoscimento facciale all’interno dei complessi residenziali

    Spesso in Occidente rimaniamo impressionati dalla facilità con la quale la tecnologia è entrata nella vita quotidiana dei cinesi. Certi aspetti di questo tema, per altro, ci riguardano da vicino e faremmo bene a osservare cosa accade in un posto così lontano, ma pur sempre inserito – sebbene con le proprie «caratteristiche» – all’interno di un contesto globale.

    Uno degli aspetti più rilevanti è senza dubbio quello del riconoscimento facciale, ormai utilizzato in molte attività e luoghi anche in Occidente, spesso senza neanche il consenso, o quanto meno un parere, della cittadinanza.

    #Simone Pieranni #Chine #Reconnaissance_faciale

  • Les possibilités de #fichage de la #police discrètement élargies par trois #décrets

    Trois décrets publiés vendredi au #Journal_Officiel, et passés quasiment inaperçus, créent la polémique et l’inquiétude des défenseurs des libertés. Ils vont permettre aux #forces_de_l'ordre et aux renseignements de collecter beaucoup plus d’#informations et des données très personnelles.

    Ficher les #opinions_politiques de certains Français, les #orientations_sexuelles, la #pratique_sportive, les #comportements_religieux, les activités sur les #réseaux_sociaux, c’est une nouvelle prérogative des forces de l’ordre, grâce à trois décrets parus vendredi en toute discrétion. Concrètement, avec ces décrets, l’exécutif élargit les possibilités de fichage de certains services de police et de #gendarmerie.

    Il ne s’agit pas, théoriquement, de collecter des données de tous les citoyens, mais, selon le décret, de personnes « susceptibles de porter atteinte aux #intérêts_fondamentaux_de_la_Nation, à l’#intégrité_du_territoire, ou des #institutions de la République. Ou encore de constituer une #menace_terroriste ».

    Données relatives aux #troubles_psychologiques, psychiatriques

    Ces nouvelles données, concernant de nouvelles personnes, viendront grossir trois fichiers : le fichier #Prévention_des_atteintes_à_la_sécurité_publique (#PASP), le fichier #Gestion_de_l’information_et_prévention_des_atteintes_à_la_sécurité_publique (#GIPASP) et le fichier #Enquêtes_administratives_liées_à_la_sécurité_publique (#EASP). Ce dernier fichier est utilisé pour réaliser les #enquêtes_administratives_préalables à certains recrutements dans la #fonction_publique.

    Des voix s’élèvent aujourd’hui pour s’inquiéter du périmètre - notamment - très large accordé au recueil des données, sachant que pour les terroristes potentiels, il existe d’autres fichiers. Il est question aussi de mieux surveiller les personnes morales et les groupements, autrement dit les #associations.

    Quant au contenu des données collectées : ce ne sont plus seulement les activités politiques, religieuses, syndicales, mais dorénavant également les #opinions_politiques, les #convictions_philosophiques, religieuses, ainsi que les comportements et habitudes de vie, les #pratiques_sportives... Autant de notions intrusives, sur lesquelles la CNIL a demandé des précisions. Avis non pris en compte.

    Le #renseignement_territorial pourra également enregistrer des données relatives aux troubles psychologiques ou psychiatriques qui peuvent être considérées comme des atteintes au #secret_médical.

    « Les fichiers de police dont on parle ne sont pas des #fichiers_judiciaires, ce sont des fichiers qui sont gérés par la police, seule, pour la police, explique Arthur Messaud, porte-parole de La Quadrature du Net. Ce ne sont pas non plus des fichiers de #contre-terrorisme. On est dans la lutte contre les sectes, la lutte contre les hooligans et la lutte contre les violences autour des trafics de drogue, mais aussi toutes les luttes, les #violences ou les #manifestations non déclarées autour des #mouvements_idéologiques. Il faut bien comprendre que là, quand je dis #violence, c’est tel qu’interprété par la police. »

    « Ce n’est pas un #juge qui va qualifier des #infractions_pénales. Non, c’est la police toute seule pour ces renseignements à elle, qui va surveiller des gens qu’elle considère comme dangereux pour le pouvoir en place » - Arthur Messaud

    Le décret comporte également un couplet sur les réseaux sociaux

    Surveillance actée des activités sur ces réseaux avec possibilité de recueil des #pseudonymes et #identifiant, pas les mots de passe, uniquement les informations mises en ligne volontairement en source ouverte. Mais il sera possible de capter les commentaires et surtout les #photos, #reconnaissance_faciale non exclue.

    La CNIL souligne que le résultat devra être recoupé et qu’il ne suffira en aucune manière à lui seul à fonder une décision à l’égard de la personne.

    Ces décrets apparaissent comme une nouvelle encoche dans nos #libertés. A minima une bombe à retardement si notre histoire démocratique venait à vaciller.

    Il y a 12 ans, le #fichier_Edwige prévoyait de collecter - déjà - des informations sur les opinions des personnes fichées. Des mobilisations citoyennes avaient permis de modifier la donne et le gouvernement avait autorisé le recueil de fichier uniquement sur les activités politiques des personnes et non plus leurs #opinions.

    https://www.franceinter.fr/societe/les-possibilites-de-fichage-de-la-police-discretement-elargit-par-trois-
    #décret #France #données_personnelles

    ping @etraces

  • La #Technopolice, moteur de la « #sécurité_globale »

    L’article 24 de la #loi_Sécurité_Globale ne doit pas devenir l’arbre qui cache la forêt d’une politique de fond, au cœur de ce texte, visant à faire passer la #surveillance et le #contrôle_de_la_population par la police à une nouvelle ère technologique.

    Quelques jours avant le vote de la loi Sécurité Globale à l’Assemblée Nationale, le ministère de l’Intérieur présentait son #Livre_blanc. Ce long #rapport de #prospective révèle la #feuille_de_route du ministère de l’Intérieur pour les années à venir. Comme l’explique Gérard Darmanin devant les députés, la proposition de loi Sécurité Globale n’est que le début de la transposition du Livre dans la législation. Car cette loi, au-delà de l’interdiction de diffusion d’#images de la police (#article_24), vise surtout à renforcer considérablement les pouvoirs de surveillance des #forces_de_l’ordre, notamment à travers la légalisation des #drones (article 22), la diffusion en direct des #caméras_piétons au centre d’opération (article 21), les nouvelles prérogatives de la #police_municipale (article 20), la #vidéosurveillance dans les hall d’immeubles (article 20bis). Cette loi sera la première pierre d’un vaste chantier qui s’étalera sur plusieurs années.

    Toujours plus de pouvoirs pour la police

    Le Livre blanc du ministère de l’Intérieur envisage d’accroître, à tous les niveaux, les pouvoirs des différentes #forces_de_sécurité (la #Police_nationale, la police municipale, la #gendarmerie et les agents de #sécurité_privée) : ce qu’ils appellent, dans la novlangue officielle, le « #continuum_de_la_sécurité_intérieure ». Souhaitant « renforcer la police et la rendre plus efficace », le livre blanc se concentre sur quatre angles principaux :

    - Il ambitionne de (re)créer une #confiance de la population en ses forces de sécurité, notamment par une #communication_renforcée, pour « contribuer à [leur] légitimité », par un embrigadement de la jeunesse – le #Service_National_Universel, ou encore par la création de « #journées_de_cohésion_nationale » (page 61). Dans la loi Sécurité Globale, cette volonté s’est déjà illustrée par la possibilité pour les policiers de participer à la « #guerre_de_l’image » en publiant les vidéos prises à l’aide de leurs #caméras_portatives (article 21).
    - Il prévoit d’augmenter les compétences des #maires en terme de sécurité, notamment par un élargissement des compétences de la police municipale : un accès simplifié aux #fichiers_de_police, de nouvelles compétences en terme de lutte contre les #incivilités … (page 135). Cette partie-là est déjà en partie présente dans la loi Sécurité Globale (article 20).
    - Il pousse à une #professionnalisation de la sécurité privée qui deviendrait ainsi les petites mains de la police, en vu notamment des #Jeux_olympiques Paris 2024, où le besoin en sécurité privée s’annonce colossal. Et cela passe par l’augmentation de ses #compétences : extension de leur #armement, possibilité d’intervention sur la #voie_publique, pouvoir de visionner les caméras, et même le port d’un #uniforme_spécifique (page 145).
    - Enfin, le dernier grand axe de ce livre concerne l’intégration de #nouvelles_technologies dans l’arsenal policier. Le titre de cette partie est évocateur, il s’agit de « porter le Ministère de l’Intérieur à la #frontière_technologique » (la notion de #frontière évoque la conquête de l’Ouest aux États-Unis, où il fallait coloniser les terres et les premières nations — la reprise de ce vocable relève d’une esthétique coloniale et viriliste).

    Ce livre prévoit une multitude de projets plus délirants et effrayants les uns que les autres. Il propose une #analyse_automatisée des #réseaux_sociaux (page 221), des #gilets_connectés pour les forces de l’ordre (page 227), ou encore des lunettes ou #casques_augmentés (page 227). Enfin, le Livre blanc insiste sur l’importance de la #biométrie pour la police. Entre proposition d’#interconnexion des #fichiers_biométriques (#TAJ, #FNAEG, #FAED…) (page 256), d’utilisation des #empreintes_digitales comme outil d’#identification lors des #contrôles_d’identité et l’équipement des #tablettes des policiers et gendarmes (#NEO et #NEOGEND) de lecteur d’empreinte sans contact (page 258), de faire plus de recherche sur la #reconnaissance_vocale et d’#odeur (!) (page 260) ou enfin de presser le législateur pour pouvoir expérimenter la #reconnaissance_faciale dans l’#espace_public (page 263).

    Le basculement technologique de la #surveillance par drones

    Parmi les nouveaux dispositifs promus par le Livre blanc : les #drones_de_police, ici appelés « #drones_de_sécurité_intérieure ». S’ils étaient autorisés par la loi « Sécurité Globale », ils modifieraient radicalement les pouvoirs de la police en lui donnant une capacité de surveillance totale.

    Il est d’ailleurs particulièrement marquant de voir que les rapporteurs de la loi considèrent cette légalisation comme une simple étape sans conséquence, parlant ainsi en une phrase « d’autoriser les services de l’État concourant à la #sécurité_intérieure et à la #défense_nationale et les forces de sécurité civile à filmer par voie aérienne (…) ». Cela alors que, du côté de la police et des industriels, les drones représentent une révolution dans le domaine de la sécurité, un acteur privé de premier plan évoquant au sujet des drones leur « potentiel quasiment inépuisable », car « rapides, faciles à opérer, discrets » et « tout simplement parfaits pour des missions de surveillance »

    Dans les discours sécuritaires qui font la promotion de ces dispositifs, il est en effet frappant de voir la frustration sur les capacités « limitées » (selon eux) des caméras fixes et combien ils fantasment sur le « potentiel » de ces drones. C’est le cas du maire LR d’Asnières-sur-Seine qui en 2016 se plaignait qu’on ne puisse matériellement pas « doter chaque coin de rue de #vidéoprotection » et que les drones « sont les outils techniques les plus adaptés » pour pallier aux limites de la présence humaine. La police met ainsi elle-même en avant la toute-puissance du #robot par le fait, par exemple pour les #contrôles_routiers, que « la caméra du drone détecte chaque infraction », que « les agents démontrent que plus rien ne leur échappe ». Même chose pour la #discrétion de ces outils qui peuvent, « à un coût nettement moindre » qu’un hélicoptère, « opérer des surveillances plus loin sur l’horizon sans être positionné à la verticale au-dessus des suspects ». Du côté des constructeurs, on vante les « #zooms puissants », les « #caméras_thermiques », leur donnant une « #vision_d’aigle », ainsi que « le #décollage possible pratiquement de n’importe où ».

    Tout cela n’est pas que du fantasme. Selon un rapport de l’Assemblée nationale, la police avait, en 2019, par exemple 30 drones « de type #Phantom_4 » et « #Mavic_Pro » (ou « #Mavic_2_Enterprise » comme nous l’avons appris lors de notre contentieux contre la préfecture de police de Paris). Il suffit d’aller voir les fiches descriptives du constructeur pour être inondé de termes techniques vantant l’omniscience de son produit : « caméra de nacelle à 3 axes », « vidéos 4K », « photos de 12 mégapixels », « caméra thermique infrarouge », « vitesse de vol maximale à 72 km/h » … Tant de termes qui recoupent les descriptions faites par leurs promoteurs : une machine volante, discrète, avec une capacité de surveiller tout (espace public ou non), et de loin.

    Il ne s’agit donc pas d’améliorer le dispositif de la vidéosurveillance déjà existant, mais d’un passage à l’échelle qui transforme sa nature, engageant une surveillance massive et largement invisible de l’espace public. Et cela bien loin du léger cadre qu’on avait réussi à imposer aux caméras fixes, qui imposait notamment que chaque caméra installée puisse faire la preuve de son utilité et de son intérêt, c’est-à-dire de la nécessité et de la #proportionnalité de son installation. Au lieu de cela, la vidéosurveillance demeure une politique publique dispendieuse et pourtant jamais évaluée. Comme le rappelle un récent rapport de la Cour des comptes, « aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de la délinquance commise sur la voie publique, ou encore les taux d’élucidation ». Autre principe fondamental du droit entourant actuellement la vidéosurveillance (et lui aussi déjà largement inappliqué) : chaque personne filmée doit être informée de cette surveillance. Les drones semblent en contradiction avec ces deux principes : leur utilisation s’oppose à toute notion d’information des personnes et de nécessité ou proportionnalité.

    Où serons-nous dans 4 ans ?

    En pratique, c’est un basculement total des #pratiques_policières (et donc de notre quotidien) que préparent ces évolutions technologiques et législatives. Le Livre blanc fixe une échéance importante à cet égard : « les Jeux olympiques et paralympiques de Paris de 2024 seront un événement aux dimensions hors normes posant des enjeux de sécurité majeurs » (p. 159). Or, « les Jeux olympiques ne seront pas un lieu d’expérimentation : ces technologies devront être déjà éprouvées, notamment à l’occasion de la coupe de monde de Rugby de 2023 » (p. 159).

    En juillet 2019, le rapport parlementaire cité plus haut constatait que la Police nationale disposait de 30 drones et de 23 pilotes. En novembre 2020, le Livre blanc (p. 231) décompte 235 drones et 146 pilotes. En 14 mois, le nombre de drones et pilotes aura été multiplié par 7. Dès avril 2020, le ministère de l’Intérieur a publié un appel d’offre pour acquérir 650 drones de plus. Rappelons-le : ces dotations se sont faites en violation de la loi. Qu’en sera-t-il lorsque les drones seront autorisés par la loi « sécurité globale » ? Avec combien de milliers d’appareils volants devra-t-on bientôt partager nos rues ? Faut-il redouter, au cours des #JO de 2024, que des dizaines de drones soient attribués à la surveillance de chaque quartier de la région parisienne, survolant plus ou moins automatiquement chaque rue, sans répit, tout au long de la journée ?

    Les évolutions en matières de reconnaissance faciale invite à des projections encore plus glaçantes et irréelles. Dès 2016, nous dénoncions que le méga-fichier #TES, destiné à contenir le visage de l’ensemble de la population, servirait surtout, à terme, à généraliser la reconnaissance faciale à l’ensemble des activités policières : enquêtes, maintien de l’ordre, contrôles d’identité. Avec le port d’une caméra mobile par chaque brigade de police et de gendarmerie, tel que promis par Macron pour 2021, et la retransmission en temps réel permise par la loi « sécurité globale », ce rêve policier sera à portée de main : le gouvernement n’aura plus qu’à modifier unilatéralement son #décret_TES pour y joindre un système de reconnaissance faciale (exactement comme il avait fait en 2012 pour permettre la reconnaissance faciale à partir du TAJ qui, à lui seul, contient déjà 8 millions de photos). Aux robots dans le ciel s’ajouteraient des humains mutiques, dont le casque de réalité augmentée évoqué par le Livre Blanc, couplé à l’analyse d’image automatisée et aux tablettes numériques NEO, permettrait des contrôles systématiques et silencieux, rompus uniquement par la violence des interventions dirigées discrètement et à distance à travers la myriade de drones et de #cyborgs.

    En somme, ce Livre Blanc, dont une large partie est déjà transposée dans la proposition de loi sécurité globale, annonce le passage d’un #cap_sécuritaire historique : toujours plus de surveillance, plus de moyens et de pouvoirs pour la police et consorts, dans des proportions et à un rythme jamais égalés. De fait, c’est un #État_autoritaire qui s’affirme et se consolide à grand renfort d’argent public. Le Livre blanc propose ainsi de multiplier par trois le #budget dévolu au ministère de l’Intérieur, avec une augmentation de 6,7 milliards € sur 10 ans et de 3 milliards entre 2020 et 2025. Une provocation insupportable qui invite à réfléchir sérieusement au définancement de la police au profit de services publiques dont le délabrement plonge la population dans une #insécurité bien plus profonde que celle prétendument gérée par la police.

    https://www.laquadrature.net/2020/11/19/la-technopolice-moteur-de-la-securite-globale
    #France #Etat_autoritaire

    ping @isskein @karine4 @simplicissimus @reka @etraces

  • L’ONU met en garde contre l’impact des frontières intelligentes sur les réfugiés
    https://www.nextinpact.com/lebrief/44611/lonu-met-en-garde-contre-impact-frontieres-intelligentes-sur-refugies

    Tendayi Achiume, rapporteure spéciale de l’ONU sur le racisme, la discrimination raciale, la xénophobie et l’intolérance, a appelé à un moratoire sur l’utilisation de certaines technologies de surveillance utilisées dans les programmes de « frontières intelligentes », révèle The Guardian.

    Dans un rapport à paraître, elle qualifie de « troublants » les détecteurs de mensonge dans les aéroports européens, les scans oculaires effectués dans les camps de réfugiés ou les logiciels de reconnaissance vocale utilisés dans les demandes d’asile. Elle estime que ces technologies peuvent en outre être injustes et enfreindre les droits de l’homme.

    Elle a également cité les efforts de Donald Trump pour construire un mur entre les États-Unis et le Mexique : « il s’avère que les décès aux frontières ont augmenté dans les endroits où des frontières intelligentes ont été mises en place ».

    Petra Molnar, du Refugee Law Lab de Toronto, qui a contribué au rapport du rapporteur de l’ONU, a noté dans ses propres recherches l’impact déshumanisant de certaines technologies sur les personnes déplacées . Un demandeur d’asile, avec qui elle s’est entretenue en Belgique, a déclaré que la quantité de données personnelles auxquelles il avait renoncé lui faisait se sentir « comme un morceau de viande sans vie, juste des empreintes digitales et des scans oculaires ».

    « L’un des messages clés du rapport est que nous devons être très attentifs à l’impact disparate de cette technologie et pas seulement supposer que parce que la technologie va être juste ou neutre ou objective d’une manière ou d’une autre ».

    « La collecte de données n’est pas un exercice apolitique », note le rapport d’Achiume, « en particulier lorsque de puissants acteurs du Nord mondial collectent des informations sur les populations vulnérables sans méthodes réglementées de surveillance et de responsabilité. »

    L’année dernière, le Programme alimentaire mondial des Nations Unies s’est ainsi associé à Palantir Technologies, rappelle The Guardian, sur un contrat de 45 millions de dollars, partageant les données de 92 millions de bénéficiaires de l’aide.

    Achiume a déclaré que jusqu’à ce que l’impact des technologies de surveillance sur les droits de l’homme puisse être compris, l’utilisation de ces technologies devrait être interrompue. « Jusqu’à ce que nous puissions comprendre et atténuer ces préjudices, il devrait y avoir un moratoire à leur encontre. »

    #Reconnaissance_faciale #Migrants #Droits_humains #Frontières

  • UN warns of impact of smart borders on refugees: ‘Data collection isn’t apolitical’

    Special rapporteur on racism and xenophobia believes there is a misconception that biosurveillance technology is without bias

    Robotic lie detector tests at European airports, eye scans for refugees and voice-imprinting software for use in asylum applications are among new technologies flagged as “troubling” in a UN report.

    The UN’s special rapporteur on racism, racial discrimination, xenophobia and related intolerance, Prof Tendayi Achiume, said digital technologies can be unfair and regularly breach human rights. In her new report, she has called for a moratorium on the use of certain surveillance technologies.

    Achiume, who is from Zambia, told the Guardian she was concerned about the rights of displaced people being compromised. She said there was a misconception that such technologies, often considered “a humane” option in border enforcement, are without bias.

    “One of the key messages of the report is that we have to be paying very close attention to the disparate impact of this technology and not just assuming that because it’s technology, it’s going to be fair or be neutral or objective in some way.”

    She cited the example of pushback against Donald Trump’s effort to build a wall between the US and Mexico. “You see that there isn’t a similar sense of outrage when digital technologies are deployed to serve the same function … if you actually look at some of the statistics, and if you look at some of the research, which I cite in my report, it turns out that border deaths have increased in places where smart borders have been implemented.”

    She also raised concerns about the ways in which humanitarian agencies are engaging with surveillance. The report notes that in Afghanistan, the UN refugee agency (UNHCR) requires returning refugees to undergo iris registration as a prerequisite for receiving assistance.

    While the UNHCR has justified the use of this technology as a way to prevent fraud, “the impact of processing such sensitive data can be grave when systems are flawed or abused”, the report said.

    Last year the UN’s World Food Programme partnered with Palantir Technologies, a data mining company, on a $45m (£34m) contract, sharing the data of 92 million aid recipients.

    “Data collection is not an apolitical exercise,” notes Achiume’s report, “especially when powerful global north actors collect information on vulnerable populations with no regulated methods of oversights and accountability.”

    Covid-19 has also accelerated “biosurveillance” – focused on tracking people’s movements and health. Biosurveillance has everyday uses, such as the “track and trace” app in the UK, but there are concerns about the regulation of large-scale data harvested from populations.

    One example is the “Covi-Pass”, a health passport developed by Mastercard and Gavi, a private-public health alliance, that is reportedly due to be rolled out across west Africa. The UN report highlighted the implications of such passports for freedom of movement, “especially for refugees”.

    Petra Molnar from the Refugee Law Lab in Toronto said it was clear that the pandemic was increasing digital rights violations. “State responses to the pandemic are exacerbating the turn towards biosurveillance, with refugees and people on the move acting as communities on which to test various interventions and fast-track tech development,” she said.

    Molnar, who contributed to the UN rapporteur’s report, has noted the dehumanising impact of some technologies on displaced people in her own research. One asylum seeker she spoke to in Belgium said the amount of personal data he’d given up made him feel, “like a piece of meat without a life, just fingerprints and eye scans”.

    “Our conversations with refugees and people crossing borders show how little attention is being paid to the lived experiences of people who are at the sharp edges of these high-risk technological experiments,” said Molnar.

    The intersection of technology and human rights violations were highlighted in a recent investigation into the European border agency Frontex, which allegedly witnessed pushbacks of migrants in the Aegean Sea via some of its assets, including drones.

    Konstantinos Kakavoulis from Homo Digitalis, a Greek organisation focused on digital rights, said technologies often outpaced the legal framework.

    “There is no clear regulation for the use of drones or body-worn cameras by the Greek police,” he said. “The police have signed a contract for the provision of a facial recognition software with Intracom Telecom, a Greek company, without receiving the opinion of the Greek data protection authority.”

    He added: “Apart from the insufficiency of legal safeguards, we also lack transparency; and this is not only remarkable, but highly problematic.”

    Achiume said that until the impact of surveillance technologies on human rights could be understood, use of such technologies should be halted. “Until we can understand and mitigate those harms, there should just be a moratorium on them.”

    https://www.theguardian.com/global-development/2020/nov/11/un-warns-of-impact-of-smart-borders-on-refugees-data-collection-isnt-ap

    #frontières #smart_borders #frontières_intelligentes #réfugiés #asile #migrations #technologie #politique #biopolitique #technologies_digitales #droits_fondamentau #droits_humains #surveillance #contrôles_frontaliers #neutralité #Palantir_Technologies #données #biosurveillance #Covi-Pass #Mastercard #Gavi #complexe_militaro-industriel #covid-19 #coronavirus #reconnaissance_faciale #Intracom_Telecom

    ping @karine4 @isskein @etraces @thomas_lacroix

  • [vidéo] « Pourtant la ville t’appartient » | Mačko Dràgàn
    https://technopolice.fr/blog/pourtant-la-ville-tappartient-un-film-pour-enrayer-la-machine-technopol

    C’est quoi, un espace public ? Pour le pouvoir c’est un lieu à gentrifier, privatiser, fliquer. Pour nous, habitant.e.s des quartiers, précaires, sans-abris, squatteurs, artistes de rue, manifestant.e.s, c’est un lieu de vie. Nous avons donné la parole à ces invisibles, afin de voir ce que nous avons perdu –et ce qu’il nous faut reprendre. Parce qu’on peut vivre ensemble. Sans répression. Durée : 1h22. Source : Technopolice

  • À l’aéroport de Lyon, Vinci banalise la reconnaissance faciale
    https://technopolice.fr/blog/a-laeroport-de-lyon-vinci-banalise-la-reconnaissance-faciale

    L’expérimentation de reconnaissance faciale lancée la semaine dernière par Vinci Airports est un nouveau pas vers la banalisation des technologies de surveillance biométrique. Grâce aux financements de l’Etat et au soutien implicite de la Cnil, l’entreprise Idemia a pu déployer sans inquiétude son dispositif biométrique dans l’espace public. Nulle doute qu’elle et les autres entreprises de la Technopolice sauront en profiter. Lundi 5 octobre, l’entreprise Vinci Airports a annoncé le lancement d’une (...)

    #Vinci #algorithme #CCTV #biométrie #facial #reconnaissance #vidéo-surveillance #surveillance # #LaQuadratureduNet (...)

    ##_ ##Technopolice

  • L’#artiste #Paolo_Cirio affiche des visages de policiers dans Paris pour dénoncer la reconnaissance faciale
    https://information.tv5monde.com/info/l-artiste-paolo-cirio-affiche-des-visages-de-policiers-dans-pa

    La #pétition pour « bannir la #reconnaissance_faciale en Europe » a recueilli près de 14 000 signatures. Le #hacker militant et artiste Paolo Cirio y participe grâce à une performance bien particulière, en placardant à travers la capitale française des centaines d’affiches de visages de policiers récupérés sur Internet. Entretien.
    Paolo Cirio est très connu dans le milieu des défenseurs de la vie privée sur Internet. Il l’est moins du grand public, ce qui pourrait changer après sa performance artistique urbaine nommée "Capture "et lancée ce premier octobre 2020.

    https://www.laquadrature.net/2020/09/22/nous-soutenons-la-petition-pour-bannir-la-reconnaissance-faciale-en-eu

    pétition :
    https://ban-facial-recognition.wesign.it/droitshumains/bannissons-la-reconnaissance-faciale-en-europe#sign

  • L’artiste Paolo Cirio affiche des visages de policiers dans Paris pour dénoncer la reconnaissance faciale.
    https://information.tv5monde.com/info/l-artiste-paolo-cirio-affiche-des-visages-de-policiers-dans-pa

    Paolo Cirio — pour son dernier projet nommé Capture — a créé une base de données contenant 4000 visages de policiers français pour les identifier avec une technologie de reconnaissance faciale, via sa plateforme https://capture-police.com. Ce jeudi premier octobre 2020, l’artiste effectue donc une performance de « street art » en dévoilant une partie des portraits des officiers de police tirés de sa plateforme, affichés un peu partout dans la capitale française.

    J’ai choisi le mot Capture parce qu’il est court et qu’il résume bien le concept qu’il y a derrière la reconnaissance faciale. Particulièrement lorsque cette technologie est utilisée par la police. Ils l’utilisent pour capturer des criminels, des manifestants, pour les attraper, donc les capturer grâce à des logiciels et des caméras.

    Quand vous capturez un visage avec un appareil photo vous faites la même chose que ce que fait la police qui tente de capturer quelqu’un. C’est comme ça que m’est venue l’idée de ce projet Capture, en utilisant des photos de visages de policiers, des visages que j’ai capturés moi aussi, sur le Net.

    Tout le monde doit être inquiet par l’émergence de cette technologie qui va permettre la surveillance de masse, les analyses des comportements, des émotions des gens dans la rue, comme en Chine.

    J’ai en fait renversé le procédé de la reconnaissance faciale en l’utilisant contre ceux qui normalement l’utilisent contre des citoyens, c’est-à-dire les policiers. Je veux démontrer que cette technologie est très puissante et qu’elle peut être utilisée par des activistes, des citoyens, mais aussi par des criminels ou des terroristes, et ce, contre la police.

    Cela peut ressembler à une grosse provocation, mais en fait, cela peut-être aussi pris comme une manière de protéger la police en leur montrant les dangers de cette technologie. En fait, j’aimerais que les policiers signent eux aussi la pétition pour bannir la reconnaissance faciale en Europe.

    • Synergie-Officiers @PoliceSynergie
      https://twitter.com/PoliceSynergie/status/1312024085447180290

      Merci à ⁦@GDarmanin⁩ pour la promptitude de sa réaction et sa fermeté pour défendre les #policiers et leurs familles. Son intervention a permis de déprogrammer une entreprise criminogène sous couvert d’une démarche artistique. #Police # Jesoutienslapolice #BlueLivesMatter

      Le Fresnoy déprogramme :

      Des fafs tous les jours sur les chaînes info et dans la presse, des lois et décrets liberticides, racistes et anti pauvres comme si il en pleuvait, et des débats" sur la « cancel culture » et la longueur des vêtements des scolarisées.

      #police #reconnaissance_faciale #censure #école_d'art #exposition #culture #art

    • #fuite suite aux menaces
      https://www.mediapart.fr/journal/france/131020/un-artiste-menace-apres-avoir-voulu-diffuser-des-visages-de-policiers

      "« Je ne me sens plus en sécurité dans ce pays », lâche, amer, l’artiste et hacktiviste Paolo Cirio qui a quitté précipitamment la France la semaine dernière après avoir reçu plusieurs menaces par mails. L’exposition de son œuvre Capture venait d’être annulée, dans laquelle il entendait dénoncer les dangers de la reconnaissance faciale en exposant des visages de policiers trouvés sur internet.

      Pour réaliser son projet, Paolo Cirio avait « collecté 1 000 images publiques de policiers, dans des photos prises durant des manifestations en France, et les avaient soumises à un logiciel de reconnaissance faciale », explique l’artiste sur son site. Ce procédé lui a permis de récupérer 4 000 visages de policiers. Ceux-ci devaient être exposés, sous forme d’une fresque, dans le cadre de l’exposition Panorama 22. Les Sentinelles, qui s’ouvre jeudi 15 octobre au studio national des arts contemporains Le Fresnoy de Tourcoing.

      Le jour de la mise en ligne de la présentation de son projet, le jeudi 1er octobre, Paulo Cirio avait également mené une action dans les rues de Paris y affichant certains des portraits de policiers. L’opération était accompagnée de la mise en place d’un site internet, capture-police.com, répertoriant les photos et invitant les internautes à identifier les agents qu’ils pourraient reconnaître, ainsi que d’une pétition appelant à l’interdiction de la reconnaissance faciale.

      « La police appelle à l’utilisation de la reconnaissance faciale sur les manifestants, les minorités et les civils, alors qu’elle se rend non identifiable lors d’affrontements publics, poursuit le site internet de l’artiste. Dans le projet Capture, la reconnaissance faciale se retourne contre les mêmes autorités publiques et forces de l’ordre qui cherchent à en justifier la nécessité. »

      Mais les choses ne se sont pas passées comme Paolo Cirio l’avait prévu. Immédiatement après sa mise en ligne, le projet de l’artiste provoque une levée de boucliers. « Ça a été très vite », raconte-t-il à Mediapart. Il y eut tout d’abord les réactions indignées de syndicats de policiers – « seulement une heure après avoir publié mon projet », se souvient Paolo Cirio – qui en appellent à leur ministre de tutelle, Gérald Darmanin. Celui-ci, qui se trouve être par ailleurs ancien maire de Tourcoing, ville où se situe le studio Le Fresnoy, réagit quelques heures plus tard.

      « Insupportable mise au pilori de femmes et d’hommes qui risquent leur vie pour nous protéger, écrit le ministre de l’intérieur sur Twitter. Je demande la déprogrammation de l’“exposition” et le retrait des photos de son site, sous peine de saisir les juridictions compétentes. »

      Dès le lendemain, Le Fresnoy annule effectivement l’exposition de Paolo Cirio. « Nous ne pouvons en aucun cas adhérer à une démarche qui associe l’œuvre en question à une plateforme numérique où l’artiste invite à identifier et à désigner nommément des policiers, dont les photographies ont été préalablement diffusées sur internet », écrit le studio dans un communiqué en date du vendredi 2 octobre et largement diffusé sur les réseaux sociaux par des syndicats de policiers. « Par cette démarche qui a changé la nature de l’intervention du Fresnoy, l’artiste a violé les engagements qu’il avait pris de ne rien faire de tel devant les responsables du Fresnoy, et la direction de la Condition publique, ce qui nous a profondément choqués », poursuit-il.

      Parallèlement, Paolo Cirio reçoit sur sa boîte mails des messages d’insultes et d’autres plus inquiétants. « J’ai reçu de nombreux messages, dont certains très violents disant par exemple qu’ils me surveillaient ou qu’ils me trouveraient », raconte-t-il. Aucune menace de mort directe, mais des pressions et des insinuations assez précises pour le décider à retirer son site internet, qui a depuis été remplacé par la pétition.

      Et pour le convaincre de quitter le territoire français. « Je suis parti car je ne me sens plus en sécurité, explique Paolo Cirio. Je venais deux, trois fois en France par an. J’ai même donné des cours au Fresnoy. Mais pour l’instant, je pense que je ne reviendrai pas. »
      "