• Comment le #maquillage peut nous protéger de la #reconnaissance_faciale ?

    Dans les rues de Londres, le collectif anti-surveillance The Dazzle Club milite silencieusement et à couvert. Son arme de prédilection ? Le maquillage asymétrique pour tromper les dispositifs biométriques de reconnaissance faciale. Trois de ses fondatrices, Emily Roderick, Georgina Rowlands et Anna Hart, nous racontent.

    Août 2019. Le quartier de King’s Cross à Londres prévoit de déployer un système de #caméras de #surveillance utilisant la reconnaissance faciale sans consulter les #habitants. Les masques ne font pas encore partie de leur quotidien, mais le #collectif d’artistes The #Dazzle_Club s’interroge : « peut-on encore être libres dans l’espace public ? »

    Affublées de maquillages mystérieusement graphiques, Emily Roderick, Georgina Rowlands, Anna Hart et Evie Price se mettent alors à marcher, en silence, dans les rues de la capitale. Derrière la performance artistique se cache une véritable technique de camouflage, CV Dazzle, développée en 2010 par le chercheur Adam Harvey. Le but ? Protéger nos visages des algorithmes de reconnaissance faciale.

  • This is how we lost control of our faces | MIT Technology Review

    The largest ever study of facial-recognition data shows how much the rise of deep learning has fueled a loss of privacy.

    Karen Hao
    February 5, 2021

    In 1964, mathematician and computer scientist Woodrow Bledsoe first attempted the task of matching suspects’ faces to mugshots. He measured out the distances between different facial features in printed photographs and fed them into a computer program. His rudimentary successes would set off decades of research into teaching machines to recognize human faces.

    Now a new study shows just how much this enterprise has eroded our privacy. It hasn’t just fueled an increasingly powerful tool of surveillance. The latest generation of deep-learning-based facial recognition has completely disrupted our norms of consent.

    People were extremely cautious about collecting, documenting, and verifying face data in the early days, says Raji. “Now we don’t care anymore. All of that has been abandoned,” she says. “You just can’t keep track of a million faces. After a certain point, you can’t even pretend that you have control.”

    A history of facial-recognition data

    The researchers identified four major eras of facial recognition, each driven by an increasing desire to improve the technology. The first phase, which ran until the 1990s, was largely characterized by manually intensive and computationally slow methods.

    But then, spurred by the realization that facial recognition could track and identify individuals more effectively than fingerprints, the US Department of Defense pumped $6.5 million into creating the first large-scale face data set. Over 15 photography sessions in three years, the project captured 14,126 images of 1,199 individuals. The Face Recognition Technology (FERET) database was released in 1996.

    The following decade saw an uptick in academic and commercial facial-recognition research, and many more data sets were created. The vast majority were sourced through photo shoots like FERET’s and had full participant consent. Many also included meticulous metadata, Raji says, such as the age and ethnicity of subjects, or illumination information. But these early systems struggled in real-world settings, which drove researchers to seek larger and more diverse data sets.

    In 2007, the release of the Labeled Faces in the Wild (LFW) data set opened the floodgates to data collection through web search. Researchers began downloading images directly from Google, Flickr, and Yahoo without concern for consent. LFW also relaxed standards around the inclusion of minors, using photos found with search terms like “baby,” “juvenile,” and “teen” to increase diversity. This process made it possible to create significantly larger data sets in a short time, but facial recognition still faced many of the same challenges as before. This pushed researchers to seek yet more methods and data to overcome the technology’s poor performance.

    Then, in 2014, Facebook used its user photos to train a deep-learning model called DeepFace. While the company never released the data set, the system’s superhuman performance elevated deep learning to the de facto method for analyzing faces. This is when manual verification and labeling became nearly impossible as data sets grew to tens of millions of photos, says Raji. It’s also when really strange phenomena start appearing, like auto-generated labels that include offensive terminology.

    Image-generation algorithms are regurgitating the same sexist, racist ideas that exist on the internet.

    The way the data sets were used began to change around this time, too. Instead of trying to match individuals, new models began focusing more on classification. “Instead of saying, ‘Is this a photo of Karen? Yes or no,’ it turned into ‘Let’s predict Karen’s internal personality, or her ethnicity,’ and boxing people into these categories,” Raji says.

    Amba Kak, the global policy director at AI Now, who did not participate in the research, says the paper offers a stark picture of how the biometrics industry has evolved. Deep learning may have rescued the technology from some of its struggles, but “that technological advance also has come at a cost,” she says. “It’s thrown up all these issues that we now are quite familiar with: consent, extraction, IP issues, privacy.”

    Raji says her investigation into the data has made her gravely concerned about deep-learning-based facial recognition.

    “It’s so much more dangerous,” she says. “The data requirement forces you to collect incredibly sensitive information about, at minimum, tens of thousands of people. It forces you to violate their privacy. That in itself is a basis of harm. And then we’re hoarding all this information that you can’t control to build something that likely will function in ways you can’t even predict. That’s really the nature of where we’re at.”

    #Reconnaissance_faciale #éthique #Histoire_numérique #Surveillance

  • How the Pandemic Turned Refugees Into ‘Guinea Pigs’ for Surveillance Tech

    An interview with Dr. Petra Molnar, who spent 2020 investigating the use of drones, facial recognition, and lidar on refugees

    The coronavirus pandemic unleashed a new era in surveillance technology, and arguably no group has felt this more acutely than refugees. Even before the pandemic, refugees were subjected to contact tracing, drone and LIDAR tracking, and facial recognition en masse. Since the pandemic, it’s only gotten worse. For a microcosm of how bad the pandemic has been for refugees — both in terms of civil liberties and suffering under the virus — look no further than Greece.

    Greek refugee camps are among the largest in Europe, and they are overpopulated, with scarce access to water, food, and basic necessities, and under constant surveillance. Researchers say that many of the surveillance techniques and technologies — especially experimental, rudimentary, and low-cost ones — used to corral refugees around the world were often tested in these camps first.

    “Certain communities already marginalized, disenfranchised are being used as guinea pigs, but the concern is that all of these technologies will be rolled out against the broader population and normalized,” says Petra Molnar, Associate Director of the Refugee Law Lab, York University.

    Molnar traveled to the Greek refugee camps on Lesbos in 2020 as part of a fact-finding project with the advocacy group European Digital Rights (EDRi). She arrived right after the Moria camp — the largest in Europe at the time — burned down and forced the relocation of thousands of refugees. Since her visit, she has been concerned about the rise of authoritarian technology and how it might be used against the powerless.

    With the pandemic still raging and states more desperate than ever to contain it, it seemed a good time to discuss the uses and implications of surveillance in the refugee camps. Molnar, who is still in Greece and plans to continue visiting the camps once the nation’s second lockdown lifts, spoke to OneZero about the kinds of surveillance technology she saw deployed there, and what the future holds — particularly with the European Border and Coast Guard Agency, Molnar says, adding “that they’ve been using Greece as a testing ground for all sorts of aerial surveillance technology.”

    This interview has been edited and condensed for clarity.

    OneZero: What kinds of surveillance practices and technologies did you see in the camps?

    Petra Molnar: I went to Lesbos in September, right after the Moria camp burned down and thousands of people were displaced and sent to a new camp. We were essentially witnessing the birth of the Kara Tepes camp, a new containment center, and talked to the people about surveillance, and also how this particular tragedy was being used as a new excuse to bring more technology, more surveillance. The [Greek] government is… basically weaponizing Covid to use it as an excuse to lock the camps down and make it impossible to do any research.

    When you are in Lesbos, it is very clear that it is a testing ground, in the sense that the use of tech is quite rudimentary — we are not talking about thermal cameras, iris scans, anything like that, but there’s an increase in the appetite of the Greek government to explore the use of it, particularly when they try to control large groups of people and also large groups coming from the Aegean. It’s very early days for a lot of these technologies, but everything points to the fact that Greece is Europe’s testing ground.

    They are talking about bringing biometric control to the camps, but we know for example that the Hellenic Coast Guard has a drone that they have been using for self-promotion, propaganda, and they’ve now been using it to follow specific people as they are leaving and entering the camp. I’m not sure if the use of drones was restricted to following refugees once they left the camps, but with the lockdown, it was impossible to verify. [OneZero had access to a local source who confirmed that drones are also being used inside the camps to monitor refugees during lockdown.]

    Also, people can come and go to buy things at stores, but they have to sign in and out at the gate, and we don’t know how they are going to use such data and for what purposes.

    Surveillance has been used on refugees long before the pandemic — in what ways have refugees been treated as guinea pigs for the policies and technologies we’re seeing deployed more widely now? And what are some of the worst examples of authoritarian technologies being deployed against refugees in Europe?

    The most egregious examples that we’ve been seeing are that ill-fated pilot projects — A.I. lie detectors and risk scorings which were essentially trying to use facial recognition and facial expressions’ micro-targeting to determine whether a person was more likely than others to lie at the border. Luckily, that technology was debunked and also generated a lot of debate around the ethics and human rights implications of using something like that.

    Technologies such as voice printing have been used in Germany to try to track a person’s country of origin or their ethnicity, facial recognition made its way into the new Migration’s Pact, and Greece is thinking about automating the triage of refugees, so there’s an appetite at the EU level and globally to use this tech. I think 2021 will be very interesting as more resources are being diverted to these types of tech.

    We saw, right when the pandemic started, that migration data used for population modeling became kind of co-opted and used to try and model flows of Covid. And this is very problematic because they are assuming that the mobile population, people on the move, and refugees are more likely to be bringing in Covid and diseases — but the numbers don’t bear out. We are also seeing the gathering of vast amounts of data for all these databases that Europe is using or will be using for a variety of border enforcement and policing in general.

    The concern is that fear’s being weaponized around the pandemic and technologies such as mobile tracking and data collection are being used as ways to control people. It is also broader, it deals with a kind of discourse around migration, on limiting people’s rights to move. Our concern is that it’ll open the door to further, broader rollout of this kind of tech against the general population.

    What are some of the most invasive technologies you’ve seen? And are you worried these authoritarian technologies will continue to expand, and not just in refugee camps?

    In Greece, the most invasive technologies being used now would probably be drones and unpiloted surveillance technologies, because it’s a really easy way to dehumanize that kind of area where people are crossing, coming from Turkey, trying to claim asylum. There’s also the appetite to try facial recognition technology.

    It shows just how dangerous these technologies can be both because they facilitate pushbacks, border enforcement, and throwing people away, and it really plays into this kind of idea of instead of humane responses you’d hope to happen when you see a boat in distress in the Aegean or the Mediterranean, now entities are turning towards drones and the whole kind of surveillance apparatus. It highlights how the humanity in this process has been lost.

    And the normalization of it all. Now it is so normal to use drones — everything is about policing Europe’s shore, Greece being a shield, to normalize the use of invasive surveillance tech. A lot of us are worried with talks of expanding the scope of action, mandate, and powers of Frontex [the European Border and Coast Guard Agency] and its utter lack of accountability — it is crystal clear that entities like Frontex are going to do Europe’s dirty work.

    There’s a particular framing applied when governments and companies talk about migrants and refugees, often linking them to ISIS and using careless terms and phrases to discuss serious issues. Our concern is that this kind of use of technology is going to become more advanced and more efficient.

    What is happening with regard to contact tracing apps — have there been cases where the technology was forced on refugees?

    I’ve heard about the possibility of refugees being tracked through their phones, but I couldn’t confirm. I prefer not to interact with the state through my phone, but that’s a privilege I have, a choice I can make. If you’re living in a refugee camp your options are much more constrained. Often people in the camps feel they are compelled to give access to their phones, to give their phone numbers, etc. And then there are concerns that tracking is being done. It’s really hard to track the tracking; it is not clear what’s being done.

    Aside from contact tracing, there’s the concern with the Wi-Fi connection provided in the camps. There’s often just one connection or one specific place where Wi-Fi works and people need to be connected to their families, spouses, friends, or get access to information through their phones, sometimes their only lifeline. It’s a difficult situation because, on the one hand, people are worried about privacy and surveillance, but on the other, you want to call your family, your spouse, and you can only do that through Wi-Fi and people feel they need to be connected. They have to rely on what’s available, but there’s a concern that because it’s provided by the authorities, no one knows exactly what’s being collected and how they are being watched and surveilled.

    How do we fight this surveillance creep?

    That’s the hard question. I think one of the ways that we can fight some of this is knowledge. Knowing what is happening, sharing resources among different communities, having a broader understanding of the systemic way this is playing out, and using such knowledge generated by the community itself to push for regulation and governance when it comes to these particular uses of technologies.

    We call for a moratorium or abolition of all high-risk technology in and around the border because right now we don’t have a governance mechanism in place or integrated regional or international way to regulate these uses of tech.

    Meanwhile, we have in the EU a General Data Protection Law, a very strong tool to protect data and data sharing, but it doesn’t really touch on surveillance, automation, A.I., so the law is really far behind.

    One of the ways to fight A.I. is to make policymakers understand the real harm that these technologies have. We are talking about ways that discrimination and inequality are reinforced by this kind of tech, and how damaging they are to people.

    We are trying to highlight this systemic approach to see it as an interconnected system in which all of these technologies play a part in this increasingly draconian way that migration management is being done.


    #réfugiés #cobaye #surveillance #technologie #pandémie #covid-19 #coroanvirus #LIDAR #drones #reconnaissance_faciale #Grèce #camps_de_réfugiés #Lesbos #Moria #European_Digital_Rights (#EDRi) #surveillance_aérienne #complexe_militaro-industriel #Kara_Tepes #weaponization #biométrie #IA #intelligence_artificielle #détecteurs_de_mensonges #empreinte_vocale #tri #catégorisation #donneés #base_de_données #contrôle #technologies_autoritaires #déshumanisation #normalisation #Frontex #wifi #internet #smartphone #frontières

    ping @isskein @karine4

    ping @etraces

  • Artificial intelligence : #Frontex improves its maritime surveillance

    Frontex wants to use a new platform to automatically detect and assess „risks“ on the seas of the European Union. Suspected irregular activities are to be displayed in a constantly updated „threat map“ with the help of self-learning software.

    The EU border agency has renewed a contract with Israeli company Windward for a „maritime analytics“ platform. It will put the application into regular operation. Frontex had initially procured a licence for around 800,000 Euros. For now 2.6 million Euros, the agency will receive access for four workstations. The contract can be extended three times for one year at a time.

    Windward specialises in the digital aggregation and assessment of vessel tracking and maritime surveillance data. Investors in the company, which was founded in 2011, include former US CIA director David Petraeus and former CEO’s of Thomson Reuters and British Petroleum. The former chief of staff of the Israeli military, Gabi Ashkenazi, is considered one of the advisors.

    Signature for each observed ship

    The platform is based on artificial intelligence techniques. For analysis, it uses maritime reporting systems, including position data from the AIS transponders of larger ships and weather data. These are enriched with information about the ship owners and shipping companies as well as the history of previous ship movements. For this purpose, the software queries openly accessible information from the internet.

    In this way, a „fingerprint“ is created for each observed ship, which can be used to identify suspicious activities. If the captain switches off the transponder, for example, the analysis platform can recognise this as a suspicuous event and take over further tracking based on the recorded patterns. It is also possible to integrate satellite images.

    Windward uses the register of the International Maritime Organisation (IMO) as its database, which lists about 70,000 ships. Allegedly, however, it also processes data on a total of 400,000 watercraft, including smaller fishing boats. One of the clients is therefore the UN Security Council, which uses the technology to monitor sanctions.

    Against „bad guys“ at sea

    The company advertises its applications with the slogan „Catch the bad guys at sea“. At Frontex, the application is used to combat and prevent unwanted migration and cross-border crime as well as terrorism. Subsequently, „policy makers“ and law enforcement agencies are to be informed about results. For this purpose, the „risks“ found are visualised in a „threat map“.

    Windward put such a „threat map“ online two years ago. At the time, the software rated the Black Sea as significantly more risky than the Mediterranean. Commercial shipping activity off the Crimea was interpreted as „probable sanction evasions“. Ship owners from the British Guernsey Islands as well as Romania recorded the highest proportion of ships exhibiting „risky“ behaviour. 42 vessels were classified as suspicious for drug smuggling based on their patterns.

    Frontex „early warning“ units

    The information from maritime surveillance is likely to be processed first by the „Risk Analysis Unit“ (RAU) at Frontex. It is supposed to support strategic decisions taken by the headquarters in Warsaw on issues of border control, return, prevention of cross-border crime as well as threats of a „hybrid nature“. Frontex calls the applications used there „intelligence products“ and „integrated data services“. Their results flow together in the „Common Integrated Risk Analysis Model“ (CIRAM).

    For the operational monitoring of the situation at the EU’s external borders, the agency also maintains the „Frontex Situation Centre“ (FSC). The department is supposed to provide a constantly updated picture of migration movements, if possible in real time. From these reports, Frontex produces „early warnings“ and situation reports to the border authorities of the member states as well as to the Commission and the Council in Brussels.

    More surveillance capacity in Warsaw

    According to its own information, Windward’s clients include the Italian Guardia di Finanza, which is responsible for controlling Italian territorial waters. The Ministry of the Interior in Rome is also responsible for numerous EU projects aimed at improving surveillance of the central Mediterranean. For the training and equipment of the Libyan coast guard, Italy receives around 67 million euros from EU funds in three different projects. Italian coast guard authorities are also installing a surveillance system for Tunisia’s external maritime borders.

    Frontex now wants to improve its own surveillance capacities with further tenders. Together with the fisheries agency, The agency is awarding further contracts for manned maritime surveillance. It has been operating such a „Frontex Aerial Surveillance Service“ (FASS) in the central Mediterranean since 2017 and in the Adriatic Sea since 2018. Frontex also wants to station large drones in the Mediterranean. Furthermore, it is testing Aerostats in the eastern Mediterranean for a second time. These are zeppelins attached to a 1,000-metre long line.

    #intelligence_artificielle #surveillance #surveillance_maritime #mer #asile #migrations #réfugiés #frontières #AI #Windward #Israël #complexe_militaro-industriel #militarisation_des_frontières #David_Petraeus #Thomson_Reuters #British_Petroleum #armée_israélienne #Gabi_Ashkenazi #International_Maritime_Organisation (#IMO) #thread_map #Risk_Analysis_Unit (#RAU) #Common_Integrated_Risk_Analysis_Model (#CIRAM) #Frontex_Situation_Centre (#FSC) #Frontex_Aerial_Surveillance_Service (#FASS) #zeppelins

    ping @etraces

    • Data et nouvelles technologies, la face cachée du contrôle des mobilités

      Dans un rapport de juillet 2020, l’Agence européenne pour la gestion opérationnelle des systèmes d’information à grande échelle (#EU-Lisa) présente l’intelligence artificielle (IA) comme l’une des « technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

      L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme Frontex ou EU-Lisa, ont été particulièrement actives dans l’#expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

      La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…


      Pour télécharger le rapport :

      ping @karine4 @rhoumour @_kg_ @i_s_

    • La #technopolice aux frontières

      Comment le #business de la #sécurité et de la #surveillance au sein de l’#Union_européenne, en plus de bafouer des #droits_fondamentaux, utilise les personnes exilées comme #laboratoire de recherche, et ce sur des #fonds_publics européens.

      On a beaucoup parlé ici ces derniers mois de surveillance des manifestations ou de surveillance de l’espace public dans nos villes, mais la technopolice est avant tout déployée aux #frontières – et notamment chez nous, aux frontières de la « forteresse Europe ». Ces #dispositifs_technopoliciers sont financés, soutenus et expérimentés par l’Union européenne pour les frontières de l’UE d’abord, et ensuite vendus. Cette surveillance des frontières représente un #marché colossal et profite grandement de l’échelle communautaire et de ses programmes de #recherche_et_développement (#R&D) comme #Horizon_2020.

      #Roborder – des essaims de #drones_autonomes aux frontières

      C’est le cas du projet Roborder – un « jeu de mots » entre robot et border, frontière en anglais. Débuté en 2017, il prévoit de surveiller les frontières par des essaims de #drones autonomes, fonctionnant et patrouillant ensemble. L’#intelligence_artificielle de ces drones leur permettrait de reconnaître les humains et de distinguer si ces derniers commettent des infractions (comme celui de passer une frontière ?) et leur dangerosité pour ensuite prévenir la #police_aux_frontières. Ces drones peuvent se mouvoir dans les airs, sous l’eau, sur l’eau et dans des engins au sol. Dotés de multiples capteurs, en plus de la détection d’activités criminelles, ces drones seraient destinés à repérer des “#radio-fréquences non fiables”, c’est-à-dire à écouter les #communications et également à mesurer la #pollution_marine.
      Pour l’instant, ces essaims de drones autonomes ne seraient pas pourvus d’armes. Roborder est actuellement expérimenté en #Grèce, au #Portugal et en #Hongrie.

      Un #financement européen pour des usages « civils »

      Ce projet est financé à hauteur de 8 millions d’euros par le programme Horizon 2020 (subventionné lui-même par la #Cordis, organe de R&D de la Commission européenne). Horizon 2020 représente 50% du financement public total pour la recherche en sécurité de l’UE. Roborder est coordonné par le centre de recherches et technologie de #Hellas (le #CERTH), en Grèce et comme le montre l’association #Homo_Digitalis le nombre de projets Horizon 2020 ne fait qu’augmenter en Grèce. En plus du CERTH grec s’ajoutent environ 25 participants venus de tous les pays de l’UE (où on retrouve les services de police d’#Irlande_du_Nord, le ministère de la défense grecque, ou encore des entreprises de drones allemandes, etc.).

      L’une des conditions pour le financement de projets de ce genre par Horizon 2020 est que les technologies développées restent dans l’utilisation civile, et ne puissent pas servir à des fins militaires. Cette affirmation pourrait ressembler à un garde-fou, mais en réalité la distinction entre usage civil et militaire est loin d’être clairement établie. Comme le montre Stephen Graham, très souvent les #technologies, à la base militaires, sont réinjectées dans la sécurité, particulièrement aux frontières où la migration est criminalisée. Et cette porosité entre la sécurité et le #militaire est induite par la nécessité de trouver des débouchés pour rentabiliser la #recherche_militaire. C’est ce qu’on peut observer avec les drones ou bien le gaz lacrymogène. Ici, il est plutôt question d’une logique inverse : potentiellement le passage d’un usage dit “civil” de la #sécurité_intérieure à une application militaire, à travers des ventes futures de ces dispositifs. Mais on peut aussi considérer la surveillance, la détection de personnes et la #répression_aux_frontières comme une matérialisation de la #militarisation de l’Europe à ses frontières. Dans ce cas-là, Roborder serait un projet à fins militaires.

      De plus, dans les faits, comme le montre The Intercept (https://theintercept.com/2019/05/11/drones-artificial-intelligence-europe-roborder), une fois le projet terminé celui-ci est vendu. Sans qu’on sache trop à qui. Et, toujours selon le journal, beaucoup sont déjà intéressés par Roborder.

      #IborderCtrl – détection d’#émotions aux frontières

      Si les essaims de drones sont impressionnants, il existe d’autres projets dans la même veine. On peut citer notamment le projet qui a pour nom IborderCtrl, testé en Grèce, Hongrie et #Lettonie.

      Il consiste notamment en de l’#analyse_d’émotions (à côté d’autres projets de #reconnaissances_biométriques) : les personnes désirant passer une frontière doivent se soumettre à des questions et voient leur #visage passer au crible d’un #algorithme qui déterminera si elles mentent ou non. Le projet prétend « accélérer le #contrôle_aux_frontières » : si le #détecteur_de_mensonges estime qu’une personne dit la vérité, un code lui est donné pour passer le contrôle facilement ; si l’algorithme considère qu’une personne ment, elle est envoyée dans une seconde file, vers des gardes-frontières qui lui feront passer un #interrogatoire. L’analyse d’émotions prétend reposer sur un examen de « 38 #micro-mouvements du visage » comme l’angle de la tête ou le mouvement des yeux. Un spectacle de gadgets pseudoscientifiques qui permet surtout de donner l’apparence de la #neutralité_technologique à des politiques d’#exclusion et de #déshumanisation.

      Ce projet a également été financé par Horizon 2020 à hauteur de 4,5 millions d’euros. S’il semble aujourd’hui avoir été arrêté, l’eurodéputé allemand Patrick Breyer a saisi la Cour de justice de l’Union Européenne pour obtenir plus d’informations sur ce projet, ce qui lui a été refusé pour… atteinte au #secret_commercial. Ici encore, on voit que le champ “civil” et non “militaire” du projet est loin de représenter un garde-fou.


      Ainsi, l’Union européenne participe activement au puissant marché de la surveillance et de la répression. Ici, les frontières et les personnes exilées sont utilisées comme des ressources de laboratoire. Dans une optique de militarisation toujours plus forte des frontières de la forteresse Europe et d’une recherche de profit et de développement des entreprises et centres de recherche européens. Les frontières constituent un nouveau marché et une nouvelle manne financière de la technopolice.

      Les chiffres montrent par ailleurs l’explosion du budget de l’agence européenne #Frontex (de 137 millions d’euros en 2015 à 322 millions d’euros en 2020, chiffres de la Cour des comptes européenne) et une automatisation toujours plus grande de la surveillance des frontières. Et parallèlement, le ratio entre le nombre de personnes qui tentent de franchir la Méditerranée et le nombre de celles qui y laissent la vie ne fait qu’augmenter. Cette automatisation de la surveillance aux frontières n’est donc qu’une nouvelle façon pour les autorités européennes d’accentuer le drame qui continue de se jouer en Méditerranée, pour une “efficacité” qui finalement ne profite qu’aux industries de la surveillance.

      Dans nos rues comme à nos frontières nous devons refuser la Technopolice et la combattre pied à pied !


  • Non avrai mai più i miei dati | il manifesto

    par Simone Pieranni (auteur de «Red Mirror»)

    Cina. Sotto la spinta dell’opinione pubblica cinese, per la prima volta una metropoli ha presentato una bozza di legge per arginare il riconoscimento facciale all’interno dei complessi residenziali

    Spesso in Occidente rimaniamo impressionati dalla facilità con la quale la tecnologia è entrata nella vita quotidiana dei cinesi. Certi aspetti di questo tema, per altro, ci riguardano da vicino e faremmo bene a osservare cosa accade in un posto così lontano, ma pur sempre inserito – sebbene con le proprie «caratteristiche» – all’interno di un contesto globale.

    Uno degli aspetti più rilevanti è senza dubbio quello del riconoscimento facciale, ormai utilizzato in molte attività e luoghi anche in Occidente, spesso senza neanche il consenso, o quanto meno un parere, della cittadinanza.

    #Simone Pieranni #Chine #Reconnaissance_faciale

  • Les possibilités de #fichage de la #police discrètement élargies par trois #décrets

    Trois décrets publiés vendredi au #Journal_Officiel, et passés quasiment inaperçus, créent la polémique et l’inquiétude des défenseurs des libertés. Ils vont permettre aux #forces_de_l'ordre et aux renseignements de collecter beaucoup plus d’#informations et des données très personnelles.

    Ficher les #opinions_politiques de certains Français, les #orientations_sexuelles, la #pratique_sportive, les #comportements_religieux, les activités sur les #réseaux_sociaux, c’est une nouvelle prérogative des forces de l’ordre, grâce à trois décrets parus vendredi en toute discrétion. Concrètement, avec ces décrets, l’exécutif élargit les possibilités de fichage de certains services de police et de #gendarmerie.

    Il ne s’agit pas, théoriquement, de collecter des données de tous les citoyens, mais, selon le décret, de personnes « susceptibles de porter atteinte aux #intérêts_fondamentaux_de_la_Nation, à l’#intégrité_du_territoire, ou des #institutions de la République. Ou encore de constituer une #menace_terroriste ».

    Données relatives aux #troubles_psychologiques, psychiatriques

    Ces nouvelles données, concernant de nouvelles personnes, viendront grossir trois fichiers : le fichier #Prévention_des_atteintes_à_la_sécurité_publique (#PASP), le fichier #Gestion_de_l’information_et_prévention_des_atteintes_à_la_sécurité_publique (#GIPASP) et le fichier #Enquêtes_administratives_liées_à_la_sécurité_publique (#EASP). Ce dernier fichier est utilisé pour réaliser les #enquêtes_administratives_préalables à certains recrutements dans la #fonction_publique.

    Des voix s’élèvent aujourd’hui pour s’inquiéter du périmètre - notamment - très large accordé au recueil des données, sachant que pour les terroristes potentiels, il existe d’autres fichiers. Il est question aussi de mieux surveiller les personnes morales et les groupements, autrement dit les #associations.

    Quant au contenu des données collectées : ce ne sont plus seulement les activités politiques, religieuses, syndicales, mais dorénavant également les #opinions_politiques, les #convictions_philosophiques, religieuses, ainsi que les comportements et habitudes de vie, les #pratiques_sportives... Autant de notions intrusives, sur lesquelles la CNIL a demandé des précisions. Avis non pris en compte.

    Le #renseignement_territorial pourra également enregistrer des données relatives aux troubles psychologiques ou psychiatriques qui peuvent être considérées comme des atteintes au #secret_médical.

    « Les fichiers de police dont on parle ne sont pas des #fichiers_judiciaires, ce sont des fichiers qui sont gérés par la police, seule, pour la police, explique Arthur Messaud, porte-parole de La Quadrature du Net. Ce ne sont pas non plus des fichiers de #contre-terrorisme. On est dans la lutte contre les sectes, la lutte contre les hooligans et la lutte contre les violences autour des trafics de drogue, mais aussi toutes les luttes, les #violences ou les #manifestations non déclarées autour des #mouvements_idéologiques. Il faut bien comprendre que là, quand je dis #violence, c’est tel qu’interprété par la police. »

    « Ce n’est pas un #juge qui va qualifier des #infractions_pénales. Non, c’est la police toute seule pour ces renseignements à elle, qui va surveiller des gens qu’elle considère comme dangereux pour le pouvoir en place » - Arthur Messaud

    Le décret comporte également un couplet sur les réseaux sociaux

    Surveillance actée des activités sur ces réseaux avec possibilité de recueil des #pseudonymes et #identifiant, pas les mots de passe, uniquement les informations mises en ligne volontairement en source ouverte. Mais il sera possible de capter les commentaires et surtout les #photos, #reconnaissance_faciale non exclue.

    La CNIL souligne que le résultat devra être recoupé et qu’il ne suffira en aucune manière à lui seul à fonder une décision à l’égard de la personne.

    Ces décrets apparaissent comme une nouvelle encoche dans nos #libertés. A minima une bombe à retardement si notre histoire démocratique venait à vaciller.

    Il y a 12 ans, le #fichier_Edwige prévoyait de collecter - déjà - des informations sur les opinions des personnes fichées. Des mobilisations citoyennes avaient permis de modifier la donne et le gouvernement avait autorisé le recueil de fichier uniquement sur les activités politiques des personnes et non plus leurs #opinions.

    #décret #France #données_personnelles

    ping @etraces

  • La #Technopolice, moteur de la « #sécurité_globale »

    L’article 24 de la #loi_Sécurité_Globale ne doit pas devenir l’arbre qui cache la forêt d’une politique de fond, au cœur de ce texte, visant à faire passer la #surveillance et le #contrôle_de_la_population par la police à une nouvelle ère technologique.

    Quelques jours avant le vote de la loi Sécurité Globale à l’Assemblée Nationale, le ministère de l’Intérieur présentait son #Livre_blanc. Ce long #rapport de #prospective révèle la #feuille_de_route du ministère de l’Intérieur pour les années à venir. Comme l’explique Gérard Darmanin devant les députés, la proposition de loi Sécurité Globale n’est que le début de la transposition du Livre dans la législation. Car cette loi, au-delà de l’interdiction de diffusion d’#images de la police (#article_24), vise surtout à renforcer considérablement les pouvoirs de surveillance des #forces_de_l’ordre, notamment à travers la légalisation des #drones (article 22), la diffusion en direct des #caméras_piétons au centre d’opération (article 21), les nouvelles prérogatives de la #police_municipale (article 20), la #vidéosurveillance dans les hall d’immeubles (article 20bis). Cette loi sera la première pierre d’un vaste chantier qui s’étalera sur plusieurs années.

    Toujours plus de pouvoirs pour la police

    Le Livre blanc du ministère de l’Intérieur envisage d’accroître, à tous les niveaux, les pouvoirs des différentes #forces_de_sécurité (la #Police_nationale, la police municipale, la #gendarmerie et les agents de #sécurité_privée) : ce qu’ils appellent, dans la novlangue officielle, le « #continuum_de_la_sécurité_intérieure ». Souhaitant « renforcer la police et la rendre plus efficace », le livre blanc se concentre sur quatre angles principaux :

    - Il ambitionne de (re)créer une #confiance de la population en ses forces de sécurité, notamment par une #communication_renforcée, pour « contribuer à [leur] légitimité », par un embrigadement de la jeunesse – le #Service_National_Universel, ou encore par la création de « #journées_de_cohésion_nationale » (page 61). Dans la loi Sécurité Globale, cette volonté s’est déjà illustrée par la possibilité pour les policiers de participer à la « #guerre_de_l’image » en publiant les vidéos prises à l’aide de leurs #caméras_portatives (article 21).
    - Il prévoit d’augmenter les compétences des #maires en terme de sécurité, notamment par un élargissement des compétences de la police municipale : un accès simplifié aux #fichiers_de_police, de nouvelles compétences en terme de lutte contre les #incivilités … (page 135). Cette partie-là est déjà en partie présente dans la loi Sécurité Globale (article 20).
    - Il pousse à une #professionnalisation de la sécurité privée qui deviendrait ainsi les petites mains de la police, en vu notamment des #Jeux_olympiques Paris 2024, où le besoin en sécurité privée s’annonce colossal. Et cela passe par l’augmentation de ses #compétences : extension de leur #armement, possibilité d’intervention sur la #voie_publique, pouvoir de visionner les caméras, et même le port d’un #uniforme_spécifique (page 145).
    - Enfin, le dernier grand axe de ce livre concerne l’intégration de #nouvelles_technologies dans l’arsenal policier. Le titre de cette partie est évocateur, il s’agit de « porter le Ministère de l’Intérieur à la #frontière_technologique » (la notion de #frontière évoque la conquête de l’Ouest aux États-Unis, où il fallait coloniser les terres et les premières nations — la reprise de ce vocable relève d’une esthétique coloniale et viriliste).

    Ce livre prévoit une multitude de projets plus délirants et effrayants les uns que les autres. Il propose une #analyse_automatisée des #réseaux_sociaux (page 221), des #gilets_connectés pour les forces de l’ordre (page 227), ou encore des lunettes ou #casques_augmentés (page 227). Enfin, le Livre blanc insiste sur l’importance de la #biométrie pour la police. Entre proposition d’#interconnexion des #fichiers_biométriques (#TAJ, #FNAEG, #FAED…) (page 256), d’utilisation des #empreintes_digitales comme outil d’#identification lors des #contrôles_d’identité et l’équipement des #tablettes des policiers et gendarmes (#NEO et #NEOGEND) de lecteur d’empreinte sans contact (page 258), de faire plus de recherche sur la #reconnaissance_vocale et d’#odeur (!) (page 260) ou enfin de presser le législateur pour pouvoir expérimenter la #reconnaissance_faciale dans l’#espace_public (page 263).

    Le basculement technologique de la #surveillance par drones

    Parmi les nouveaux dispositifs promus par le Livre blanc : les #drones_de_police, ici appelés « #drones_de_sécurité_intérieure ». S’ils étaient autorisés par la loi « Sécurité Globale », ils modifieraient radicalement les pouvoirs de la police en lui donnant une capacité de surveillance totale.

    Il est d’ailleurs particulièrement marquant de voir que les rapporteurs de la loi considèrent cette légalisation comme une simple étape sans conséquence, parlant ainsi en une phrase « d’autoriser les services de l’État concourant à la #sécurité_intérieure et à la #défense_nationale et les forces de sécurité civile à filmer par voie aérienne (…) ». Cela alors que, du côté de la police et des industriels, les drones représentent une révolution dans le domaine de la sécurité, un acteur privé de premier plan évoquant au sujet des drones leur « potentiel quasiment inépuisable », car « rapides, faciles à opérer, discrets » et « tout simplement parfaits pour des missions de surveillance »

    Dans les discours sécuritaires qui font la promotion de ces dispositifs, il est en effet frappant de voir la frustration sur les capacités « limitées » (selon eux) des caméras fixes et combien ils fantasment sur le « potentiel » de ces drones. C’est le cas du maire LR d’Asnières-sur-Seine qui en 2016 se plaignait qu’on ne puisse matériellement pas « doter chaque coin de rue de #vidéoprotection » et que les drones « sont les outils techniques les plus adaptés » pour pallier aux limites de la présence humaine. La police met ainsi elle-même en avant la toute-puissance du #robot par le fait, par exemple pour les #contrôles_routiers, que « la caméra du drone détecte chaque infraction », que « les agents démontrent que plus rien ne leur échappe ». Même chose pour la #discrétion de ces outils qui peuvent, « à un coût nettement moindre » qu’un hélicoptère, « opérer des surveillances plus loin sur l’horizon sans être positionné à la verticale au-dessus des suspects ». Du côté des constructeurs, on vante les « #zooms puissants », les « #caméras_thermiques », leur donnant une « #vision_d’aigle », ainsi que « le #décollage possible pratiquement de n’importe où ».

    Tout cela n’est pas que du fantasme. Selon un rapport de l’Assemblée nationale, la police avait, en 2019, par exemple 30 drones « de type #Phantom_4 » et « #Mavic_Pro » (ou « #Mavic_2_Enterprise » comme nous l’avons appris lors de notre contentieux contre la préfecture de police de Paris). Il suffit d’aller voir les fiches descriptives du constructeur pour être inondé de termes techniques vantant l’omniscience de son produit : « caméra de nacelle à 3 axes », « vidéos 4K », « photos de 12 mégapixels », « caméra thermique infrarouge », « vitesse de vol maximale à 72 km/h » … Tant de termes qui recoupent les descriptions faites par leurs promoteurs : une machine volante, discrète, avec une capacité de surveiller tout (espace public ou non), et de loin.

    Il ne s’agit donc pas d’améliorer le dispositif de la vidéosurveillance déjà existant, mais d’un passage à l’échelle qui transforme sa nature, engageant une surveillance massive et largement invisible de l’espace public. Et cela bien loin du léger cadre qu’on avait réussi à imposer aux caméras fixes, qui imposait notamment que chaque caméra installée puisse faire la preuve de son utilité et de son intérêt, c’est-à-dire de la nécessité et de la #proportionnalité de son installation. Au lieu de cela, la vidéosurveillance demeure une politique publique dispendieuse et pourtant jamais évaluée. Comme le rappelle un récent rapport de la Cour des comptes, « aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de la délinquance commise sur la voie publique, ou encore les taux d’élucidation ». Autre principe fondamental du droit entourant actuellement la vidéosurveillance (et lui aussi déjà largement inappliqué) : chaque personne filmée doit être informée de cette surveillance. Les drones semblent en contradiction avec ces deux principes : leur utilisation s’oppose à toute notion d’information des personnes et de nécessité ou proportionnalité.

    Où serons-nous dans 4 ans ?

    En pratique, c’est un basculement total des #pratiques_policières (et donc de notre quotidien) que préparent ces évolutions technologiques et législatives. Le Livre blanc fixe une échéance importante à cet égard : « les Jeux olympiques et paralympiques de Paris de 2024 seront un événement aux dimensions hors normes posant des enjeux de sécurité majeurs » (p. 159). Or, « les Jeux olympiques ne seront pas un lieu d’expérimentation : ces technologies devront être déjà éprouvées, notamment à l’occasion de la coupe de monde de Rugby de 2023 » (p. 159).

    En juillet 2019, le rapport parlementaire cité plus haut constatait que la Police nationale disposait de 30 drones et de 23 pilotes. En novembre 2020, le Livre blanc (p. 231) décompte 235 drones et 146 pilotes. En 14 mois, le nombre de drones et pilotes aura été multiplié par 7. Dès avril 2020, le ministère de l’Intérieur a publié un appel d’offre pour acquérir 650 drones de plus. Rappelons-le : ces dotations se sont faites en violation de la loi. Qu’en sera-t-il lorsque les drones seront autorisés par la loi « sécurité globale » ? Avec combien de milliers d’appareils volants devra-t-on bientôt partager nos rues ? Faut-il redouter, au cours des #JO de 2024, que des dizaines de drones soient attribués à la surveillance de chaque quartier de la région parisienne, survolant plus ou moins automatiquement chaque rue, sans répit, tout au long de la journée ?

    Les évolutions en matières de reconnaissance faciale invite à des projections encore plus glaçantes et irréelles. Dès 2016, nous dénoncions que le méga-fichier #TES, destiné à contenir le visage de l’ensemble de la population, servirait surtout, à terme, à généraliser la reconnaissance faciale à l’ensemble des activités policières : enquêtes, maintien de l’ordre, contrôles d’identité. Avec le port d’une caméra mobile par chaque brigade de police et de gendarmerie, tel que promis par Macron pour 2021, et la retransmission en temps réel permise par la loi « sécurité globale », ce rêve policier sera à portée de main : le gouvernement n’aura plus qu’à modifier unilatéralement son #décret_TES pour y joindre un système de reconnaissance faciale (exactement comme il avait fait en 2012 pour permettre la reconnaissance faciale à partir du TAJ qui, à lui seul, contient déjà 8 millions de photos). Aux robots dans le ciel s’ajouteraient des humains mutiques, dont le casque de réalité augmentée évoqué par le Livre Blanc, couplé à l’analyse d’image automatisée et aux tablettes numériques NEO, permettrait des contrôles systématiques et silencieux, rompus uniquement par la violence des interventions dirigées discrètement et à distance à travers la myriade de drones et de #cyborgs.

    En somme, ce Livre Blanc, dont une large partie est déjà transposée dans la proposition de loi sécurité globale, annonce le passage d’un #cap_sécuritaire historique : toujours plus de surveillance, plus de moyens et de pouvoirs pour la police et consorts, dans des proportions et à un rythme jamais égalés. De fait, c’est un #État_autoritaire qui s’affirme et se consolide à grand renfort d’argent public. Le Livre blanc propose ainsi de multiplier par trois le #budget dévolu au ministère de l’Intérieur, avec une augmentation de 6,7 milliards € sur 10 ans et de 3 milliards entre 2020 et 2025. Une provocation insupportable qui invite à réfléchir sérieusement au définancement de la police au profit de services publiques dont le délabrement plonge la population dans une #insécurité bien plus profonde que celle prétendument gérée par la police.

    #France #Etat_autoritaire

    ping @isskein @karine4 @simplicissimus @reka @etraces

  • L’ONU met en garde contre l’impact des frontières intelligentes sur les réfugiés

    Tendayi Achiume, rapporteure spéciale de l’ONU sur le racisme, la discrimination raciale, la xénophobie et l’intolérance, a appelé à un moratoire sur l’utilisation de certaines technologies de surveillance utilisées dans les programmes de « frontières intelligentes », révèle The Guardian.

    Dans un rapport à paraître, elle qualifie de « troublants » les détecteurs de mensonge dans les aéroports européens, les scans oculaires effectués dans les camps de réfugiés ou les logiciels de reconnaissance vocale utilisés dans les demandes d’asile. Elle estime que ces technologies peuvent en outre être injustes et enfreindre les droits de l’homme.

    Elle a également cité les efforts de Donald Trump pour construire un mur entre les États-Unis et le Mexique : « il s’avère que les décès aux frontières ont augmenté dans les endroits où des frontières intelligentes ont été mises en place ».

    Petra Molnar, du Refugee Law Lab de Toronto, qui a contribué au rapport du rapporteur de l’ONU, a noté dans ses propres recherches l’impact déshumanisant de certaines technologies sur les personnes déplacées . Un demandeur d’asile, avec qui elle s’est entretenue en Belgique, a déclaré que la quantité de données personnelles auxquelles il avait renoncé lui faisait se sentir « comme un morceau de viande sans vie, juste des empreintes digitales et des scans oculaires ».

    « L’un des messages clés du rapport est que nous devons être très attentifs à l’impact disparate de cette technologie et pas seulement supposer que parce que la technologie va être juste ou neutre ou objective d’une manière ou d’une autre ».

    « La collecte de données n’est pas un exercice apolitique », note le rapport d’Achiume, « en particulier lorsque de puissants acteurs du Nord mondial collectent des informations sur les populations vulnérables sans méthodes réglementées de surveillance et de responsabilité. »

    L’année dernière, le Programme alimentaire mondial des Nations Unies s’est ainsi associé à Palantir Technologies, rappelle The Guardian, sur un contrat de 45 millions de dollars, partageant les données de 92 millions de bénéficiaires de l’aide.

    Achiume a déclaré que jusqu’à ce que l’impact des technologies de surveillance sur les droits de l’homme puisse être compris, l’utilisation de ces technologies devrait être interrompue. « Jusqu’à ce que nous puissions comprendre et atténuer ces préjudices, il devrait y avoir un moratoire à leur encontre. »

    #Reconnaissance_faciale #Migrants #Droits_humains #Frontières

  • UN warns of impact of smart borders on refugees: ‘Data collection isn’t apolitical’

    Special rapporteur on racism and xenophobia believes there is a misconception that biosurveillance technology is without bias

    Robotic lie detector tests at European airports, eye scans for refugees and voice-imprinting software for use in asylum applications are among new technologies flagged as “troubling” in a UN report.

    The UN’s special rapporteur on racism, racial discrimination, xenophobia and related intolerance, Prof Tendayi Achiume, said digital technologies can be unfair and regularly breach human rights. In her new report, she has called for a moratorium on the use of certain surveillance technologies.

    Achiume, who is from Zambia, told the Guardian she was concerned about the rights of displaced people being compromised. She said there was a misconception that such technologies, often considered “a humane” option in border enforcement, are without bias.

    “One of the key messages of the report is that we have to be paying very close attention to the disparate impact of this technology and not just assuming that because it’s technology, it’s going to be fair or be neutral or objective in some way.”

    She cited the example of pushback against Donald Trump’s effort to build a wall between the US and Mexico. “You see that there isn’t a similar sense of outrage when digital technologies are deployed to serve the same function … if you actually look at some of the statistics, and if you look at some of the research, which I cite in my report, it turns out that border deaths have increased in places where smart borders have been implemented.”

    She also raised concerns about the ways in which humanitarian agencies are engaging with surveillance. The report notes that in Afghanistan, the UN refugee agency (UNHCR) requires returning refugees to undergo iris registration as a prerequisite for receiving assistance.

    While the UNHCR has justified the use of this technology as a way to prevent fraud, “the impact of processing such sensitive data can be grave when systems are flawed or abused”, the report said.

    Last year the UN’s World Food Programme partnered with Palantir Technologies, a data mining company, on a $45m (£34m) contract, sharing the data of 92 million aid recipients.

    “Data collection is not an apolitical exercise,” notes Achiume’s report, “especially when powerful global north actors collect information on vulnerable populations with no regulated methods of oversights and accountability.”

    Covid-19 has also accelerated “biosurveillance” – focused on tracking people’s movements and health. Biosurveillance has everyday uses, such as the “track and trace” app in the UK, but there are concerns about the regulation of large-scale data harvested from populations.

    One example is the “Covi-Pass”, a health passport developed by Mastercard and Gavi, a private-public health alliance, that is reportedly due to be rolled out across west Africa. The UN report highlighted the implications of such passports for freedom of movement, “especially for refugees”.

    Petra Molnar from the Refugee Law Lab in Toronto said it was clear that the pandemic was increasing digital rights violations. “State responses to the pandemic are exacerbating the turn towards biosurveillance, with refugees and people on the move acting as communities on which to test various interventions and fast-track tech development,” she said.

    Molnar, who contributed to the UN rapporteur’s report, has noted the dehumanising impact of some technologies on displaced people in her own research. One asylum seeker she spoke to in Belgium said the amount of personal data he’d given up made him feel, “like a piece of meat without a life, just fingerprints and eye scans”.

    “Our conversations with refugees and people crossing borders show how little attention is being paid to the lived experiences of people who are at the sharp edges of these high-risk technological experiments,” said Molnar.

    The intersection of technology and human rights violations were highlighted in a recent investigation into the European border agency Frontex, which allegedly witnessed pushbacks of migrants in the Aegean Sea via some of its assets, including drones.

    Konstantinos Kakavoulis from Homo Digitalis, a Greek organisation focused on digital rights, said technologies often outpaced the legal framework.

    “There is no clear regulation for the use of drones or body-worn cameras by the Greek police,” he said. “The police have signed a contract for the provision of a facial recognition software with Intracom Telecom, a Greek company, without receiving the opinion of the Greek data protection authority.”

    He added: “Apart from the insufficiency of legal safeguards, we also lack transparency; and this is not only remarkable, but highly problematic.”

    Achiume said that until the impact of surveillance technologies on human rights could be understood, use of such technologies should be halted. “Until we can understand and mitigate those harms, there should just be a moratorium on them.”


    #frontières #smart_borders #frontières_intelligentes #réfugiés #asile #migrations #technologie #politique #biopolitique #technologies_digitales #droits_fondamentau #droits_humains #surveillance #contrôles_frontaliers #neutralité #Palantir_Technologies #données #biosurveillance #Covi-Pass #Mastercard #Gavi #complexe_militaro-industriel #covid-19 #coronavirus #reconnaissance_faciale #Intracom_Telecom

    ping @karine4 @isskein @etraces @thomas_lacroix

  • [vidéo] « Pourtant la ville t’appartient » | Mačko Dràgàn

    C’est quoi, un espace public ? Pour le pouvoir c’est un lieu à gentrifier, privatiser, fliquer. Pour nous, habitant.e.s des quartiers, précaires, sans-abris, squatteurs, artistes de rue, manifestant.e.s, c’est un lieu de vie. Nous avons donné la parole à ces invisibles, afin de voir ce que nous avons perdu –et ce qu’il nous faut reprendre. Parce qu’on peut vivre ensemble. Sans répression. Durée : 1h22. Source : Technopolice

  • À l’aéroport de Lyon, Vinci banalise la reconnaissance faciale

    L’expérimentation de reconnaissance faciale lancée la semaine dernière par Vinci Airports est un nouveau pas vers la banalisation des technologies de surveillance biométrique. Grâce aux financements de l’Etat et au soutien implicite de la Cnil, l’entreprise Idemia a pu déployer sans inquiétude son dispositif biométrique dans l’espace public. Nulle doute qu’elle et les autres entreprises de la Technopolice sauront en profiter. Lundi 5 octobre, l’entreprise Vinci Airports a annoncé le lancement d’une (...)

    #Vinci #algorithme #CCTV #biométrie #facial #reconnaissance #vidéo-surveillance #surveillance # #LaQuadratureduNet (...)

    ##_ ##Technopolice

  • L’#artiste #Paolo_Cirio affiche des visages de policiers dans Paris pour dénoncer la reconnaissance faciale

    La #pétition pour « bannir la #reconnaissance_faciale en Europe » a recueilli près de 14 000 signatures. Le #hacker militant et artiste Paolo Cirio y participe grâce à une performance bien particulière, en placardant à travers la capitale française des centaines d’affiches de visages de policiers récupérés sur Internet. Entretien.
    Paolo Cirio est très connu dans le milieu des défenseurs de la vie privée sur Internet. Il l’est moins du grand public, ce qui pourrait changer après sa performance artistique urbaine nommée "Capture "et lancée ce premier octobre 2020.


    pétition :

  • L’artiste Paolo Cirio affiche des visages de policiers dans Paris pour dénoncer la reconnaissance faciale.

    Paolo Cirio — pour son dernier projet nommé Capture — a créé une base de données contenant 4000 visages de policiers français pour les identifier avec une technologie de reconnaissance faciale, via sa plateforme https://capture-police.com. Ce jeudi premier octobre 2020, l’artiste effectue donc une performance de « street art » en dévoilant une partie des portraits des officiers de police tirés de sa plateforme, affichés un peu partout dans la capitale française.

    J’ai choisi le mot Capture parce qu’il est court et qu’il résume bien le concept qu’il y a derrière la reconnaissance faciale. Particulièrement lorsque cette technologie est utilisée par la police. Ils l’utilisent pour capturer des criminels, des manifestants, pour les attraper, donc les capturer grâce à des logiciels et des caméras.

    Quand vous capturez un visage avec un appareil photo vous faites la même chose que ce que fait la police qui tente de capturer quelqu’un. C’est comme ça que m’est venue l’idée de ce projet Capture, en utilisant des photos de visages de policiers, des visages que j’ai capturés moi aussi, sur le Net.

    Tout le monde doit être inquiet par l’émergence de cette technologie qui va permettre la surveillance de masse, les analyses des comportements, des émotions des gens dans la rue, comme en Chine.

    J’ai en fait renversé le procédé de la reconnaissance faciale en l’utilisant contre ceux qui normalement l’utilisent contre des citoyens, c’est-à-dire les policiers. Je veux démontrer que cette technologie est très puissante et qu’elle peut être utilisée par des activistes, des citoyens, mais aussi par des criminels ou des terroristes, et ce, contre la police.

    Cela peut ressembler à une grosse provocation, mais en fait, cela peut-être aussi pris comme une manière de protéger la police en leur montrant les dangers de cette technologie. En fait, j’aimerais que les policiers signent eux aussi la pétition pour bannir la reconnaissance faciale en Europe.

    • Synergie-Officiers @PoliceSynergie

      Merci à ⁦@GDarmanin⁩ pour la promptitude de sa réaction et sa fermeté pour défendre les #policiers et leurs familles. Son intervention a permis de déprogrammer une entreprise criminogène sous couvert d’une démarche artistique. #Police # Jesoutienslapolice #BlueLivesMatter

      Le Fresnoy déprogramme :

      Des fafs tous les jours sur les chaînes info et dans la presse, des lois et décrets liberticides, racistes et anti pauvres comme si il en pleuvait, et des débats" sur la « cancel culture » et la longueur des vêtements des scolarisées.

      #police #reconnaissance_faciale #censure #école_d'art #exposition #culture #art

    • #fuite suite aux menaces

      "« Je ne me sens plus en sécurité dans ce pays », lâche, amer, l’artiste et hacktiviste Paolo Cirio qui a quitté précipitamment la France la semaine dernière après avoir reçu plusieurs menaces par mails. L’exposition de son œuvre Capture venait d’être annulée, dans laquelle il entendait dénoncer les dangers de la reconnaissance faciale en exposant des visages de policiers trouvés sur internet.

      Pour réaliser son projet, Paolo Cirio avait « collecté 1 000 images publiques de policiers, dans des photos prises durant des manifestations en France, et les avaient soumises à un logiciel de reconnaissance faciale », explique l’artiste sur son site. Ce procédé lui a permis de récupérer 4 000 visages de policiers. Ceux-ci devaient être exposés, sous forme d’une fresque, dans le cadre de l’exposition Panorama 22. Les Sentinelles, qui s’ouvre jeudi 15 octobre au studio national des arts contemporains Le Fresnoy de Tourcoing.

      Le jour de la mise en ligne de la présentation de son projet, le jeudi 1er octobre, Paulo Cirio avait également mené une action dans les rues de Paris y affichant certains des portraits de policiers. L’opération était accompagnée de la mise en place d’un site internet, capture-police.com, répertoriant les photos et invitant les internautes à identifier les agents qu’ils pourraient reconnaître, ainsi que d’une pétition appelant à l’interdiction de la reconnaissance faciale.

      « La police appelle à l’utilisation de la reconnaissance faciale sur les manifestants, les minorités et les civils, alors qu’elle se rend non identifiable lors d’affrontements publics, poursuit le site internet de l’artiste. Dans le projet Capture, la reconnaissance faciale se retourne contre les mêmes autorités publiques et forces de l’ordre qui cherchent à en justifier la nécessité. »

      Mais les choses ne se sont pas passées comme Paolo Cirio l’avait prévu. Immédiatement après sa mise en ligne, le projet de l’artiste provoque une levée de boucliers. « Ça a été très vite », raconte-t-il à Mediapart. Il y eut tout d’abord les réactions indignées de syndicats de policiers – « seulement une heure après avoir publié mon projet », se souvient Paolo Cirio – qui en appellent à leur ministre de tutelle, Gérald Darmanin. Celui-ci, qui se trouve être par ailleurs ancien maire de Tourcoing, ville où se situe le studio Le Fresnoy, réagit quelques heures plus tard.

      « Insupportable mise au pilori de femmes et d’hommes qui risquent leur vie pour nous protéger, écrit le ministre de l’intérieur sur Twitter. Je demande la déprogrammation de l’“exposition” et le retrait des photos de son site, sous peine de saisir les juridictions compétentes. »

      Dès le lendemain, Le Fresnoy annule effectivement l’exposition de Paolo Cirio. « Nous ne pouvons en aucun cas adhérer à une démarche qui associe l’œuvre en question à une plateforme numérique où l’artiste invite à identifier et à désigner nommément des policiers, dont les photographies ont été préalablement diffusées sur internet », écrit le studio dans un communiqué en date du vendredi 2 octobre et largement diffusé sur les réseaux sociaux par des syndicats de policiers. « Par cette démarche qui a changé la nature de l’intervention du Fresnoy, l’artiste a violé les engagements qu’il avait pris de ne rien faire de tel devant les responsables du Fresnoy, et la direction de la Condition publique, ce qui nous a profondément choqués », poursuit-il.

      Parallèlement, Paolo Cirio reçoit sur sa boîte mails des messages d’insultes et d’autres plus inquiétants. « J’ai reçu de nombreux messages, dont certains très violents disant par exemple qu’ils me surveillaient ou qu’ils me trouveraient », raconte-t-il. Aucune menace de mort directe, mais des pressions et des insinuations assez précises pour le décider à retirer son site internet, qui a depuis été remplacé par la pétition.

      Et pour le convaincre de quitter le territoire français. « Je suis parti car je ne me sens plus en sécurité, explique Paolo Cirio. Je venais deux, trois fois en France par an. J’ai même donné des cours au Fresnoy. Mais pour l’instant, je pense que je ne reviendrai pas. »

  • L’essor des réseaux de caméras intelligentes, et pourquoi nous devrions les interdire

    Source : The Intercept, Michael Kwet La #Reconnaissance_Faciale inquiète un peu partout. Qu’on puisse, par caméra, suivre nos moindres mouvements en public préoccupe beaucoup plus que l’existence et la prévalence exponentielle des réseaux de vidéosurveillance « intelligents », alors qu’il s’agit d’un sujet tout aussi inquiétant. Les ménages et les sociétés privées commencent à connecter leurs caméras sur les réseaux policiers, et les rapides progrès de l’intelligence artificielle donnent aux réseaux de télévision en circuit fermé le pouvoir de surveiller la totalité de l’espace public. Dans un avenir pas si lointain, nos forces de police, nos magasins, et notre administration municipale espèrent pouvoir filmer notre moindre mouvement, et même mieux, l’interpréter par le biais de l’analyse des métadonnées. (...)

    #Libertés_Publiques #Surveillance_de_masse #Libertés_Publiques,_Reconnaissance_Faciale,_Surveillance_de_masse

  • Racisme policier : les géants du Net font mine d’arrêter la reconnaissance faciale

    À un moment où l’institution policière est remise en question, les multinationales de la sécurité tentent de se racheter une image par des effets d’annonce : elles arrêteraient la reconnaissance faciale car la technologie ne serait…


  • Les réseaux politiques de Benalla lui ouvrent le marché de la reconnaissance faciale - Page 1 | Mediapart

    En pleine pandémie du Covid-19, Alexandre Benalla a mis un pied dans le marché de la reconnaissance faciale, secteur en pleine expansion en France, notamment pour ses applications en matière de sécurité, grâce au concours de plusieurs intermédiaires politiques, selon les informations de Mediapart.

    En pleine pandémie du Covid-19, Alexandre Benalla a mis un pied dans le marché de la reconnaissance faciale, secteur en pleine expansion en France, notamment pour ses applications en matière de sécurité, grâce au concours de plusieurs intermédiaires politiques, selon les informations de Mediapart : l’ancien collaborateur du député Joachim Son-Forget et l’homme d’affaires Yazid Sabeg, ex-commissaire à la diversité de Nicolas Sarkozy.

    L’ancien collaborateur d’Emmanuel Macron a été reçu une première fois, mardi 26 mai, à Suresnes (Hauts-de-Seine), dans les locaux de la société française « XXII », une jeune entreprise française qui développe la technologie prometteuse de « vision par ordinateur » (une branche de l’intelligence artificielle qui permet le traitement de données visuelles).

    Fondée en 2016, l’entreprise travaille notamment avec Airbus, Safran, Total, Aéroports de Paris ou des collectivités territoriales, en vue de développer des « safe cities », des réseaux urbains sécurisés par la reconnaissance faciale.

    Alexandre Benalla a été introduit auprès de XXII par l’ex-assistant parlementaire du député des Français de l’étranger Joachim Son-Forget, un certain Romain Chantemargue. Ce dernier, âgé de 20 ans, et ancien stagiaire chez XXII, vient d’être élu aux municipales dans la commune de Cormeilles-en-Parisis (Val-d’Oise). Il présidait, jusqu’au 2 juin, le micro-parti « Valeur absolue », fondé par Son-Forget après sa démission fracassante de La République en marche, en décembre 2018.

    L’ancien chargé de mission élyséen a rencontré l’assistant « à l’automne dernier », par l’intermédiaire de Joachim Son-Forget. Le jeune homme lui aurait d’abord offert ses services pour s’occuper de la certification de ses comptes sur les réseaux sociaux « gratuitement », « à titre amical », précise à Mediapart Alexandre Benalla. Puis il lui aurait proposé de rencontrer le patron de la start-up XXII, William Eldin.

    Pour Romain Chantemargue, il s’agissait de valoriser XXII, qui « est le seul acteur à faire de l’intelligence artificielle avec de la vision par ordinateur dans le domaine de la sécurité ». « C’est quelque chose qui se développe énormément. En Chine, en Israël avec Anyvision [voir ce documentaire https://www.arte.tv/fr/videos/083310-000-A/tous-surveilles-7-milliards-de-suspects sur le leader mondial de la reconnaissance faciale, proche des services de sécurité israéliens – ndlr]. En France, il y a XXII », explique à Mediapart le jeune homme, passionné d’informatique.

    Dans un premier temps, l’assistant parlementaire avait prévu d’organiser un rendez-vous entre XXII et Emmanuel Macron. « Romain Chantemargue m’a dit : “Je pourrais te faire rencontrer le président, ce serait cool.” Je dis : vas-y, go pour le président », confirme à Mediapart William Eldin, enthousiaste à l’idée de présenter au chef de l’État les enjeux de la technologie qu’il développe. « On a abordé le sujet ensemble avec William Eldin. J’ai dit que ça peut être intéressant de proposer au chef de cabinet une rencontre entre le président et une start-up qui travaille sur ce sujet », justifie l’assistant, en assurant toutefois qu’il s’agit d’une « réflexion » qui n’a pas abouti à ce stade.

    Contacté, l’Élysée n’a pas souhaité faire de commentaires.

    Quelques jours plus tard, le projet a changé de dimension. « Au dernier moment ça s’est réorienté, Romain Chantemargue m’a envoyé un message en me disant : “Et Alexandre Benalla ça te tente de le voir ?” », raconte William Eldin. Le patron de XXII accepte la proposition en se disant qu’Alexandre Benalla « n’est pas loin du président » et qu’il dispose d’un réseau important dans le domaine de la sécurité.

    Aucun projet concret n’a été acté lors de cette première rencontre du 26 mai. « Alexandre Benalla pense que j’ai une pépite dans les mains. Il m’a dit qu’il voit très bien le genre de cas d’utilisation qui pourraient lui être utiles », explique William Eldin. Romain Chantemargue explique ne pas avoir été rémunéré pour organiser ce rendez-vous : « Je ne suis pas payé par Alexandre, répond-il. J’ai une relation purement de travail avec lui. Si je peux faire des mises en relation autant le faire. Alexandre est quelqu’un d’adorable et très sérieux. »

    Selon le patron de XXII, l’ancien collaborateur du président a notamment indiqué « qu’il agissait beaucoup dans des pays étrangers ». Alexandre Benalla indique à Mediapart que cette rencontre a eu lieu dans le cadre du « développement » des activités de sa société, Comya Group, qui « est basée au Maroc » et qu’il est en train « de rebaser en France ». « [Le but] c’est de développer des propositions et des solutions vis-à-vis de mes clients : solutions globales de sécurité, solutions intégrées, cybersécurité, reconnaissance faciale, digitalisation des smart cities », détaille-t-il.

    Cette rencontre, dit-il, « n’intervenait en aucun cas dans le cadre d’un quelconque rapport avec M. Macron ». « Si à un moment l’Élysée a été abordé, c’est par M. Eldin, qui a soulevé le fait qu’il adorerait rencontrer Emmanuel Macron, et je n’ai pas répondu à cette phrase d’ailleurs », ajoute-t-il.

    L’ex-collaborateur d’Emmanuel Macron souligne n’avoir « plus de liens avec l’Élysée ». « Je ne veux plus avoir de liens avec aucun politique, aucun collaborateur, ça m’a apporté et ça m’apporterait plus de problèmes que de solutions. Je bosse aujourd’hui à titre privé, personnel, avec ma boîte. [...] Je développe mes activités de manière tout à fait – non pas transparente, parce que c’est un domaine qui n’est pas transparent –, mais en tout cas de manière légale. »

    Ses marges de manœuvre sont en tout cas, en théorie, très limitées : comme l’avait révélé Mediapart https://www.mediapart.fr/journal/france/160419/la-commission-de-deontologie-interdit-certaines-activites-alexandre-benall, la commission de déontologie de la fonction publique (CDFP) lui a interdit d’entretenir toute relation professionnelle avec des services publics de sécurité français ou avec des autorités publiques étrangères. Ces interdictions sont valables trois ans à compter du départ de M. Benalla de la présidence, soit jusqu’au 1er août 2021, mais – preuve supplémentaire de la faiblesse des dispositifs de contrôle en France – elles ne font l’objet d’aucune vérification systématique.

    Depuis son départ de l’Élysée après sa mise en cause pour des violences volontaires, l’ancien chargé de mission élyséen est concerné par plusieurs procédures judiciaires https://www.mediapart.fr/journal/france/220120/benalla-un-temoin-cle-implique-l-elysee-dans-l-affaire-des-coffres (violences du 1er Mai, selfie armé, passeports diplomatiques, contrats russes, soupçons de « faux témoignage », disparition du coffre-fort, absence de déclaration auprès de la HATVP) et mis en examen dans plusieurs d’entre elles.

    Alexandre Benalla affirme respecter « complètement » l’avis de la CDFP en ne travaillant « pas pour la sphère publique, pas pour des clients nationaux en France » mais « à l’international », et que pour « des personnes physiques ou morales privées ». Mais « dans un an, j’aurai la possibilité à nouveau de pouvoir dialoguer, proposer des offres commerciales à des entités, des États publics étrangers », précise-t-il. Actuellement, il maintient des contacts noués « avant l’Élysée », « à titre personnel, avec des chefs d’État étrangers », et qui « n’ont aucun lien et aucune incidence sur le professionnel », dit-il.

    Signe de son intérêt pour les technologies de XXII, Alexandre Benalla est revenu dès le lendemain du premier rendez-vous, mercredi 27 mai, au siège de la start-up. Encore entouré de Romain Chantemargue, l’ancien collaborateur d’Emmanuel Macron était cette fois accompagné de Yazid Sabeg, PDG de CS Group, une société de services informatiques et de cybersécurité.

    « J’ai reçu un petit message qui me disait : “William, on veut revenir avec quelqu’un d’important.” Moi je croyais que c’était Emmanuel Macron », explique M. Eldin.

    Yazid Sabeg n’est pas un simple entrepreneur. Ce patron d’origine algérienne est avant tout un homme de réseaux, qui cultive un épais carnet d’adresses, au carrefour de la politique et des affaires. Apparu sur le devant de la scène en 2004, à la faveur d’un livre déroulant ses propositions pour lutter contre les discriminations (Les Oubliés de l’égalité des chances issu d’un rapport commandé par l’Institut Montaigne https://www.institutmontaigne.org/publications/les-oublies-de-legalite-des-chances ), Sabeg fut, entre 2008 et 2012, le commissaire à la diversité et à l’égalité des chances de Nicolas Sarkozy.

    Il est aussi un proche de longue date de l’homme d’affaires franco-algérien Alexandre Djouhri – protagoniste clé de l’affaire Sarkozy-Kadhafi, mis en examen pour neuf délits présumés, dont « corruption active », « complicité de détournement de fonds publics » et « blanchiment ». Sous la présidence de Nicolas Sarkozy, le trio s’est rencontré à plusieurs reprises, comme en attestent les agendas de l’ex-chef de l’État, saisis dans le cadre de l’affaire Bettencourt https://www.leparisien.fr/politique/affaires-les-troublants-rendez-vous-de-sarkozy-05-04-2014-3742969.php .

    Yazid Sabeg est visé depuis 2013 par une enquête préliminaire menée par le parquet national financier pour « abus de biens sociaux » dans l’affaire Altis, cette usine de puces électroniques qu’il avait reprise à la demande et avec l’argent de feu Serge Dassault. Son nom apparaît également dans l’affaire Qatar/Veolia, qui porte sur la constitution d’une caisse noire de 180 millions d’euros par le Qatar lors de son entrée au capital de Veolia (lire ici https://www.mediapart.fr/journal/france/090620/%20https://www.mediapart.fr/journal/france/030415/qatar-veolia-henri-proglio-perquisitionne?onglet=full et là https://www.liberation.fr/futurs/2014/10/06/l-operation-velo-de-chypre-a-singapour_1116160 ). Sabeg dit n’avoir bénéficié d’aucun « mandat ou autre contrat » lié à cette opération.

    Questionné par Mediapart sur ce rendez-vous dans les locaux de XXII, Yazid Sabeg évoque une « réunion informelle » avec William Eldin, pour négocier les technologies d’acquisition visuelle de la société, « très intéressantes pour certaines de nos applications ».

    Il dément en revanche « tout rendez-vous commun » et « tout projet commun » avec Alexandre Benalla, en se contredisant sur la présence de l’ex-collaborateur d’Emmanuel Macron : il explique d’abord l’avoir « croisé » de manière « fortuite » au siège de XXII, puis dit avoir été « averti de sa présence en raison de ses relations techniques avec XXII ». Il affirme que l’ancien chargé de mission élyséen, « entouré d’un ou deux collaborateurs », « était là pour d’autres sujets, pour parler de vidéosurveillance ». « Lui s’intéresse à la reconnaissance faciale, la surveillance. Moi ce n’est pas mon sujet. Nos projets avec M. Eldin n’ont rien à voir avec M. Benalla ».

    Malgré ce démenti, nous avons reçu, après notre entretien, le 2 juin, avec Yazid Sabeg, des appels et messages d’Alexandre Benalla nous demandant de lui laisser « le droit de travailler ». Puis la Lettre A https://www.lalettrea.fr/action-publique_executif/2020/06/09/alexandre-benalla-approche-yazid-sabeg-sur-le-creneau-de-la-cybersecurite, a annoncé, le 9 juin, des « négociations » entre Benalla, Sabeg et XXII dans ce secteur de la surveillance et de la cybersécurité.

    À Mediapart, l’ancien collaborateur d’Emmanuel Macron confirme la rencontre du trio, mais affirme que ces rendez-vous « ont été des discussions de présentation et en aucun cas commerciales, de négociations ou contractuelles ».

    Comment sa route a-t-elle croisé celle de Yazid Sabeg ? Alexandre Benalla dit le connaître « depuis peu », et l’avoir rencontré « bien après l’Élysée », « à cinq reprises », par l’intermédiaire d’un « cadre supérieur dans un grand groupe français privé ». De son côté, Sabeg qualifie Benalla de « relation très lointaine », et dit l’avoir « croisé une fois ou deux avant », « par hasard », via des « relations amicales communes ». « Je ne vous en dirai pas plus », coupe-t-il court. « Arrêtez, arrêtez sur ces histoires, Benalla, tout ça, je n’ai pas envie de parler de tout ça. Je n’ai pas envie de répondre. »

    Tous deux démentent que cette rencontre se soit faite par l’intermédiaire d’Alexandre Djouhri, lui aussi une connaissance d’Alexandre Benalla.

    Benalla a nourri une vraie fascination pour Djouhri, d’extraction populaire (comme lui) et ayant fréquenté les ors de la République (comme lui). Il était allé au contact de l’intermédiaire sarkozyste au culot, dans un célèbre restaurant japonais du quartier de Knightsbridge, à Londres, à l’automne 2018.

    Questionné par Mediapart fin 2018 https://www.mediapart.fr/journal/france/191218/macron-sarkozy-benalla-djouhri-les-etranges-alliances-du-nouveau-monde?ong , l’ancien collaborateur d’Emmanuel Macron avait d’abord nié connaître Alexandre Djouhri, avant d’admettre l’avoir rencontré « plusieurs fois ». Aujourd’hui, il affirme n’avoir « plus aucun lien avec M. Djouhri ». « Il ne m’a jamais présenté personne, comme moi je ne lui ai jamais présenté personne », ajoute-t-il.

    #surveillance #benalla #technopolice #reconnaissance_faciale #bandits #contrôle_social #technomafia

  • Amazon suspend l’utilisation de sa reconnaissance faciale par la police pendant un an

    Un manifestant porte un masque dénonçant la reconnaissance faciale, à Londres, le 16 mai.

    La société basée à Seattle n’a pas dit pourquoi, mais les manifestations après la mort de George Floyd ont attiré l’attention sur l’injustice raciale aux Etats-Unis et sur la façon dont la police utilise la technologie pour suivre les personnes.

    Amazon a annoncé, mercredi 10 juin, interdire pendant un an à la police d’utiliser son logiciel de reconnaissance faciale Rekognition, dans un contexte de manifestations contre les violences policières et le racisme aux Etats-Unis depuis deux semaines.

    « Nous prônons des régulations plus strictes des gouvernements sur le recours éthique aux technologies de reconnaissance faciale, et le Congrès semble prêt à relever le défi », a indiqué le géant du commerce en ligne dans un communiqué.

    Risque de cibler les minorités
    L’annonce d’Amazon intervient un jour après qu’IBM a annoncé se retirer du secteur de la reconnaissance faciale – cette entreprise étant préoccupée par la façon dont la technologie peut être utilisée pour la surveillance de masse et le profilage racial.

  • Riconoscimento facciale, perché Como è tra le prime città a usarlo - Wired

    Perché Como è diventata una delle prime città in Italia a usare il riconoscimento facciale
    Il Comune ha già fatto due appalti per dotarsi di sistemi di videosorveglianza con riconoscimento facciale. Ma su che basi? L’inchiesta di Wired con le carte della gara


    #come #como #italie #controlefaciale #migration #gare @cdb_77

  • #Webinars. #COVID-19 Capitalism #Webinar Series

    Since 1 April, #TNI with allies has brought together experts and activists weekly to discuss how this pandemic health crisis exposes the injustices of the global economic order and how it must be a turning point towards creating the systems, structures and policies that can always protect those who are marginalised and allow everyone to live with dignity. Every Wednesday at 4pm CET.

    TNI works closely with allied organisations and partners around the world in organising these webinars. AIDC and Focus on the Global South are co-sponsors for the full series.


    Les conférences déjà en ligne sont ci-dessous en commentaire.


    Les prochains webinars:

    On 10 June, TNI will hold a webinar on Taking on the Tech Titans: Reclaiming our Data Commons.

    Upcoming webinars - Wednesdays at 4pm CET

    17 June: Borders and migration
    #frontières #migrations

    24 June: Broken Trade System

    #capitalisme #vidéo #conférence #coronavirus

    ping @isskein @reka

    • Building an internationalist response to Coronavirus


      Sonia Shah, award-winning investigative science journalist and author of Pandemic: Tracking contagions from Cholera to Ebola and Beyond (2017).
      Luis Ortiz Hernandez, public health professor in UAM-Xochimilco, Mexico. Expert on social and economic health inequities.
      Benny Kuruvilla, Head of India Office, Focus on the Global South, working closely with Forum For Trade Justice.
      Mazibuko Jara, Deputy Director, Tshisimani Centre for Activist Education, helping to coordinate a national platform of civic organisations in South Africa to confront COVID-19.
      Umyra Ahmad, Advancing Universal Rights and Justice Associate, Association for Women’s Rights in Development (AWID), Malaysia


    • The coming global recession: building an internationalist response

      Recording of a TNI-hosted webinar on Wednesday, 8 April with Professor Jayati Ghosh, Quinn Slobodian, Walden Bello and Lebohang Pheko on the likely global impacts of the economic fallout from the Coronavirus and how we might be better prepared than the 2008 economic crisis to put forward progressive solutions.

      The webinar explored what we can expect in terms of a global recession that many predict could have bigger social impacts than the virus itself. How should we prepare? What can social movements learn from our failures to advance alternative progressive policies in the wake of the 2008 economic crisis?



      Professor Jayati Ghosh, award-winning economist Jawaharlal Nehru University, India. Author of India and the International Economy (2015) and co-editor of Handbook of Alternative Theories of Economic Development, 2018.
      Quinn Slobodian, associate professor of history, Wellesley College. Author of Globalists: The End of Empire and the Birth of Neoliberalism (2018)
      Walden Bello, author of Paper Dragons: China and the Next Crash (2019) and Capitalism’s Last Stand?: Deglobalization in the Age of Austerity (2013)

      Lebohang Liepollo Pheko, Senior Research Fellow of Trade Collective, a thinktank in South Africa that works on international trade, globalisation, regional integration and feminist economics

      #récession #crise_économique

    • A Recipe for Disaster: Globalised food systems, structural inequality and COVID-19

      A dialogue between Rob Wallace, author of Big Farms Make Big Flu and agrarian justice activists from Myanmar, Palestine, Indonesia and Europe.

      The webinar explored how globalised industrial food systems set the scene for the emergence of COVID-19, the structural connections between the capitalist industrial agriculture, pathogens and the precarious conditions of workers in food systems and society at large. It also touched on the kind of just and resilient food systems we need to transform food and agriculture today?



      Rob Wallace author of Big Farms Make Big Flu and co-author of Neoliberal Ebola: Modeling Disease Emergence from Finance to Forest and Farm.
      Moayyad Bsharat of Union of Agricultural Work Committees (UAWC), member organization of La Via Campesina in Palestine.
      Arie Kurniawaty of Indonesian feminist organization Solidaritas Perempuan (SP) which works with women in grassroots communities across the urban-rural spectrum.
      Sai Sam Kham of Metta Foundation in Myanmar.
      Paula Gioia, peasant farmer in Germany and member of the Coordination Committee of the European Coordination Via Campesina.

      #inégalités #agriculture #alimentation


      Big Farms Make Big Flu

      In this collection of dispatches, by turns harrowing and thought-provoking, #Rob_Wallace tracks the ways #influenza and other pathogens emerge from an agriculture controlled by multinational corporations. With a precise and radical wit, Wallace juxtaposes ghastly phenomena such as attempts at producing featherless chickens with microbial time travel and neoliberal Ebola. While many books cover facets of food or outbreaks, Wallace’s collection is the first to explore infectious disease, agriculture, economics, and the nature of science together.


    • Taking Health back from Corporations: pandemics, big pharma and privatized health

      This webinar brought together experts in healthcare and activists at the forefront of struggles for equitable universal public healthcare from across the globe. It examined the obstacles to access to medicines, the role of Big Pharma, the struggles against health privatisation, and the required changes in global governance of health to prevent future pandemics and bring about public healthcare for all.



      Susan George, Author and President of the Transnational Institute
      Baba Aye, Health Officer, Public Services International
      Mark Heywood, Treatment Action Campaign, Section27 and editor at the Daily Maverick
      Kajal Bhardwaj, Independent lawyer and expert on health, trade and human rights
      David Legge, Peoples Health Movement Moderator: Monica Vargas, Corporate Power Project, Transnational Institute

      #santé #big-pharma #industrie_pharmaceutique #privatisation #système_de_santé

    • States of Control – the dark side of pandemic politics

      In response to an unprecedented global health emergency, many states are rolling out measures from deploying armies and drones to control public space, to expanding digital control through facial recognition technology and tracker apps.

      This webinar explored the political dimension of state responses, particularly the securitisation of COVID-19 through the expansion of powers for military, police, and security forces. It examined the impact of such repression on certain groups who are unable to socially distance, as well as how digital surveillance is being rolled out with little, if any democratic oversight.



      Fionnuala Ni Aolain, UN Special Rapporteur on the Protection and Promotion of Human Rights while Countering Terrorism, University of Minnesota
      Arun Kundnani, New York University, author of The Muslims are Coming! Islamophobia, extremism, and the domestic War on Terror and The End of Tolerance: racism in 21st century Britain
      Anuradha Chenoy, School of International Studies in Jawaharlal Nehru University (retired), and author of Militarisation and Women in South Asia
      María Paz Canales, Derechos Digitales (Digital Rights campaign), Chile

      #contrôle #surveillance #drones #reconnaissance_faciale #démocratie

      ping @etraces

    • A Global Green New Deal

      This sixth webinar in our COVID Capitalism series asked what a truly global #Green_New_Deal would look like. It featured Richard Kozul-Wright (UNCTAD), and leading activists from across the globe leading the struggle for a just transition in the wake of the Coronavirus pandemic.



      Richard Kozul-Wright, Director of the Division on Globalization and Development Strategies at the United Nations Conference on Trade and Development, author of Transforming Economies: Making Industrial Policy Work for Growth, Jobs and Development
      Karin Nansen, chair of Friends of the Earth International, founding member of REDES – Friends of the Earth Uruguay
      Sandra van Niekerk, Researcher for the One Million Climate Jobs campaign, South Africa


    • Proposals for a democratic just economy

      Outgoing UN rapporteur, #Philip_Alston in conversation with trade unionists and activists in Italy, Nigeria and India share analysis on the impacts of privatisation in a time of COVID-19 and the strategies for resistance and also constructing participatory public alternatives.



      Philip Alston, outgoing UN Special Rapporteur on extreme poverty and human rights
      Rosa Pavanelli, General Secretary of the global union federation Public Services International (PSI)
      Aderonke Ige, Our Water, Our Rights Campaign in Lagos / Environmental Rights Action /Friends of The Earth Nigeria
      Sulakshana Nandi, Co-chair, People’s Health Movement Global (PHM Global)

      #privatisation #participation #participation_publique #résistance

    • Feminist Realities – Transforming democracy in times of crisis

      An inspiring global panel of feminist thinkers and activists reflect and discuss how we can collectively reorganise, shift power and pivot towards building transformative feminist realities that can get us out of the worsening health, climate and capitalist crises.



      Tithi Bhattacharya, Associate Professor of History and the Director of Global Studies at Purdue University and co-author of the manifesto Feminism for the 99%.
      Laura Roth, Lecturer of legal and political philosophy at Universitat Oberta de Catalunya, Barcelona, member of Minim Municipalist Observatory and co-author of the practice-oriented report Feminise Politics Now!
      Awino Okech, Lecturer at the Centre for Gender Studies at School of Oriental and African Studies (SOAS), University of London who brings over twelve years of social justice transformation work in Eastern Africa, the Great Lakes region, and South Africa to her teaching, research and movement support work.
      Khara Jabola-Carolus, Executive Director of the Hawaii State Commission on the Status of Women, co-founder of AF3IRM Hawaii (the Association of Feminists Fighting Fascism, Imperialism, Re-feudalization, and Marginalization) and author of Hawaii’s Feminist Economic Recovery Plan for COVID-19.
      Felogene Anumo, Building Feminist Economies, AWID presenting the #feministbailout campaign


    • COVID-19 and the global fight against mass incarceration

      November 3rd, 2015, Bernard Harcourt (Columbia Law School) and Naomi Murakawa (Princeton) present rival narratives about mass incarceration in America. In The Illusion of Free Markets: Punishment and the Myth of Natural Order , Harcourt shows the interdependence of contract enforcements in global markets and punitive authority. InThe First Civil Right: How Liberals Built Prison America, by contrast, Murakawa traces prison growth to liberal campaigns and progressive legislation. Together, Murakawa and Harcourt offer fresh ideas about into the political, economic and ethical dimensions of mass incarceration.


      Olivia Rope, Director of Policy and International Advocacy, Penal Reform International
      Isabel Pereira, Principal investigator at the Center for the Study of Law, Justice & Society (Dejusticia), Colombia
      Sabrina Mahtani, Advocaid Sierra Leone
      Maidina Rahmawati, Institute of Criminal Justice Reform (ICJR), Indonesia
      Andrea James, Founder and Exec Director, and Justine Moore, Director of Training, National Council For Incarcerated and Formerly Incarcerated Women and Girls, USA

      #prisons #emprisonnement_de_masse #USA #Etats-Unis

  • Dossier / Reconnaissance faciale : Dans le viseur | Politis

    Articles du dossier :

    Reconnaissance faciale : Une technologie d’avenir déjà là
    Surveillance : Petites phrases pour grand sujet

    Quadrature du Net : « Faire du visage une clé instaure une société du suspect. »

    #Reconnaissance_faciale #Surveillance

  • How Well Can Algorithms Recognize Your Masked Face? | WIRED

    Facial-recognition algorithms from Los Angeles startup TrueFace are good enough that the US Air Force uses them to speed security checks at base entrances. But CEO Shaun Moore says he’s facing a new question: How good is TrueFace’s technology when people are wearing face masks?

    “It’s something we don’t know yet because it’s not been deployed in that environment,” Moore says. His engineers are testing their technology on masked faces and are hurriedly gathering images of masked faces to tune their machine-learning algorithms for pandemic times.

    Some vendors and users of facial recognition say the technology works well enough on masked faces. “We can identify a person wearing a balaclava, or a medical mask and a hat covering the forehead,” says Artem Kuharenko, founder of NtechLab, a Russian company whose technology is deployed on 150,000 cameras in Moscow. He says that the company has experience with face masks through contracts in southeast Asia, where masks are worn to curb colds and flu. US Customs and Border Protection, which uses facial recognition on travelers boarding international flights at US airports, says its technology can identify masked faces.

    But Anil Jain, a professor at Michigan State University who works on facial recognition and biometrics, says such claims can’t be easily verified. “Companies can quote internal numbers, but we don’t have a trusted database or evaluation to check that yet,” says. “There’s no third-party validation.”

    Early in March, China’s SenseTime, which became the world’s most valuable AI startup in part through providing face recognition to companies and government agencies, said it had upgraded its product for controlling access to buildings and workplaces to work with face masks. The software attends to facial features left uncovered, such as eyes, eyebrows, and the bridge of the nose, a spokesperson said. The US restricted sales to SenseTime and other Chinese AI companies last year for allegedly supplying technology used to oppress Uighur Muslims in China’s northwest.

    Reports from China of the systems’ effectiveness with masks are mixed. One Beijing resident told WIRED she appreciated the convenience of not having to remove her mask to use Alipay, China’s leading mobile payments network, which has updated its facial-recognition system. But Daniel Sun, a Gartner analyst also in Beijing, says he has had to step out of crowds to pull down his mask to use facial recognition for payments. Still, he believes facial recognition will continue to grow in usage, perhaps helped by interest in more hygienic, touch-free transactions. “I don’t think Covid-19 will stop the increase in usage of this technology in China,” Sun says.


  • Fooling Facial Detection with Fashion

    Usage of facial recognition is on the rise. With the recent debates over the ethics of facial recognition potential adversarial attacks against facial detection have been on my mind. Facial recognition is being used everywhere from airports to social media. It seems to be near impossible to opt-out of having your face scanned.

    An ideal attack on facial detection would be an article of clothing that looks inconspicuous to the uninformed. With inspiration from the Hyperface project I decided to research and implement a wearable adversarial example. In this article I’ll detail the process of creating an adversarial image to fool a selected type of facial detection and how I implemented a practical example on a face mask.



    #surveillance #vidéo-surveillance #reconnaissance_faciale #Hyperface_project #biométrie #CCTV #algorithme #Surveillance #intelligence_artificielle

  • Dans les universités, la tentation de la télésurveillance des examens - Page 1 | Mediapart

    Faute de pouvoir organiser des partiels classiques pour cause de risque sanitaire, certaines universités réfléchissent à une télésurveillance des examens, via des prestataires privés. Un dispositif contesté et coûteux, que le gouvernement encourage.

    Évaluera ou n’évaluera pas ? « Pour l’instant, c’est les grandes négociations », glisse un vice-président d’une université parisienne. Depuis le début du mois d’avril, les discussions sur les modalités d’examen font rage dans les facultés, qui ne rouvriront pas leurs portes avant la rentrée de septembre.

    Mercredi 22 avril, la ministre de l’enseignement supérieur Frédérique Vidal, dans une interview accordée à 20 Minutes, a recommandé d’organiser « un maximum d’épreuves ne nécessitant pas la présence physique des étudiants sur les campus », tout en estimant que les modalités de ces épreuves relevaient de la « liberté pédagogique » des établissements.

    Les votes s’enchaînent dans les CFVU, les commissions chargées des règles des examens dans chaque université. Une partie des syndicats étudiants, comme l’Unef, s’opposent à l’organisation de partiels classiques, certains réclamant une neutralisation du semestre ou l’instauration du « 10 améliorable » (validation automatique du semestre, avec une note minimale de 10 pour tous les étudiants). Des demandes irrecevables pour la plupart des établissements, qui souhaitent maintenir une forme d’évaluation et mettent sur pied les modalités filière par filière.

    La plupart des universités ont déjà annoncé vouloir privilégier le contrôle continu et adapter fortement les examens de fin d’année. À l’université Lumière-Lyon II, la consigne est d’éviter ou d’alléger autant que possible les examens « en temps contraint », explique Valérie Haas, vice-présidente à la formation. Les enseignants sont donc invités à privilégier des « devoirs maison », sans que l’étudiant ne soit obligé de se connecter à une heure fixe. Certains étudiants pourront bénéficier d’un accès à l’examen « pendant 24 heures ». Le tout en passant par des plateformes comme Moodle, installées dans la plupart des universités.

    D’autres établissements ont déjà annoncé l’organisation d’examens à distance, selon des modalités très diverses, comme les universités de Bretagne (UBO), de Nancy, de Lille ou de Rouen. Avec une inquiétude : ces partiels ne risquent-ils pas d’entraîner une hausse des fraudes et de mettre en péril la sacro-sainte valeur des diplômes ? C’est sur cette angoisse que cherchent à se positionner les entreprises spécialisées dans la télésurveillance des examens.

    Pour réduire les risques de triche, le ministère de l’enseignement supérieur conseille aux universités de privilégier les épreuves « simples » et courtes, comme des questionnaires à choix multiples (QCM), ou au contraire des examens mettant l’accent sur « l’esprit critique », moins propices au copier-coller. « Il s’avère difficile d’éviter la recherche d’informations sur le Web », note-t-il, lucide.

    Les disciplines comptant peu d’étudiants pourraient aussi s’orienter vers l’organisation d’oraux par visioconférence, qui permettent de vérifier l’identité du candidat. Mais, dans des facultés comptant souvent des centaines d’étudiants par amphithéâtre, la surveillance des partiels reste une grande illusion. D’où la tentation de recourir à des prestataires extérieurs.

    Dès le début du confinement, le ministère de l’enseignement supérieur a transmis aux universités une fiche mentionnant les noms de plusieurs entreprises spécialisées dans la télésurveillance d’examens, en précisant les volumes de partiels pouvant être organisés et les tarifs pratiqués, de l’ordre de 10 euros par heure d’examen et par étudiant en moyenne. Une manière de mettre l’option sur la table, sans remettre en cause la liberté de choix des établissements.

    Techniquement, les détails divergent, mais la plupart des entreprises listées par le ministère proposent une captation d’image. « D’abord, l’étudiant installe le logiciel et l’autorise à fermer toutes les autres applications. Ensuite il se prend en photo avec sa carte d’identité », explique Benoît Sillard, PDG de TestWe, l’une des sociétés citées par le ministère.

    « Pendant l’examen, une photo est prise toutes les quelques secondes. Cela forme un mini-film qui est automatiquement analysé pour détecter des anomalies : un autre visage qui apparaît ou l’étudiant qui s’en va. Dans ce cas, une vérification est faite par une personne physique pour voir ce qu’il s’est passé », détaille l’entrepreneur, lui-même passé par les ministères de l’éducation nationale et de la recherche en tant que spécialiste numérique au début des années 2000. Ces surveillants peuvent être fournis par les universités ou par les prestataires, moyennant finance.

    Contacté par Mediapart, le ministère de l’enseignement supérieur et de la recherche minimise le recours à ce type de prestation : « Le nombre d’établissements ayant prévu de recourir aux examens télésurveillés devrait être limité. Il s’agirait majoritairement d’écoles, et dans une moindre mesure d’universités. » Les facultés de médecine ou de pharmacie, en particulier, pourraient être tentées par le dispositif.

    Le ministère estime que l’ordonnance du 27 mars « donne aux établissements assez de souplesse pour organiser les évaluations sous des formes variées », citant notamment « l’organisation d’oraux en visioconférence ou de quizz à questions et réponses aléatoires », et que la plupart des solutions envisagées rendent « le risque de triche très faible et donc ne nécessitent pas de recours à la télésurveillance ».

    Reste que le sujet suscite de vives oppositions dans les universités, où chaque UFR – ou filière disciplinaire – dispose d’une certaine marge de manœuvre. « Nous voulions interdire l’organisation d’examens synchrones [en temps réel] », raconte Jennifer Buyck, élue du syndicat Snesup à la CFVU de l’université Grenoble-Alpes, qui soulève des objections éthiques et pratiques à la télésurveillance : fracture numérique pour de nombreux étudiants, mauvaises conditions de travail au domicile, accentuation de la précarité en période de confinement, logiciel jugé intrusif et liberticide…

    « Le point commun entre tout ça, c’est une rupture d’égalité des étudiants », souligne l’enseignante-chercheuse, dont la proposition a été rejetée. « Il n’y a pas de garde-fous », s’inquiète-t-elle.

    Des reproches injustifiés, tente de pondérer Benoît Sillard, qui estime que les examens encadrés par sa société sont « exactement les mêmes, en dématérialisé, que dans une salle de cours ». Le PDG de TestWe affirme avoir été très sollicité par des établissements du supérieur ces dernières semaines et avoir déjà organisé plusieurs milliers d’examens surveillés. « Les grandes écoles ont vite basculé », résume-t-il, rappelant que sa société a déjà travaillé avec l’ENA ou de grosses écoles de commerce comme l’EM Lyon. « C’est plus long du côté des facs », admet-il, tout en assurant être en « négociations très avancées » avec plusieurs universités.

    Ces dernières années, des universités ont déjà eu recours à ce type de télésurveillance pour contourner des blocages dus à des mouvements étudiants. C’est le cas à Nanterre ou à l’université Paul-Valéry de Montpellier, où des examens à distance se sont tenus au printemps 2018 après le rejet d’un recours administratif déposé par des syndicats étudiants.

    Ailleurs, la télésurveillance est expérimentée à petite échelle, notamment pour les étudiants dans l’impossibilité d’assister aux examens pour raisons professionnelles ou médicales. Ce devait être le cas cette année pour certaines licences de langue à Nancy, où les étudiants volontaires se voyaient demander le paiement de 200 euros de frais « non remboursables » pour bénéficier de ce service, confié par l’université de Lorraine à la société Managexam.

    La société vend aussi son outil à l’université de Caen, présentée comme « en pointe sur la question » par le ministère, tout comme Sorbonne-Université, qui travaille avec Proctorexam, un concurrent.

    À l’université de Caen, le dispositif est expérimenté depuis plusieurs années sur « une petite centaine d’étudiants », sur les 30 000 que compte l’université, précise son président, Pierre Denis. Essentiellement dans le cadre de formations à distance, par exemple pour des étudiants résidant à l’étranger. « Nous n’envisageons pas d’étendre ce système massivement », affirme-t-il, s’exprimant également au nom de la conférence des présidents d’université (CPU). « Avec la fracture numérique, ce ne serait ni adapté, ni éthique, ni peut-être même faisable », estime-t-il.

    Selon un sondage en cours de finalisation réalisé par l’université de Caen, au moins 5 % des effectifs, soit 1 500 étudiants, ne sont actuellement pas dans des conditions leur permettant de passer des examens. Des solutions techniques (clefs 4G, autorisations de déplacement) ou organisationnelles (évaluation décalée ou par oral) sont actuellement à l’étude.

    L’université d’Aix-Marseille a déjà acté qu’elle n’aurait pas recours à la télésurveillance d’examens et qu’elle s’orienterait principalement vers le contrôle continu. « Nous distribuons 1 500 colis alimentaires par semaine. Près de 600 étudiants n’ont pas un accès numérique satisfaisant, les conditions d’égalité n’étaient pas réunies pour organiser des examens », détaille Éric Berton, président d’Aix-Marseille Université (AMU).

    Un choix qui est aussi économique. Lionel Nicod, le vice-président à la formation de l’AMU, a fait ses comptes : « On arrivait à 1,6 million d’euros rien que pour les premières années de licence. Entre dépenser cette somme pour des examens ou la garder pour soutenir nos étudiants à la rentrée, le choix a été vite fait. » Les tarifs indicatifs recensés par le ministère auprès des différentes entreprises varient de 1,50 euro pour des « examens non surveillés », ressemblant à une simple visioconférence, jusqu’à 17 euros par étudiant et par examen, si l’entreprise fournit les surveillants.

    Le gouvernement a trouvé une parade pour réduire ces coûts prohibitifs : une sorte de commande groupée. Le ministère de l’enseignement supérieur indique à Mediapart que la Fédération inter-universitaire de l’enseignement à distance (Fied) propose une adhésion gratuite à tous les établissements du supérieur. Une action « discutée » avec les services du ministère, précise-t-il.

    L’opération doit permettre aux établissements de passer une sorte de commande groupée et de « profiter du contrat cadre que la Fied a passé avec la société Managexam et permettant un tarif préférentiel de 1 euro HT l’examen (par étudiant) réalisé en télésurveillance par prise de photos […]. Compte tenu du fait que le recours à la télésurveillance ne sera pas massif, cela restera très acceptable dans les coûts », détaille le ministère.

    Même avec une réduction, l’idée fait bondir Mélanie Luce, présidente de l’Unef. « Les étudiants sont dans des situations très précaires, sans emploi ni droits au chômage ou au RSA, vivent parfois dans des taudis ou peinent à se nourrir, et on serait prêts à dépenser des millions d’euros pour nous forcer à passer des examens télésurveillés ? C’est aberrant. » Et le temps presse pour les universités, qui doivent se positionner ces semaines-ci sur la question : selon la loi, elles doivent informer les étudiants des modalités d’évaluation choisies au moins 15 jours avant la date de l’examen.

    #université #facs #ESR #surveillance #examens #reconnaissance_faciale

  • Crise sanitaire : la Technopolice envahit l’université

    Dans le contexte de la pandémie, le gouvernement recommande officiellement aux établissements d’enseignement supérieur la télésurveillance des examens à l’aide de dispositifs invasifs, discriminants et manifestement illégaux : reconnaissance faciale, vidéosurveillance par webcam et smartphone, détection…