• The new lawsuit that shows facial recognition is officially a civil rights issue | MIT Technology Review
    https://www.technologyreview.com/2021/04/14/1022676/robert-williams-facial-recognition-lawsuit-aclu-detroit-police/?truid=a497ecb44646822921c70e7e051f7f1a

    Robert Williams, who was wrongfully arrested because of a faulty facial recognition match, is asking for the technology to be banned.

    The news: On January 9, 2020, Detroit Police wrongfully arrested a Black man named Robert Williams due to a bad match from their department’s facial recognition system. Two more instances of false arrests have since been made public. Both are also Black men, and both have taken legal action to try rectifying the situation. Now Williams is following in their path and going further—not only by suing the Detroit Police for his wrongful arrest, but by trying to get the technology banned.

    The details: On Tuesday, the ACLU and the University of Michigan Law School’s Civil Rights Litigation Initiative filed a lawsuit on behalf of Williams, alleging that his arrest violated Williams’s Fourth Amendment rights and was in defiance of Michigan’s civil rights law. The suit requests compensation, greater transparency about the use of facial recognition, and that the Detroit Police Department stop using all facial recognition technology, either directly or indirectly.

    The significance: Racism within American law enforcement makes the use of facial recognition, which has been proven to misidentify Black people at much higher rates, even more concerning.

    #Reconnaissance_faciale #Racisme #Droits_humains #Intelligence_artificielle

  • Humanoid facial recognition arrives at German police

    When pursuing suspected criminals, some state police forces use a special ability of individual officers. Deployments often take place in major events

    Police forces are increasingly using so-called #super-recognisers. These are people who are particularly good at remembering faces. An estimated one to two percent of all people are said to have this ability, as discovered by British scientist Josh Davis during a study within the Metropolitan Police. There, it was noticed that the same officers were always able to identify a particularly large number of suspects on video footage.

    The researcher then helped the police in #Munich to set up the first such unit in Germany; in 2018, 13 policewomen and 14 policemen were selected for this after a multi-stage selection process. One of their first assignments was in the access control area and at the „video workstation“ of the #Oktoberfest, which took place in the same year; the comparison was made with images of people who had been denied entry, among other things. Allegedly, in Bavaria they have now helped to solve hundreds of cases.

    Even before the official start of the unit, six Bavarian super-recognisers supported the special commission „#Black_Block“ set up in Hamburg after the #G20 summit. The officers searched image material for suspected criminals. Also in London, the super-recognisers were first deployed in 2011 at the G20 summit. One of them is said to have identified 180 suspects from video recordings, whereas a software with facial recognition, which was also used, identified only one person.

    Humanoid facial recognition is also supposed to be possible if the picture of the wanted person is an old mugshot or if the person has changed their appearance with a cap, beard, sunglasses or paint. The Bavarian police claim to have successfully demonstrated this when handling environmental protests against the further construction of the #A49 in #Dannenröder_Forst. There, five of their super-recognisers were deployed at the request of the Hessian police. They trained 45 Frankfurt officers who are now also to be deployed for super-recognition. However, there are no plans to set up a separate unit in #Hesse.

    https://digit.site36.net/2021/03/06/humanoid-facial-recognition-arrives-at-german-police
    #reconnaissance_faciale #police #Allemagne #surveillance #surveillance_policière #humanoïdes #Bavière

    ping @davduf @etraces

  • « L’Etat de droit mute doucement vers une forme ultra-sécuritaire » , Asma Mhalla, le 06 novembre 2018
    https://www.lemonde.fr/idees/article/2018/11/06/l-etat-de-droit-mute-doucement-vers-une-forme-ultra-securitaire_5379355_3232

    Spécialiste des enjeux de l’économie numérique, Asma Mhalla montre, dans une tribune au « Monde », le glissement progressif d’un Etat de droit à un Etat de surveillance attentatoire aux droits des citoyens.

    (Quelqu’un.e traverse le wall, s’il vous plait ?)

    • Le Conseil d’Etat a fini par valider, le 18 octobre, le décret permettant la création du fichier TES (Titres électroniques sécurisés) qui rassemble les données personnelles et biométriques de la quasi-totalité de la population française. Et ce, bien que les risques d’une telle base de données qui généralise la reconnaissance faciale et la surveillance de masse perdurent.

      La même semaine, une étude produite conjointement par Cliqz et Ghostery, deux sociétés produisant des outils de protection des données personnelles, propose une analyse de premiers résultats – à interpréter avec beaucoup de précaution du reste – du règlement général sur la protection des données (#RGPD) appliqué depuis le 25 mai. Face à la promesse initiale de protéger les données personnelles des citoyens européens, l’effet semblerait être particulièrement aberrant puisqu’il aurait au contraire renforcé la position hégémonique de #Google sur ses marchés.

      Au nom de quel principe l’Etat s’autorise-t-il ce qu’il interdit aux entreprises privées ? Ne serions-nous pas en train de basculer d’un Etat de droit vers un Etat de sécurité avec la bénédiction paradoxale du droit lui-même et sans que cela n’émeuve grand monde ? Ce signal a priori faible marque pourtant une étape symbolique forte quant à notre devenir démocratique.

      Concept fondateur du droit public moderne, la fiction juridique qu’est l’Etat de droit traduit une certaine vision du pouvoir qui apparaît comme inhérente à la conception libérale de l’organisation politique : donnant à voir un pouvoir limité parce que régi par des règles, il implique que les gouvernants ne soient pas placés au-dessus des lois, mais exercent une fonction encadrée par le droit. La notion peut aussi se définir par opposition à l’Etat policier, caractérisé par le pouvoir discrétionnaire de l’administration.

      Or, à y regarder de plus près, une répartition inédite du pouvoir prend actuellement forme cristallisée autour de la capacité à collecter et exploiter les métadonnées. Matérialisée par l’apparition de deux pôles, l’un économique, l’autre sécuritaire, articulés autour d’un projet commun tacite de surveillance. C’est autour de ce phénomène que les luttes de pouvoir se concentrent désormais et que la relation des surveillants, Etat et plates-formes géantes, se dessine face aux surveillés.

      Les recours compliqués

      En dépit de leurs postures officielles en apparence divergentes, ces deux pôles d’un nouveau genre se positionnent sur un même continuum porté par une vision du monde cohérente où souveraineté algorithmique et souveraineté territoriale se compléteraient, où le « capitalisme de surveillance » irriguerait à la fois les intérêts publics et privés. Les termes initiaux du contrat social « liberté contre sécurité » glissent sans grande résistance vers la formulation « liberté contre sécurité contre vie privée » articulée autour d’un régime de vérité contemporain qui pose comme postulat que plus nous possédons de données, plus nous nous rapprochons avec précision de la « vérité ».

      Ce transfert d’une partie de la souveraineté de l’Etat le pousse à renforcer ses prérogatives en termes de souveraineté territoriale pour mieux s’auto-légitimer au regard du peuple. Par nécessité de survie, l’Etat de droit mute doucement vers une forme ultra-sécuritaire.

      Dès lors, à ce nouveau régime de vérité est assorti un discours dominant formalisé autour d’une rhétorique du repli, de la peur, de la menace, de la lutte antiterroriste. Légitimant ainsi la collecte massive de données et les dispositifs de surveillance généralisée qu’ils soient en réalité à des fins marchandes ou sécuritaires. Les intrications entre plates-formes privées et services d’intelligence, services d’ordre et armées nationales sont de notoriété publique, forment une complexe toile d’acteurs qui enregistre le moindre frémissement de nos existences numériques et physiques.

      Incertitude

      Le péril démocratique est aggravé par les systèmes de prédiction algorithmique. Ainsi, nul n’échappera à la surveillance et son corollaire la prédictibilité, ultime stratégie de neutralisation de l’incertitude. Car dans ce monde en réseau, c’est bien l’incertitude qui devient la hantise du pouvoir. La police et la justice interviennent désormais de façon prédictive et préventive avant le crime même. Pour être puni, il n’est plus nécessaire de commettre un crime mais de risquer de le commettre. Par cet impératif sécuritaire, nous risquons de faire face à une justice pénale sans crime qui nous considérerait tous coupables parce que tous potentiellement dangereux.

      Or l’Etat, par l’entremise du #Conseil_d’Etat, prend la responsabilité de préfigurer le développement et l’utilisation de ces technologies de surveillance émergentes. A titre d’exemple, l’article 4 du décret autorisant la création du fichier TES prévoit que son accès ne sera guère limité à la lutte contre la falsification et la contrefaçon mais également ouvert aux agents « chargés des missions de prévention et de répression des atteintes aux intérêts fondamentaux de la Nation et des actes de terrorisme » . Ce champ d’application très flou laisse craindre toutes sortes de dérives dans les usages policiers à venir de ce fichier. Abus qui seront démultipliés par le croisement du « mégafichier » avec nos données personnelles.

      Les recours pourront se révéler compliqués pour les citoyens. Sur le modèle des bureaucraties classiques, les algorithmes savent légitimer leur opacité pour conserver leur fonctionnalité. Face à ce qui apparaît comme l’évidence sécuritaire certains applaudissent, d’autres s’engourdissent. Reste que nous ne réussissons pas à nous saisir collectivement de ces occasions offertes pour débattre de la condition de nos libertés publiques et individuelles. A l’aune de ces évolutions récentes, les mots du philosophe Michaël Foessel formulés dès 2010 résonnent avec une acuité toute particulière : « la sécurité est le préalable de la démocratie, pas son horizon indépassable. »

      #État #capitalisme_de_plateforme #biométrie #reconnaissance_faciale #données #métadonnées #surveillance #sécuritaire #justice_pénale_sans_crime

  • Smile for the camera: the dark side of China’s emotion-recognition tech | China | The Guardian
    http://www.theguardian.com/global-development/2021/mar/03/china-positive-energy-emotion-surveillance-recognition-tech

    Ordinary people here in China aren’t happy about this technology but they have no choice. If the police say there have to be cameras in a community, people will just have to live with it. There’s always that demand and we’re here to fulfil it.”

    So says Chen Wei at Taigusys, a company specialising in emotion recognition technology, the latest evolution in the broader world of surveillance systems that play a part in nearly every aspect of Chinese society.

    Emotion-recognition technologies – in which facial expressions of anger, sadness, happiness and boredom, as well as other biometric data are tracked – are supposedly able to infer a person’s feelings based on traits such as facial muscle movements, vocal tone, body movements and other biometric signals. It goes beyond facial-recognition technologies, which simply compare faces to determine a match.

    #reconnaissance_faciale #chine

  • Comment le #maquillage peut nous protéger de la #reconnaissance_faciale ?
    https://www.ladn.eu/mondes-creatifs/maquillage-camouflage-devient-une-arme-anti-surveillance

    Dans les rues de Londres, le collectif anti-surveillance The Dazzle Club milite silencieusement et à couvert. Son arme de prédilection ? Le maquillage asymétrique pour tromper les dispositifs biométriques de reconnaissance faciale. Trois de ses fondatrices, Emily Roderick, Georgina Rowlands et Anna Hart, nous racontent.

    Août 2019. Le quartier de King’s Cross à Londres prévoit de déployer un système de #caméras de #surveillance utilisant la reconnaissance faciale sans consulter les #habitants. Les masques ne font pas encore partie de leur quotidien, mais le #collectif d’artistes The #Dazzle_Club s’interroge : « peut-on encore être libres dans l’espace public ? »

    Affublées de maquillages mystérieusement graphiques, Emily Roderick, Georgina Rowlands, Anna Hart et Evie Price se mettent alors à marcher, en silence, dans les rues de la capitale. Derrière la performance artistique se cache une véritable technique de camouflage, CV Dazzle, développée en 2010 par le chercheur Adam Harvey. Le but ? Protéger nos visages des algorithmes de reconnaissance faciale.

  • This is how we lost control of our faces | MIT Technology Review
    https://www.technologyreview.com/2021/02/05/1017388/ai-deep-learning-facial-recognition-data-history

    The largest ever study of facial-recognition data shows how much the rise of deep learning has fueled a loss of privacy.
    by

    Karen Hao
    February 5, 2021

    In 1964, mathematician and computer scientist Woodrow Bledsoe first attempted the task of matching suspects’ faces to mugshots. He measured out the distances between different facial features in printed photographs and fed them into a computer program. His rudimentary successes would set off decades of research into teaching machines to recognize human faces.

    Now a new study shows just how much this enterprise has eroded our privacy. It hasn’t just fueled an increasingly powerful tool of surveillance. The latest generation of deep-learning-based facial recognition has completely disrupted our norms of consent.

    People were extremely cautious about collecting, documenting, and verifying face data in the early days, says Raji. “Now we don’t care anymore. All of that has been abandoned,” she says. “You just can’t keep track of a million faces. After a certain point, you can’t even pretend that you have control.”

    A history of facial-recognition data

    The researchers identified four major eras of facial recognition, each driven by an increasing desire to improve the technology. The first phase, which ran until the 1990s, was largely characterized by manually intensive and computationally slow methods.

    But then, spurred by the realization that facial recognition could track and identify individuals more effectively than fingerprints, the US Department of Defense pumped $6.5 million into creating the first large-scale face data set. Over 15 photography sessions in three years, the project captured 14,126 images of 1,199 individuals. The Face Recognition Technology (FERET) database was released in 1996.

    The following decade saw an uptick in academic and commercial facial-recognition research, and many more data sets were created. The vast majority were sourced through photo shoots like FERET’s and had full participant consent. Many also included meticulous metadata, Raji says, such as the age and ethnicity of subjects, or illumination information. But these early systems struggled in real-world settings, which drove researchers to seek larger and more diverse data sets.

    In 2007, the release of the Labeled Faces in the Wild (LFW) data set opened the floodgates to data collection through web search. Researchers began downloading images directly from Google, Flickr, and Yahoo without concern for consent. LFW also relaxed standards around the inclusion of minors, using photos found with search terms like “baby,” “juvenile,” and “teen” to increase diversity. This process made it possible to create significantly larger data sets in a short time, but facial recognition still faced many of the same challenges as before. This pushed researchers to seek yet more methods and data to overcome the technology’s poor performance.

    Then, in 2014, Facebook used its user photos to train a deep-learning model called DeepFace. While the company never released the data set, the system’s superhuman performance elevated deep learning to the de facto method for analyzing faces. This is when manual verification and labeling became nearly impossible as data sets grew to tens of millions of photos, says Raji. It’s also when really strange phenomena start appearing, like auto-generated labels that include offensive terminology.

    Image-generation algorithms are regurgitating the same sexist, racist ideas that exist on the internet.

    The way the data sets were used began to change around this time, too. Instead of trying to match individuals, new models began focusing more on classification. “Instead of saying, ‘Is this a photo of Karen? Yes or no,’ it turned into ‘Let’s predict Karen’s internal personality, or her ethnicity,’ and boxing people into these categories,” Raji says.

    Amba Kak, the global policy director at AI Now, who did not participate in the research, says the paper offers a stark picture of how the biometrics industry has evolved. Deep learning may have rescued the technology from some of its struggles, but “that technological advance also has come at a cost,” she says. “It’s thrown up all these issues that we now are quite familiar with: consent, extraction, IP issues, privacy.”

    Raji says her investigation into the data has made her gravely concerned about deep-learning-based facial recognition.

    “It’s so much more dangerous,” she says. “The data requirement forces you to collect incredibly sensitive information about, at minimum, tens of thousands of people. It forces you to violate their privacy. That in itself is a basis of harm. And then we’re hoarding all this information that you can’t control to build something that likely will function in ways you can’t even predict. That’s really the nature of where we’re at.”

    #Reconnaissance_faciale #éthique #Histoire_numérique #Surveillance

  • How the Pandemic Turned Refugees Into ‘Guinea Pigs’ for Surveillance Tech

    An interview with Dr. Petra Molnar, who spent 2020 investigating the use of drones, facial recognition, and lidar on refugees

    The coronavirus pandemic unleashed a new era in surveillance technology, and arguably no group has felt this more acutely than refugees. Even before the pandemic, refugees were subjected to contact tracing, drone and LIDAR tracking, and facial recognition en masse. Since the pandemic, it’s only gotten worse. For a microcosm of how bad the pandemic has been for refugees — both in terms of civil liberties and suffering under the virus — look no further than Greece.

    Greek refugee camps are among the largest in Europe, and they are overpopulated, with scarce access to water, food, and basic necessities, and under constant surveillance. Researchers say that many of the surveillance techniques and technologies — especially experimental, rudimentary, and low-cost ones — used to corral refugees around the world were often tested in these camps first.

    “Certain communities already marginalized, disenfranchised are being used as guinea pigs, but the concern is that all of these technologies will be rolled out against the broader population and normalized,” says Petra Molnar, Associate Director of the Refugee Law Lab, York University.

    Molnar traveled to the Greek refugee camps on Lesbos in 2020 as part of a fact-finding project with the advocacy group European Digital Rights (EDRi). She arrived right after the Moria camp — the largest in Europe at the time — burned down and forced the relocation of thousands of refugees. Since her visit, she has been concerned about the rise of authoritarian technology and how it might be used against the powerless.

    With the pandemic still raging and states more desperate than ever to contain it, it seemed a good time to discuss the uses and implications of surveillance in the refugee camps. Molnar, who is still in Greece and plans to continue visiting the camps once the nation’s second lockdown lifts, spoke to OneZero about the kinds of surveillance technology she saw deployed there, and what the future holds — particularly with the European Border and Coast Guard Agency, Molnar says, adding “that they’ve been using Greece as a testing ground for all sorts of aerial surveillance technology.”

    This interview has been edited and condensed for clarity.

    OneZero: What kinds of surveillance practices and technologies did you see in the camps?

    Petra Molnar: I went to Lesbos in September, right after the Moria camp burned down and thousands of people were displaced and sent to a new camp. We were essentially witnessing the birth of the Kara Tepes camp, a new containment center, and talked to the people about surveillance, and also how this particular tragedy was being used as a new excuse to bring more technology, more surveillance. The [Greek] government is… basically weaponizing Covid to use it as an excuse to lock the camps down and make it impossible to do any research.

    When you are in Lesbos, it is very clear that it is a testing ground, in the sense that the use of tech is quite rudimentary — we are not talking about thermal cameras, iris scans, anything like that, but there’s an increase in the appetite of the Greek government to explore the use of it, particularly when they try to control large groups of people and also large groups coming from the Aegean. It’s very early days for a lot of these technologies, but everything points to the fact that Greece is Europe’s testing ground.

    They are talking about bringing biometric control to the camps, but we know for example that the Hellenic Coast Guard has a drone that they have been using for self-promotion, propaganda, and they’ve now been using it to follow specific people as they are leaving and entering the camp. I’m not sure if the use of drones was restricted to following refugees once they left the camps, but with the lockdown, it was impossible to verify. [OneZero had access to a local source who confirmed that drones are also being used inside the camps to monitor refugees during lockdown.]

    Also, people can come and go to buy things at stores, but they have to sign in and out at the gate, and we don’t know how they are going to use such data and for what purposes.

    Surveillance has been used on refugees long before the pandemic — in what ways have refugees been treated as guinea pigs for the policies and technologies we’re seeing deployed more widely now? And what are some of the worst examples of authoritarian technologies being deployed against refugees in Europe?

    The most egregious examples that we’ve been seeing are that ill-fated pilot projects — A.I. lie detectors and risk scorings which were essentially trying to use facial recognition and facial expressions’ micro-targeting to determine whether a person was more likely than others to lie at the border. Luckily, that technology was debunked and also generated a lot of debate around the ethics and human rights implications of using something like that.

    Technologies such as voice printing have been used in Germany to try to track a person’s country of origin or their ethnicity, facial recognition made its way into the new Migration’s Pact, and Greece is thinking about automating the triage of refugees, so there’s an appetite at the EU level and globally to use this tech. I think 2021 will be very interesting as more resources are being diverted to these types of tech.

    We saw, right when the pandemic started, that migration data used for population modeling became kind of co-opted and used to try and model flows of Covid. And this is very problematic because they are assuming that the mobile population, people on the move, and refugees are more likely to be bringing in Covid and diseases — but the numbers don’t bear out. We are also seeing the gathering of vast amounts of data for all these databases that Europe is using or will be using for a variety of border enforcement and policing in general.

    The concern is that fear’s being weaponized around the pandemic and technologies such as mobile tracking and data collection are being used as ways to control people. It is also broader, it deals with a kind of discourse around migration, on limiting people’s rights to move. Our concern is that it’ll open the door to further, broader rollout of this kind of tech against the general population.

    What are some of the most invasive technologies you’ve seen? And are you worried these authoritarian technologies will continue to expand, and not just in refugee camps?

    In Greece, the most invasive technologies being used now would probably be drones and unpiloted surveillance technologies, because it’s a really easy way to dehumanize that kind of area where people are crossing, coming from Turkey, trying to claim asylum. There’s also the appetite to try facial recognition technology.

    It shows just how dangerous these technologies can be both because they facilitate pushbacks, border enforcement, and throwing people away, and it really plays into this kind of idea of instead of humane responses you’d hope to happen when you see a boat in distress in the Aegean or the Mediterranean, now entities are turning towards drones and the whole kind of surveillance apparatus. It highlights how the humanity in this process has been lost.

    And the normalization of it all. Now it is so normal to use drones — everything is about policing Europe’s shore, Greece being a shield, to normalize the use of invasive surveillance tech. A lot of us are worried with talks of expanding the scope of action, mandate, and powers of Frontex [the European Border and Coast Guard Agency] and its utter lack of accountability — it is crystal clear that entities like Frontex are going to do Europe’s dirty work.

    There’s a particular framing applied when governments and companies talk about migrants and refugees, often linking them to ISIS and using careless terms and phrases to discuss serious issues. Our concern is that this kind of use of technology is going to become more advanced and more efficient.

    What is happening with regard to contact tracing apps — have there been cases where the technology was forced on refugees?

    I’ve heard about the possibility of refugees being tracked through their phones, but I couldn’t confirm. I prefer not to interact with the state through my phone, but that’s a privilege I have, a choice I can make. If you’re living in a refugee camp your options are much more constrained. Often people in the camps feel they are compelled to give access to their phones, to give their phone numbers, etc. And then there are concerns that tracking is being done. It’s really hard to track the tracking; it is not clear what’s being done.

    Aside from contact tracing, there’s the concern with the Wi-Fi connection provided in the camps. There’s often just one connection or one specific place where Wi-Fi works and people need to be connected to their families, spouses, friends, or get access to information through their phones, sometimes their only lifeline. It’s a difficult situation because, on the one hand, people are worried about privacy and surveillance, but on the other, you want to call your family, your spouse, and you can only do that through Wi-Fi and people feel they need to be connected. They have to rely on what’s available, but there’s a concern that because it’s provided by the authorities, no one knows exactly what’s being collected and how they are being watched and surveilled.

    How do we fight this surveillance creep?

    That’s the hard question. I think one of the ways that we can fight some of this is knowledge. Knowing what is happening, sharing resources among different communities, having a broader understanding of the systemic way this is playing out, and using such knowledge generated by the community itself to push for regulation and governance when it comes to these particular uses of technologies.

    We call for a moratorium or abolition of all high-risk technology in and around the border because right now we don’t have a governance mechanism in place or integrated regional or international way to regulate these uses of tech.

    Meanwhile, we have in the EU a General Data Protection Law, a very strong tool to protect data and data sharing, but it doesn’t really touch on surveillance, automation, A.I., so the law is really far behind.

    One of the ways to fight A.I. is to make policymakers understand the real harm that these technologies have. We are talking about ways that discrimination and inequality are reinforced by this kind of tech, and how damaging they are to people.

    We are trying to highlight this systemic approach to see it as an interconnected system in which all of these technologies play a part in this increasingly draconian way that migration management is being done.

    https://onezero.medium.com/how-the-pandemic-turned-refugees-into-guinea-pigs-for-surveillance-t

    #réfugiés #cobaye #surveillance #technologie #pandémie #covid-19 #coroanvirus #LIDAR #drones #reconnaissance_faciale #Grèce #camps_de_réfugiés #Lesbos #Moria #European_Digital_Rights (#EDRi) #surveillance_aérienne #complexe_militaro-industriel #Kara_Tepes #weaponization #biométrie #IA #intelligence_artificielle #détecteurs_de_mensonges #empreinte_vocale #tri #catégorisation #donneés #base_de_données #contrôle #technologies_autoritaires #déshumanisation #normalisation #Frontex #wifi #internet #smartphone #frontières

    ping @isskein @karine4

    ping @etraces

  • Artificial intelligence : #Frontex improves its maritime surveillance

    Frontex wants to use a new platform to automatically detect and assess „risks“ on the seas of the European Union. Suspected irregular activities are to be displayed in a constantly updated „threat map“ with the help of self-learning software.

    The EU border agency has renewed a contract with Israeli company Windward for a „maritime analytics“ platform. It will put the application into regular operation. Frontex had initially procured a licence for around 800,000 Euros. For now 2.6 million Euros, the agency will receive access for four workstations. The contract can be extended three times for one year at a time.

    Windward specialises in the digital aggregation and assessment of vessel tracking and maritime surveillance data. Investors in the company, which was founded in 2011, include former US CIA director David Petraeus and former CEO’s of Thomson Reuters and British Petroleum. The former chief of staff of the Israeli military, Gabi Ashkenazi, is considered one of the advisors.

    Signature for each observed ship

    The platform is based on artificial intelligence techniques. For analysis, it uses maritime reporting systems, including position data from the AIS transponders of larger ships and weather data. These are enriched with information about the ship owners and shipping companies as well as the history of previous ship movements. For this purpose, the software queries openly accessible information from the internet.

    In this way, a „fingerprint“ is created for each observed ship, which can be used to identify suspicious activities. If the captain switches off the transponder, for example, the analysis platform can recognise this as a suspicuous event and take over further tracking based on the recorded patterns. It is also possible to integrate satellite images.

    Windward uses the register of the International Maritime Organisation (IMO) as its database, which lists about 70,000 ships. Allegedly, however, it also processes data on a total of 400,000 watercraft, including smaller fishing boats. One of the clients is therefore the UN Security Council, which uses the technology to monitor sanctions.

    Against „bad guys“ at sea

    The company advertises its applications with the slogan „Catch the bad guys at sea“. At Frontex, the application is used to combat and prevent unwanted migration and cross-border crime as well as terrorism. Subsequently, „policy makers“ and law enforcement agencies are to be informed about results. For this purpose, the „risks“ found are visualised in a „threat map“.

    Windward put such a „threat map“ online two years ago. At the time, the software rated the Black Sea as significantly more risky than the Mediterranean. Commercial shipping activity off the Crimea was interpreted as „probable sanction evasions“. Ship owners from the British Guernsey Islands as well as Romania recorded the highest proportion of ships exhibiting „risky“ behaviour. 42 vessels were classified as suspicious for drug smuggling based on their patterns.

    Frontex „early warning“ units

    The information from maritime surveillance is likely to be processed first by the „Risk Analysis Unit“ (RAU) at Frontex. It is supposed to support strategic decisions taken by the headquarters in Warsaw on issues of border control, return, prevention of cross-border crime as well as threats of a „hybrid nature“. Frontex calls the applications used there „intelligence products“ and „integrated data services“. Their results flow together in the „Common Integrated Risk Analysis Model“ (CIRAM).

    For the operational monitoring of the situation at the EU’s external borders, the agency also maintains the „Frontex Situation Centre“ (FSC). The department is supposed to provide a constantly updated picture of migration movements, if possible in real time. From these reports, Frontex produces „early warnings“ and situation reports to the border authorities of the member states as well as to the Commission and the Council in Brussels.

    More surveillance capacity in Warsaw

    According to its own information, Windward’s clients include the Italian Guardia di Finanza, which is responsible for controlling Italian territorial waters. The Ministry of the Interior in Rome is also responsible for numerous EU projects aimed at improving surveillance of the central Mediterranean. For the training and equipment of the Libyan coast guard, Italy receives around 67 million euros from EU funds in three different projects. Italian coast guard authorities are also installing a surveillance system for Tunisia’s external maritime borders.

    Frontex now wants to improve its own surveillance capacities with further tenders. Together with the fisheries agency, The agency is awarding further contracts for manned maritime surveillance. It has been operating such a „Frontex Aerial Surveillance Service“ (FASS) in the central Mediterranean since 2017 and in the Adriatic Sea since 2018. Frontex also wants to station large drones in the Mediterranean. Furthermore, it is testing Aerostats in the eastern Mediterranean for a second time. These are zeppelins attached to a 1,000-metre long line.

    https://digit.site36.net/2021/01/15/artificial-intelligence-frontex-improves-its-maritime-surveillance
    #intelligence_artificielle #surveillance #surveillance_maritime #mer #asile #migrations #réfugiés #frontières #AI #Windward #Israël #complexe_militaro-industriel #militarisation_des_frontières #David_Petraeus #Thomson_Reuters #British_Petroleum #armée_israélienne #Gabi_Ashkenazi #International_Maritime_Organisation (#IMO) #thread_map #Risk_Analysis_Unit (#RAU) #Common_Integrated_Risk_Analysis_Model (#CIRAM) #Frontex_Situation_Centre (#FSC) #Frontex_Aerial_Surveillance_Service (#FASS) #zeppelins

    ping @etraces

    • Data et nouvelles technologies, la face cachée du contrôle des mobilités

      Dans un rapport de juillet 2020, l’Agence européenne pour la gestion opérationnelle des systèmes d’information à grande échelle (#EU-Lisa) présente l’intelligence artificielle (IA) comme l’une des « technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

      L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme Frontex ou EU-Lisa, ont été particulièrement actives dans l’#expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

      La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

      http://www.migreurop.org/article3021.html

      Pour télécharger le rapport :
      www.migreurop.org/IMG/pdf/note_12_fr.pdf

      ping @karine4 @rhoumour @_kg_ @i_s_

    • La #technopolice aux frontières

      Comment le #business de la #sécurité et de la #surveillance au sein de l’#Union_européenne, en plus de bafouer des #droits_fondamentaux, utilise les personnes exilées comme #laboratoire de recherche, et ce sur des #fonds_publics européens.

      On a beaucoup parlé ici ces derniers mois de surveillance des manifestations ou de surveillance de l’espace public dans nos villes, mais la technopolice est avant tout déployée aux #frontières – et notamment chez nous, aux frontières de la « forteresse Europe ». Ces #dispositifs_technopoliciers sont financés, soutenus et expérimentés par l’Union européenne pour les frontières de l’UE d’abord, et ensuite vendus. Cette surveillance des frontières représente un #marché colossal et profite grandement de l’échelle communautaire et de ses programmes de #recherche_et_développement (#R&D) comme #Horizon_2020.

      #Roborder – des essaims de #drones_autonomes aux frontières

      C’est le cas du projet Roborder – un « jeu de mots » entre robot et border, frontière en anglais. Débuté en 2017, il prévoit de surveiller les frontières par des essaims de #drones autonomes, fonctionnant et patrouillant ensemble. L’#intelligence_artificielle de ces drones leur permettrait de reconnaître les humains et de distinguer si ces derniers commettent des infractions (comme celui de passer une frontière ?) et leur dangerosité pour ensuite prévenir la #police_aux_frontières. Ces drones peuvent se mouvoir dans les airs, sous l’eau, sur l’eau et dans des engins au sol. Dotés de multiples capteurs, en plus de la détection d’activités criminelles, ces drones seraient destinés à repérer des “#radio-fréquences non fiables”, c’est-à-dire à écouter les #communications et également à mesurer la #pollution_marine.
      Pour l’instant, ces essaims de drones autonomes ne seraient pas pourvus d’armes. Roborder est actuellement expérimenté en #Grèce, au #Portugal et en #Hongrie.

      Un #financement européen pour des usages « civils »

      Ce projet est financé à hauteur de 8 millions d’euros par le programme Horizon 2020 (subventionné lui-même par la #Cordis, organe de R&D de la Commission européenne). Horizon 2020 représente 50% du financement public total pour la recherche en sécurité de l’UE. Roborder est coordonné par le centre de recherches et technologie de #Hellas (le #CERTH), en Grèce et comme le montre l’association #Homo_Digitalis le nombre de projets Horizon 2020 ne fait qu’augmenter en Grèce. En plus du CERTH grec s’ajoutent environ 25 participants venus de tous les pays de l’UE (où on retrouve les services de police d’#Irlande_du_Nord, le ministère de la défense grecque, ou encore des entreprises de drones allemandes, etc.).

      L’une des conditions pour le financement de projets de ce genre par Horizon 2020 est que les technologies développées restent dans l’utilisation civile, et ne puissent pas servir à des fins militaires. Cette affirmation pourrait ressembler à un garde-fou, mais en réalité la distinction entre usage civil et militaire est loin d’être clairement établie. Comme le montre Stephen Graham, très souvent les #technologies, à la base militaires, sont réinjectées dans la sécurité, particulièrement aux frontières où la migration est criminalisée. Et cette porosité entre la sécurité et le #militaire est induite par la nécessité de trouver des débouchés pour rentabiliser la #recherche_militaire. C’est ce qu’on peut observer avec les drones ou bien le gaz lacrymogène. Ici, il est plutôt question d’une logique inverse : potentiellement le passage d’un usage dit “civil” de la #sécurité_intérieure à une application militaire, à travers des ventes futures de ces dispositifs. Mais on peut aussi considérer la surveillance, la détection de personnes et la #répression_aux_frontières comme une matérialisation de la #militarisation de l’Europe à ses frontières. Dans ce cas-là, Roborder serait un projet à fins militaires.

      De plus, dans les faits, comme le montre The Intercept (https://theintercept.com/2019/05/11/drones-artificial-intelligence-europe-roborder), une fois le projet terminé celui-ci est vendu. Sans qu’on sache trop à qui. Et, toujours selon le journal, beaucoup sont déjà intéressés par Roborder.

      #IborderCtrl – détection d’#émotions aux frontières

      Si les essaims de drones sont impressionnants, il existe d’autres projets dans la même veine. On peut citer notamment le projet qui a pour nom IborderCtrl, testé en Grèce, Hongrie et #Lettonie.

      Il consiste notamment en de l’#analyse_d’émotions (à côté d’autres projets de #reconnaissances_biométriques) : les personnes désirant passer une frontière doivent se soumettre à des questions et voient leur #visage passer au crible d’un #algorithme qui déterminera si elles mentent ou non. Le projet prétend « accélérer le #contrôle_aux_frontières » : si le #détecteur_de_mensonges estime qu’une personne dit la vérité, un code lui est donné pour passer le contrôle facilement ; si l’algorithme considère qu’une personne ment, elle est envoyée dans une seconde file, vers des gardes-frontières qui lui feront passer un #interrogatoire. L’analyse d’émotions prétend reposer sur un examen de « 38 #micro-mouvements du visage » comme l’angle de la tête ou le mouvement des yeux. Un spectacle de gadgets pseudoscientifiques qui permet surtout de donner l’apparence de la #neutralité_technologique à des politiques d’#exclusion et de #déshumanisation.

      Ce projet a également été financé par Horizon 2020 à hauteur de 4,5 millions d’euros. S’il semble aujourd’hui avoir été arrêté, l’eurodéputé allemand Patrick Breyer a saisi la Cour de justice de l’Union Européenne pour obtenir plus d’informations sur ce projet, ce qui lui a été refusé pour… atteinte au #secret_commercial. Ici encore, on voit que le champ “civil” et non “militaire” du projet est loin de représenter un garde-fou.

      Conclusion

      Ainsi, l’Union européenne participe activement au puissant marché de la surveillance et de la répression. Ici, les frontières et les personnes exilées sont utilisées comme des ressources de laboratoire. Dans une optique de militarisation toujours plus forte des frontières de la forteresse Europe et d’une recherche de profit et de développement des entreprises et centres de recherche européens. Les frontières constituent un nouveau marché et une nouvelle manne financière de la technopolice.

      Les chiffres montrent par ailleurs l’explosion du budget de l’agence européenne #Frontex (de 137 millions d’euros en 2015 à 322 millions d’euros en 2020, chiffres de la Cour des comptes européenne) et une automatisation toujours plus grande de la surveillance des frontières. Et parallèlement, le ratio entre le nombre de personnes qui tentent de franchir la Méditerranée et le nombre de celles qui y laissent la vie ne fait qu’augmenter. Cette automatisation de la surveillance aux frontières n’est donc qu’une nouvelle façon pour les autorités européennes d’accentuer le drame qui continue de se jouer en Méditerranée, pour une “efficacité” qui finalement ne profite qu’aux industries de la surveillance.

      Dans nos rues comme à nos frontières nous devons refuser la Technopolice et la combattre pied à pied !

      https://technopolice.fr/blog/la-technopolice-aux-frontieres

    • Artificial Intelligence - based capabilities for European Border and Coast Guard

      In 2019, Frontex, the European Border and Coast Guard Agency, commissioned #RAND Europe to carry out an Artificial intelligence (AI) research study.

      The purpose of the study was to provide an overview of the main opportunities, challenges and requirements for the adoption of AI-based capabilities in border managament. Frontex’s intent was also to find synergies with ongoing AI studies and initiatives in the EU and contribute to a Europe-wide AI landscape by adding the border security dimension.

      Some of the analysed technologies included automated border control, object recognition to detect suspicious vehicles or cargo and the use of geospatial data analytics for operational awareness and threat detection.

      As part of the study, RAND provided Frontex in 2020 with a comprehensive report and an executive summary with conclusions and recommendations.

      The findings will support Frontex in shaping the future landscape of AI-based capabilities for Integrated Border Management, including AI-related research and innovation projects which could be initiated by Frontex (e.g. under #EU_Innovation_Hub) or recommended to be conducted under the EU Research and Innovation Programme (#Horizon_Europe).

      https://frontex.europa.eu/media-centre/news/news-release/artificial-intelligence-based-capabilities-for-european-border-and-co

  • Non avrai mai più i miei dati | il manifesto
    https://ilmanifesto.it/non-avrai-mai-piu-i-miei-dati

    par Simone Pieranni (auteur de «Red Mirror»)

    Cina. Sotto la spinta dell’opinione pubblica cinese, per la prima volta una metropoli ha presentato una bozza di legge per arginare il riconoscimento facciale all’interno dei complessi residenziali

    Spesso in Occidente rimaniamo impressionati dalla facilità con la quale la tecnologia è entrata nella vita quotidiana dei cinesi. Certi aspetti di questo tema, per altro, ci riguardano da vicino e faremmo bene a osservare cosa accade in un posto così lontano, ma pur sempre inserito – sebbene con le proprie «caratteristiche» – all’interno di un contesto globale.

    Uno degli aspetti più rilevanti è senza dubbio quello del riconoscimento facciale, ormai utilizzato in molte attività e luoghi anche in Occidente, spesso senza neanche il consenso, o quanto meno un parere, della cittadinanza.

    #Simone Pieranni #Chine #Reconnaissance_faciale

  • Les possibilités de #fichage de la #police discrètement élargies par trois #décrets

    Trois décrets publiés vendredi au #Journal_Officiel, et passés quasiment inaperçus, créent la polémique et l’inquiétude des défenseurs des libertés. Ils vont permettre aux #forces_de_l'ordre et aux renseignements de collecter beaucoup plus d’#informations et des données très personnelles.

    Ficher les #opinions_politiques de certains Français, les #orientations_sexuelles, la #pratique_sportive, les #comportements_religieux, les activités sur les #réseaux_sociaux, c’est une nouvelle prérogative des forces de l’ordre, grâce à trois décrets parus vendredi en toute discrétion. Concrètement, avec ces décrets, l’exécutif élargit les possibilités de fichage de certains services de police et de #gendarmerie.

    Il ne s’agit pas, théoriquement, de collecter des données de tous les citoyens, mais, selon le décret, de personnes « susceptibles de porter atteinte aux #intérêts_fondamentaux_de_la_Nation, à l’#intégrité_du_territoire, ou des #institutions de la République. Ou encore de constituer une #menace_terroriste ».

    Données relatives aux #troubles_psychologiques, psychiatriques

    Ces nouvelles données, concernant de nouvelles personnes, viendront grossir trois fichiers : le fichier #Prévention_des_atteintes_à_la_sécurité_publique (#PASP), le fichier #Gestion_de_l’information_et_prévention_des_atteintes_à_la_sécurité_publique (#GIPASP) et le fichier #Enquêtes_administratives_liées_à_la_sécurité_publique (#EASP). Ce dernier fichier est utilisé pour réaliser les #enquêtes_administratives_préalables à certains recrutements dans la #fonction_publique.

    Des voix s’élèvent aujourd’hui pour s’inquiéter du périmètre - notamment - très large accordé au recueil des données, sachant que pour les terroristes potentiels, il existe d’autres fichiers. Il est question aussi de mieux surveiller les personnes morales et les groupements, autrement dit les #associations.

    Quant au contenu des données collectées : ce ne sont plus seulement les activités politiques, religieuses, syndicales, mais dorénavant également les #opinions_politiques, les #convictions_philosophiques, religieuses, ainsi que les comportements et habitudes de vie, les #pratiques_sportives... Autant de notions intrusives, sur lesquelles la CNIL a demandé des précisions. Avis non pris en compte.

    Le #renseignement_territorial pourra également enregistrer des données relatives aux troubles psychologiques ou psychiatriques qui peuvent être considérées comme des atteintes au #secret_médical.

    « Les fichiers de police dont on parle ne sont pas des #fichiers_judiciaires, ce sont des fichiers qui sont gérés par la police, seule, pour la police, explique Arthur Messaud, porte-parole de La Quadrature du Net. Ce ne sont pas non plus des fichiers de #contre-terrorisme. On est dans la lutte contre les sectes, la lutte contre les hooligans et la lutte contre les violences autour des trafics de drogue, mais aussi toutes les luttes, les #violences ou les #manifestations non déclarées autour des #mouvements_idéologiques. Il faut bien comprendre que là, quand je dis #violence, c’est tel qu’interprété par la police. »

    « Ce n’est pas un #juge qui va qualifier des #infractions_pénales. Non, c’est la police toute seule pour ces renseignements à elle, qui va surveiller des gens qu’elle considère comme dangereux pour le pouvoir en place » - Arthur Messaud

    Le décret comporte également un couplet sur les réseaux sociaux

    Surveillance actée des activités sur ces réseaux avec possibilité de recueil des #pseudonymes et #identifiant, pas les mots de passe, uniquement les informations mises en ligne volontairement en source ouverte. Mais il sera possible de capter les commentaires et surtout les #photos, #reconnaissance_faciale non exclue.

    La CNIL souligne que le résultat devra être recoupé et qu’il ne suffira en aucune manière à lui seul à fonder une décision à l’égard de la personne.

    Ces décrets apparaissent comme une nouvelle encoche dans nos #libertés. A minima une bombe à retardement si notre histoire démocratique venait à vaciller.

    Il y a 12 ans, le #fichier_Edwige prévoyait de collecter - déjà - des informations sur les opinions des personnes fichées. Des mobilisations citoyennes avaient permis de modifier la donne et le gouvernement avait autorisé le recueil de fichier uniquement sur les activités politiques des personnes et non plus leurs #opinions.

    https://www.franceinter.fr/societe/les-possibilites-de-fichage-de-la-police-discretement-elargit-par-trois-
    #décret #France #données_personnelles

    ping @etraces

  • La #Technopolice, moteur de la « #sécurité_globale »

    L’article 24 de la #loi_Sécurité_Globale ne doit pas devenir l’arbre qui cache la forêt d’une politique de fond, au cœur de ce texte, visant à faire passer la #surveillance et le #contrôle_de_la_population par la police à une nouvelle ère technologique.

    Quelques jours avant le vote de la loi Sécurité Globale à l’Assemblée Nationale, le ministère de l’Intérieur présentait son #Livre_blanc. Ce long #rapport de #prospective révèle la #feuille_de_route du ministère de l’Intérieur pour les années à venir. Comme l’explique Gérard Darmanin devant les députés, la proposition de loi Sécurité Globale n’est que le début de la transposition du Livre dans la législation. Car cette loi, au-delà de l’interdiction de diffusion d’#images de la police (#article_24), vise surtout à renforcer considérablement les pouvoirs de surveillance des #forces_de_l’ordre, notamment à travers la légalisation des #drones (article 22), la diffusion en direct des #caméras_piétons au centre d’opération (article 21), les nouvelles prérogatives de la #police_municipale (article 20), la #vidéosurveillance dans les hall d’immeubles (article 20bis). Cette loi sera la première pierre d’un vaste chantier qui s’étalera sur plusieurs années.

    Toujours plus de pouvoirs pour la police

    Le Livre blanc du ministère de l’Intérieur envisage d’accroître, à tous les niveaux, les pouvoirs des différentes #forces_de_sécurité (la #Police_nationale, la police municipale, la #gendarmerie et les agents de #sécurité_privée) : ce qu’ils appellent, dans la novlangue officielle, le « #continuum_de_la_sécurité_intérieure ». Souhaitant « renforcer la police et la rendre plus efficace », le livre blanc se concentre sur quatre angles principaux :

    - Il ambitionne de (re)créer une #confiance de la population en ses forces de sécurité, notamment par une #communication_renforcée, pour « contribuer à [leur] légitimité », par un embrigadement de la jeunesse – le #Service_National_Universel, ou encore par la création de « #journées_de_cohésion_nationale » (page 61). Dans la loi Sécurité Globale, cette volonté s’est déjà illustrée par la possibilité pour les policiers de participer à la « #guerre_de_l’image » en publiant les vidéos prises à l’aide de leurs #caméras_portatives (article 21).
    - Il prévoit d’augmenter les compétences des #maires en terme de sécurité, notamment par un élargissement des compétences de la police municipale : un accès simplifié aux #fichiers_de_police, de nouvelles compétences en terme de lutte contre les #incivilités … (page 135). Cette partie-là est déjà en partie présente dans la loi Sécurité Globale (article 20).
    - Il pousse à une #professionnalisation de la sécurité privée qui deviendrait ainsi les petites mains de la police, en vu notamment des #Jeux_olympiques Paris 2024, où le besoin en sécurité privée s’annonce colossal. Et cela passe par l’augmentation de ses #compétences : extension de leur #armement, possibilité d’intervention sur la #voie_publique, pouvoir de visionner les caméras, et même le port d’un #uniforme_spécifique (page 145).
    - Enfin, le dernier grand axe de ce livre concerne l’intégration de #nouvelles_technologies dans l’arsenal policier. Le titre de cette partie est évocateur, il s’agit de « porter le Ministère de l’Intérieur à la #frontière_technologique » (la notion de #frontière évoque la conquête de l’Ouest aux États-Unis, où il fallait coloniser les terres et les premières nations — la reprise de ce vocable relève d’une esthétique coloniale et viriliste).

    Ce livre prévoit une multitude de projets plus délirants et effrayants les uns que les autres. Il propose une #analyse_automatisée des #réseaux_sociaux (page 221), des #gilets_connectés pour les forces de l’ordre (page 227), ou encore des lunettes ou #casques_augmentés (page 227). Enfin, le Livre blanc insiste sur l’importance de la #biométrie pour la police. Entre proposition d’#interconnexion des #fichiers_biométriques (#TAJ, #FNAEG, #FAED…) (page 256), d’utilisation des #empreintes_digitales comme outil d’#identification lors des #contrôles_d’identité et l’équipement des #tablettes des policiers et gendarmes (#NEO et #NEOGEND) de lecteur d’empreinte sans contact (page 258), de faire plus de recherche sur la #reconnaissance_vocale et d’#odeur (!) (page 260) ou enfin de presser le législateur pour pouvoir expérimenter la #reconnaissance_faciale dans l’#espace_public (page 263).

    Le basculement technologique de la #surveillance par drones

    Parmi les nouveaux dispositifs promus par le Livre blanc : les #drones_de_police, ici appelés « #drones_de_sécurité_intérieure ». S’ils étaient autorisés par la loi « Sécurité Globale », ils modifieraient radicalement les pouvoirs de la police en lui donnant une capacité de surveillance totale.

    Il est d’ailleurs particulièrement marquant de voir que les rapporteurs de la loi considèrent cette légalisation comme une simple étape sans conséquence, parlant ainsi en une phrase « d’autoriser les services de l’État concourant à la #sécurité_intérieure et à la #défense_nationale et les forces de sécurité civile à filmer par voie aérienne (…) ». Cela alors que, du côté de la police et des industriels, les drones représentent une révolution dans le domaine de la sécurité, un acteur privé de premier plan évoquant au sujet des drones leur « potentiel quasiment inépuisable », car « rapides, faciles à opérer, discrets » et « tout simplement parfaits pour des missions de surveillance »

    Dans les discours sécuritaires qui font la promotion de ces dispositifs, il est en effet frappant de voir la frustration sur les capacités « limitées » (selon eux) des caméras fixes et combien ils fantasment sur le « potentiel » de ces drones. C’est le cas du maire LR d’Asnières-sur-Seine qui en 2016 se plaignait qu’on ne puisse matériellement pas « doter chaque coin de rue de #vidéoprotection » et que les drones « sont les outils techniques les plus adaptés » pour pallier aux limites de la présence humaine. La police met ainsi elle-même en avant la toute-puissance du #robot par le fait, par exemple pour les #contrôles_routiers, que « la caméra du drone détecte chaque infraction », que « les agents démontrent que plus rien ne leur échappe ». Même chose pour la #discrétion de ces outils qui peuvent, « à un coût nettement moindre » qu’un hélicoptère, « opérer des surveillances plus loin sur l’horizon sans être positionné à la verticale au-dessus des suspects ». Du côté des constructeurs, on vante les « #zooms puissants », les « #caméras_thermiques », leur donnant une « #vision_d’aigle », ainsi que « le #décollage possible pratiquement de n’importe où ».

    Tout cela n’est pas que du fantasme. Selon un rapport de l’Assemblée nationale, la police avait, en 2019, par exemple 30 drones « de type #Phantom_4 » et « #Mavic_Pro » (ou « #Mavic_2_Enterprise » comme nous l’avons appris lors de notre contentieux contre la préfecture de police de Paris). Il suffit d’aller voir les fiches descriptives du constructeur pour être inondé de termes techniques vantant l’omniscience de son produit : « caméra de nacelle à 3 axes », « vidéos 4K », « photos de 12 mégapixels », « caméra thermique infrarouge », « vitesse de vol maximale à 72 km/h » … Tant de termes qui recoupent les descriptions faites par leurs promoteurs : une machine volante, discrète, avec une capacité de surveiller tout (espace public ou non), et de loin.

    Il ne s’agit donc pas d’améliorer le dispositif de la vidéosurveillance déjà existant, mais d’un passage à l’échelle qui transforme sa nature, engageant une surveillance massive et largement invisible de l’espace public. Et cela bien loin du léger cadre qu’on avait réussi à imposer aux caméras fixes, qui imposait notamment que chaque caméra installée puisse faire la preuve de son utilité et de son intérêt, c’est-à-dire de la nécessité et de la #proportionnalité de son installation. Au lieu de cela, la vidéosurveillance demeure une politique publique dispendieuse et pourtant jamais évaluée. Comme le rappelle un récent rapport de la Cour des comptes, « aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de la délinquance commise sur la voie publique, ou encore les taux d’élucidation ». Autre principe fondamental du droit entourant actuellement la vidéosurveillance (et lui aussi déjà largement inappliqué) : chaque personne filmée doit être informée de cette surveillance. Les drones semblent en contradiction avec ces deux principes : leur utilisation s’oppose à toute notion d’information des personnes et de nécessité ou proportionnalité.

    Où serons-nous dans 4 ans ?

    En pratique, c’est un basculement total des #pratiques_policières (et donc de notre quotidien) que préparent ces évolutions technologiques et législatives. Le Livre blanc fixe une échéance importante à cet égard : « les Jeux olympiques et paralympiques de Paris de 2024 seront un événement aux dimensions hors normes posant des enjeux de sécurité majeurs » (p. 159). Or, « les Jeux olympiques ne seront pas un lieu d’expérimentation : ces technologies devront être déjà éprouvées, notamment à l’occasion de la coupe de monde de Rugby de 2023 » (p. 159).

    En juillet 2019, le rapport parlementaire cité plus haut constatait que la Police nationale disposait de 30 drones et de 23 pilotes. En novembre 2020, le Livre blanc (p. 231) décompte 235 drones et 146 pilotes. En 14 mois, le nombre de drones et pilotes aura été multiplié par 7. Dès avril 2020, le ministère de l’Intérieur a publié un appel d’offre pour acquérir 650 drones de plus. Rappelons-le : ces dotations se sont faites en violation de la loi. Qu’en sera-t-il lorsque les drones seront autorisés par la loi « sécurité globale » ? Avec combien de milliers d’appareils volants devra-t-on bientôt partager nos rues ? Faut-il redouter, au cours des #JO de 2024, que des dizaines de drones soient attribués à la surveillance de chaque quartier de la région parisienne, survolant plus ou moins automatiquement chaque rue, sans répit, tout au long de la journée ?

    Les évolutions en matières de reconnaissance faciale invite à des projections encore plus glaçantes et irréelles. Dès 2016, nous dénoncions que le méga-fichier #TES, destiné à contenir le visage de l’ensemble de la population, servirait surtout, à terme, à généraliser la reconnaissance faciale à l’ensemble des activités policières : enquêtes, maintien de l’ordre, contrôles d’identité. Avec le port d’une caméra mobile par chaque brigade de police et de gendarmerie, tel que promis par Macron pour 2021, et la retransmission en temps réel permise par la loi « sécurité globale », ce rêve policier sera à portée de main : le gouvernement n’aura plus qu’à modifier unilatéralement son #décret_TES pour y joindre un système de reconnaissance faciale (exactement comme il avait fait en 2012 pour permettre la reconnaissance faciale à partir du TAJ qui, à lui seul, contient déjà 8 millions de photos). Aux robots dans le ciel s’ajouteraient des humains mutiques, dont le casque de réalité augmentée évoqué par le Livre Blanc, couplé à l’analyse d’image automatisée et aux tablettes numériques NEO, permettrait des contrôles systématiques et silencieux, rompus uniquement par la violence des interventions dirigées discrètement et à distance à travers la myriade de drones et de #cyborgs.

    En somme, ce Livre Blanc, dont une large partie est déjà transposée dans la proposition de loi sécurité globale, annonce le passage d’un #cap_sécuritaire historique : toujours plus de surveillance, plus de moyens et de pouvoirs pour la police et consorts, dans des proportions et à un rythme jamais égalés. De fait, c’est un #État_autoritaire qui s’affirme et se consolide à grand renfort d’argent public. Le Livre blanc propose ainsi de multiplier par trois le #budget dévolu au ministère de l’Intérieur, avec une augmentation de 6,7 milliards € sur 10 ans et de 3 milliards entre 2020 et 2025. Une provocation insupportable qui invite à réfléchir sérieusement au définancement de la police au profit de services publiques dont le délabrement plonge la population dans une #insécurité bien plus profonde que celle prétendument gérée par la police.

    https://www.laquadrature.net/2020/11/19/la-technopolice-moteur-de-la-securite-globale
    #France #Etat_autoritaire

    ping @isskein @karine4 @simplicissimus @reka @etraces

  • L’ONU met en garde contre l’impact des frontières intelligentes sur les réfugiés
    https://www.nextinpact.com/lebrief/44611/lonu-met-en-garde-contre-impact-frontieres-intelligentes-sur-refugies

    Tendayi Achiume, rapporteure spéciale de l’ONU sur le racisme, la discrimination raciale, la xénophobie et l’intolérance, a appelé à un moratoire sur l’utilisation de certaines technologies de surveillance utilisées dans les programmes de « frontières intelligentes », révèle The Guardian.

    Dans un rapport à paraître, elle qualifie de « troublants » les détecteurs de mensonge dans les aéroports européens, les scans oculaires effectués dans les camps de réfugiés ou les logiciels de reconnaissance vocale utilisés dans les demandes d’asile. Elle estime que ces technologies peuvent en outre être injustes et enfreindre les droits de l’homme.

    Elle a également cité les efforts de Donald Trump pour construire un mur entre les États-Unis et le Mexique : « il s’avère que les décès aux frontières ont augmenté dans les endroits où des frontières intelligentes ont été mises en place ».

    Petra Molnar, du Refugee Law Lab de Toronto, qui a contribué au rapport du rapporteur de l’ONU, a noté dans ses propres recherches l’impact déshumanisant de certaines technologies sur les personnes déplacées . Un demandeur d’asile, avec qui elle s’est entretenue en Belgique, a déclaré que la quantité de données personnelles auxquelles il avait renoncé lui faisait se sentir « comme un morceau de viande sans vie, juste des empreintes digitales et des scans oculaires ».

    « L’un des messages clés du rapport est que nous devons être très attentifs à l’impact disparate de cette technologie et pas seulement supposer que parce que la technologie va être juste ou neutre ou objective d’une manière ou d’une autre ».

    « La collecte de données n’est pas un exercice apolitique », note le rapport d’Achiume, « en particulier lorsque de puissants acteurs du Nord mondial collectent des informations sur les populations vulnérables sans méthodes réglementées de surveillance et de responsabilité. »

    L’année dernière, le Programme alimentaire mondial des Nations Unies s’est ainsi associé à Palantir Technologies, rappelle The Guardian, sur un contrat de 45 millions de dollars, partageant les données de 92 millions de bénéficiaires de l’aide.

    Achiume a déclaré que jusqu’à ce que l’impact des technologies de surveillance sur les droits de l’homme puisse être compris, l’utilisation de ces technologies devrait être interrompue. « Jusqu’à ce que nous puissions comprendre et atténuer ces préjudices, il devrait y avoir un moratoire à leur encontre. »

    #Reconnaissance_faciale #Migrants #Droits_humains #Frontières

  • UN warns of impact of smart borders on refugees: ‘Data collection isn’t apolitical’

    Special rapporteur on racism and xenophobia believes there is a misconception that biosurveillance technology is without bias

    Robotic lie detector tests at European airports, eye scans for refugees and voice-imprinting software for use in asylum applications are among new technologies flagged as “troubling” in a UN report.

    The UN’s special rapporteur on racism, racial discrimination, xenophobia and related intolerance, Prof Tendayi Achiume, said digital technologies can be unfair and regularly breach human rights. In her new report, she has called for a moratorium on the use of certain surveillance technologies.

    Achiume, who is from Zambia, told the Guardian she was concerned about the rights of displaced people being compromised. She said there was a misconception that such technologies, often considered “a humane” option in border enforcement, are without bias.

    “One of the key messages of the report is that we have to be paying very close attention to the disparate impact of this technology and not just assuming that because it’s technology, it’s going to be fair or be neutral or objective in some way.”

    She cited the example of pushback against Donald Trump’s effort to build a wall between the US and Mexico. “You see that there isn’t a similar sense of outrage when digital technologies are deployed to serve the same function … if you actually look at some of the statistics, and if you look at some of the research, which I cite in my report, it turns out that border deaths have increased in places where smart borders have been implemented.”

    She also raised concerns about the ways in which humanitarian agencies are engaging with surveillance. The report notes that in Afghanistan, the UN refugee agency (UNHCR) requires returning refugees to undergo iris registration as a prerequisite for receiving assistance.

    While the UNHCR has justified the use of this technology as a way to prevent fraud, “the impact of processing such sensitive data can be grave when systems are flawed or abused”, the report said.

    Last year the UN’s World Food Programme partnered with Palantir Technologies, a data mining company, on a $45m (£34m) contract, sharing the data of 92 million aid recipients.

    “Data collection is not an apolitical exercise,” notes Achiume’s report, “especially when powerful global north actors collect information on vulnerable populations with no regulated methods of oversights and accountability.”

    Covid-19 has also accelerated “biosurveillance” – focused on tracking people’s movements and health. Biosurveillance has everyday uses, such as the “track and trace” app in the UK, but there are concerns about the regulation of large-scale data harvested from populations.

    One example is the “Covi-Pass”, a health passport developed by Mastercard and Gavi, a private-public health alliance, that is reportedly due to be rolled out across west Africa. The UN report highlighted the implications of such passports for freedom of movement, “especially for refugees”.

    Petra Molnar from the Refugee Law Lab in Toronto said it was clear that the pandemic was increasing digital rights violations. “State responses to the pandemic are exacerbating the turn towards biosurveillance, with refugees and people on the move acting as communities on which to test various interventions and fast-track tech development,” she said.

    Molnar, who contributed to the UN rapporteur’s report, has noted the dehumanising impact of some technologies on displaced people in her own research. One asylum seeker she spoke to in Belgium said the amount of personal data he’d given up made him feel, “like a piece of meat without a life, just fingerprints and eye scans”.

    “Our conversations with refugees and people crossing borders show how little attention is being paid to the lived experiences of people who are at the sharp edges of these high-risk technological experiments,” said Molnar.

    The intersection of technology and human rights violations were highlighted in a recent investigation into the European border agency Frontex, which allegedly witnessed pushbacks of migrants in the Aegean Sea via some of its assets, including drones.

    Konstantinos Kakavoulis from Homo Digitalis, a Greek organisation focused on digital rights, said technologies often outpaced the legal framework.

    “There is no clear regulation for the use of drones or body-worn cameras by the Greek police,” he said. “The police have signed a contract for the provision of a facial recognition software with Intracom Telecom, a Greek company, without receiving the opinion of the Greek data protection authority.”

    He added: “Apart from the insufficiency of legal safeguards, we also lack transparency; and this is not only remarkable, but highly problematic.”

    Achiume said that until the impact of surveillance technologies on human rights could be understood, use of such technologies should be halted. “Until we can understand and mitigate those harms, there should just be a moratorium on them.”

    https://www.theguardian.com/global-development/2020/nov/11/un-warns-of-impact-of-smart-borders-on-refugees-data-collection-isnt-ap

    #frontières #smart_borders #frontières_intelligentes #réfugiés #asile #migrations #technologie #politique #biopolitique #technologies_digitales #droits_fondamentau #droits_humains #surveillance #contrôles_frontaliers #neutralité #Palantir_Technologies #données #biosurveillance #Covi-Pass #Mastercard #Gavi #complexe_militaro-industriel #covid-19 #coronavirus #reconnaissance_faciale #Intracom_Telecom

    ping @karine4 @isskein @etraces @thomas_lacroix

  • [vidéo] « Pourtant la ville t’appartient » | Mačko Dràgàn
    https://technopolice.fr/blog/pourtant-la-ville-tappartient-un-film-pour-enrayer-la-machine-technopol

    C’est quoi, un espace public ? Pour le pouvoir c’est un lieu à gentrifier, privatiser, fliquer. Pour nous, habitant.e.s des quartiers, précaires, sans-abris, squatteurs, artistes de rue, manifestant.e.s, c’est un lieu de vie. Nous avons donné la parole à ces invisibles, afin de voir ce que nous avons perdu –et ce qu’il nous faut reprendre. Parce qu’on peut vivre ensemble. Sans répression. Durée : 1h22. Source : Technopolice

  • À l’aéroport de Lyon, Vinci banalise la reconnaissance faciale
    https://technopolice.fr/blog/a-laeroport-de-lyon-vinci-banalise-la-reconnaissance-faciale

    L’expérimentation de reconnaissance faciale lancée la semaine dernière par Vinci Airports est un nouveau pas vers la banalisation des technologies de surveillance biométrique. Grâce aux financements de l’Etat et au soutien implicite de la Cnil, l’entreprise Idemia a pu déployer sans inquiétude son dispositif biométrique dans l’espace public. Nulle doute qu’elle et les autres entreprises de la Technopolice sauront en profiter. Lundi 5 octobre, l’entreprise Vinci Airports a annoncé le lancement d’une (...)

    #Vinci #algorithme #CCTV #biométrie #facial #reconnaissance #vidéo-surveillance #surveillance # #LaQuadratureduNet (...)

    ##_ ##Technopolice

  • L’#artiste #Paolo_Cirio affiche des visages de policiers dans Paris pour dénoncer la reconnaissance faciale
    https://information.tv5monde.com/info/l-artiste-paolo-cirio-affiche-des-visages-de-policiers-dans-pa

    La #pétition pour « bannir la #reconnaissance_faciale en Europe » a recueilli près de 14 000 signatures. Le #hacker militant et artiste Paolo Cirio y participe grâce à une performance bien particulière, en placardant à travers la capitale française des centaines d’affiches de visages de policiers récupérés sur Internet. Entretien.
    Paolo Cirio est très connu dans le milieu des défenseurs de la vie privée sur Internet. Il l’est moins du grand public, ce qui pourrait changer après sa performance artistique urbaine nommée "Capture "et lancée ce premier octobre 2020.

    https://www.laquadrature.net/2020/09/22/nous-soutenons-la-petition-pour-bannir-la-reconnaissance-faciale-en-eu

    pétition :
    https://ban-facial-recognition.wesign.it/droitshumains/bannissons-la-reconnaissance-faciale-en-europe#sign

  • L’artiste Paolo Cirio affiche des visages de policiers dans Paris pour dénoncer la reconnaissance faciale.
    https://information.tv5monde.com/info/l-artiste-paolo-cirio-affiche-des-visages-de-policiers-dans-pa

    Paolo Cirio — pour son dernier projet nommé Capture — a créé une base de données contenant 4000 visages de policiers français pour les identifier avec une technologie de reconnaissance faciale, via sa plateforme https://capture-police.com. Ce jeudi premier octobre 2020, l’artiste effectue donc une performance de « street art » en dévoilant une partie des portraits des officiers de police tirés de sa plateforme, affichés un peu partout dans la capitale française.

    J’ai choisi le mot Capture parce qu’il est court et qu’il résume bien le concept qu’il y a derrière la reconnaissance faciale. Particulièrement lorsque cette technologie est utilisée par la police. Ils l’utilisent pour capturer des criminels, des manifestants, pour les attraper, donc les capturer grâce à des logiciels et des caméras.

    Quand vous capturez un visage avec un appareil photo vous faites la même chose que ce que fait la police qui tente de capturer quelqu’un. C’est comme ça que m’est venue l’idée de ce projet Capture, en utilisant des photos de visages de policiers, des visages que j’ai capturés moi aussi, sur le Net.

    Tout le monde doit être inquiet par l’émergence de cette technologie qui va permettre la surveillance de masse, les analyses des comportements, des émotions des gens dans la rue, comme en Chine.

    J’ai en fait renversé le procédé de la reconnaissance faciale en l’utilisant contre ceux qui normalement l’utilisent contre des citoyens, c’est-à-dire les policiers. Je veux démontrer que cette technologie est très puissante et qu’elle peut être utilisée par des activistes, des citoyens, mais aussi par des criminels ou des terroristes, et ce, contre la police.

    Cela peut ressembler à une grosse provocation, mais en fait, cela peut-être aussi pris comme une manière de protéger la police en leur montrant les dangers de cette technologie. En fait, j’aimerais que les policiers signent eux aussi la pétition pour bannir la reconnaissance faciale en Europe.

    • Synergie-Officiers @PoliceSynergie
      https://twitter.com/PoliceSynergie/status/1312024085447180290

      Merci à ⁦@GDarmanin⁩ pour la promptitude de sa réaction et sa fermeté pour défendre les #policiers et leurs familles. Son intervention a permis de déprogrammer une entreprise criminogène sous couvert d’une démarche artistique. #Police # Jesoutienslapolice #BlueLivesMatter

      Le Fresnoy déprogramme :

      Des fafs tous les jours sur les chaînes info et dans la presse, des lois et décrets liberticides, racistes et anti pauvres comme si il en pleuvait, et des débats" sur la « cancel culture » et la longueur des vêtements des scolarisées.

      #police #reconnaissance_faciale #censure #école_d'art #exposition #culture #art

    • #fuite suite aux menaces
      https://www.mediapart.fr/journal/france/131020/un-artiste-menace-apres-avoir-voulu-diffuser-des-visages-de-policiers

      "« Je ne me sens plus en sécurité dans ce pays », lâche, amer, l’artiste et hacktiviste Paolo Cirio qui a quitté précipitamment la France la semaine dernière après avoir reçu plusieurs menaces par mails. L’exposition de son œuvre Capture venait d’être annulée, dans laquelle il entendait dénoncer les dangers de la reconnaissance faciale en exposant des visages de policiers trouvés sur internet.

      Pour réaliser son projet, Paolo Cirio avait « collecté 1 000 images publiques de policiers, dans des photos prises durant des manifestations en France, et les avaient soumises à un logiciel de reconnaissance faciale », explique l’artiste sur son site. Ce procédé lui a permis de récupérer 4 000 visages de policiers. Ceux-ci devaient être exposés, sous forme d’une fresque, dans le cadre de l’exposition Panorama 22. Les Sentinelles, qui s’ouvre jeudi 15 octobre au studio national des arts contemporains Le Fresnoy de Tourcoing.

      Le jour de la mise en ligne de la présentation de son projet, le jeudi 1er octobre, Paulo Cirio avait également mené une action dans les rues de Paris y affichant certains des portraits de policiers. L’opération était accompagnée de la mise en place d’un site internet, capture-police.com, répertoriant les photos et invitant les internautes à identifier les agents qu’ils pourraient reconnaître, ainsi que d’une pétition appelant à l’interdiction de la reconnaissance faciale.

      « La police appelle à l’utilisation de la reconnaissance faciale sur les manifestants, les minorités et les civils, alors qu’elle se rend non identifiable lors d’affrontements publics, poursuit le site internet de l’artiste. Dans le projet Capture, la reconnaissance faciale se retourne contre les mêmes autorités publiques et forces de l’ordre qui cherchent à en justifier la nécessité. »

      Mais les choses ne se sont pas passées comme Paolo Cirio l’avait prévu. Immédiatement après sa mise en ligne, le projet de l’artiste provoque une levée de boucliers. « Ça a été très vite », raconte-t-il à Mediapart. Il y eut tout d’abord les réactions indignées de syndicats de policiers – « seulement une heure après avoir publié mon projet », se souvient Paolo Cirio – qui en appellent à leur ministre de tutelle, Gérald Darmanin. Celui-ci, qui se trouve être par ailleurs ancien maire de Tourcoing, ville où se situe le studio Le Fresnoy, réagit quelques heures plus tard.

      « Insupportable mise au pilori de femmes et d’hommes qui risquent leur vie pour nous protéger, écrit le ministre de l’intérieur sur Twitter. Je demande la déprogrammation de l’“exposition” et le retrait des photos de son site, sous peine de saisir les juridictions compétentes. »

      Dès le lendemain, Le Fresnoy annule effectivement l’exposition de Paolo Cirio. « Nous ne pouvons en aucun cas adhérer à une démarche qui associe l’œuvre en question à une plateforme numérique où l’artiste invite à identifier et à désigner nommément des policiers, dont les photographies ont été préalablement diffusées sur internet », écrit le studio dans un communiqué en date du vendredi 2 octobre et largement diffusé sur les réseaux sociaux par des syndicats de policiers. « Par cette démarche qui a changé la nature de l’intervention du Fresnoy, l’artiste a violé les engagements qu’il avait pris de ne rien faire de tel devant les responsables du Fresnoy, et la direction de la Condition publique, ce qui nous a profondément choqués », poursuit-il.

      Parallèlement, Paolo Cirio reçoit sur sa boîte mails des messages d’insultes et d’autres plus inquiétants. « J’ai reçu de nombreux messages, dont certains très violents disant par exemple qu’ils me surveillaient ou qu’ils me trouveraient », raconte-t-il. Aucune menace de mort directe, mais des pressions et des insinuations assez précises pour le décider à retirer son site internet, qui a depuis été remplacé par la pétition.

      Et pour le convaincre de quitter le territoire français. « Je suis parti car je ne me sens plus en sécurité, explique Paolo Cirio. Je venais deux, trois fois en France par an. J’ai même donné des cours au Fresnoy. Mais pour l’instant, je pense que je ne reviendrai pas. »
      "

  • L’essor des réseaux de caméras intelligentes, et pourquoi nous devrions les interdire
    https://www.les-crises.fr/l-essor-des-reseaux-de-cameras-intelligentes-et-pourquoi-nous-devrions-le

    Source : The Intercept, Michael Kwet La #Reconnaissance_Faciale inquiète un peu partout. Qu’on puisse, par caméra, suivre nos moindres mouvements en public préoccupe beaucoup plus que l’existence et la prévalence exponentielle des réseaux de vidéosurveillance « intelligents », alors qu’il s’agit d’un sujet tout aussi inquiétant. Les ménages et les sociétés privées commencent à connecter leurs caméras sur les réseaux policiers, et les rapides progrès de l’intelligence artificielle donnent aux réseaux de télévision en circuit fermé le pouvoir de surveiller la totalité de l’espace public. Dans un avenir pas si lointain, nos forces de police, nos magasins, et notre administration municipale espèrent pouvoir filmer notre moindre mouvement, et même mieux, l’interpréter par le biais de l’analyse des métadonnées. (...)

    #Libertés_Publiques #Surveillance_de_masse #Libertés_Publiques,_Reconnaissance_Faciale,_Surveillance_de_masse

  • Racisme policier : les géants du Net font mine d’arrêter la reconnaissance faciale
    https://www.laquadrature.net/2020/06/22/racisme-policier-les-geants-du-net-font-mine-darreter-la-reconnaissanc

    À un moment où l’institution policière est remise en question, les multinationales de la sécurité tentent de se racheter une image par des effets d’annonce : elles arrêteraient la reconnaissance faciale car la technologie ne serait…

    #Non_classé

  • Les réseaux politiques de Benalla lui ouvrent le marché de la reconnaissance faciale - Page 1 | Mediapart
    https://www.mediapart.fr/journal/france/100620/les-reseaux-politiques-de-benalla-lui-ouvrent-le-marche-de-la-reconnaissan

    En pleine pandémie du Covid-19, Alexandre Benalla a mis un pied dans le marché de la reconnaissance faciale, secteur en pleine expansion en France, notamment pour ses applications en matière de sécurité, grâce au concours de plusieurs intermédiaires politiques, selon les informations de Mediapart.

    En pleine pandémie du Covid-19, Alexandre Benalla a mis un pied dans le marché de la reconnaissance faciale, secteur en pleine expansion en France, notamment pour ses applications en matière de sécurité, grâce au concours de plusieurs intermédiaires politiques, selon les informations de Mediapart : l’ancien collaborateur du député Joachim Son-Forget et l’homme d’affaires Yazid Sabeg, ex-commissaire à la diversité de Nicolas Sarkozy.

    L’ancien collaborateur d’Emmanuel Macron a été reçu une première fois, mardi 26 mai, à Suresnes (Hauts-de-Seine), dans les locaux de la société française « XXII », une jeune entreprise française qui développe la technologie prometteuse de « vision par ordinateur » (une branche de l’intelligence artificielle qui permet le traitement de données visuelles).

    Fondée en 2016, l’entreprise travaille notamment avec Airbus, Safran, Total, Aéroports de Paris ou des collectivités territoriales, en vue de développer des « safe cities », des réseaux urbains sécurisés par la reconnaissance faciale.

    Alexandre Benalla a été introduit auprès de XXII par l’ex-assistant parlementaire du député des Français de l’étranger Joachim Son-Forget, un certain Romain Chantemargue. Ce dernier, âgé de 20 ans, et ancien stagiaire chez XXII, vient d’être élu aux municipales dans la commune de Cormeilles-en-Parisis (Val-d’Oise). Il présidait, jusqu’au 2 juin, le micro-parti « Valeur absolue », fondé par Son-Forget après sa démission fracassante de La République en marche, en décembre 2018.

    L’ancien chargé de mission élyséen a rencontré l’assistant « à l’automne dernier », par l’intermédiaire de Joachim Son-Forget. Le jeune homme lui aurait d’abord offert ses services pour s’occuper de la certification de ses comptes sur les réseaux sociaux « gratuitement », « à titre amical », précise à Mediapart Alexandre Benalla. Puis il lui aurait proposé de rencontrer le patron de la start-up XXII, William Eldin.

    Pour Romain Chantemargue, il s’agissait de valoriser XXII, qui « est le seul acteur à faire de l’intelligence artificielle avec de la vision par ordinateur dans le domaine de la sécurité ». « C’est quelque chose qui se développe énormément. En Chine, en Israël avec Anyvision [voir ce documentaire https://www.arte.tv/fr/videos/083310-000-A/tous-surveilles-7-milliards-de-suspects sur le leader mondial de la reconnaissance faciale, proche des services de sécurité israéliens – ndlr]. En France, il y a XXII », explique à Mediapart le jeune homme, passionné d’informatique.

    Dans un premier temps, l’assistant parlementaire avait prévu d’organiser un rendez-vous entre XXII et Emmanuel Macron. « Romain Chantemargue m’a dit : “Je pourrais te faire rencontrer le président, ce serait cool.” Je dis : vas-y, go pour le président », confirme à Mediapart William Eldin, enthousiaste à l’idée de présenter au chef de l’État les enjeux de la technologie qu’il développe. « On a abordé le sujet ensemble avec William Eldin. J’ai dit que ça peut être intéressant de proposer au chef de cabinet une rencontre entre le président et une start-up qui travaille sur ce sujet », justifie l’assistant, en assurant toutefois qu’il s’agit d’une « réflexion » qui n’a pas abouti à ce stade.

    Contacté, l’Élysée n’a pas souhaité faire de commentaires.

    Quelques jours plus tard, le projet a changé de dimension. « Au dernier moment ça s’est réorienté, Romain Chantemargue m’a envoyé un message en me disant : “Et Alexandre Benalla ça te tente de le voir ?” », raconte William Eldin. Le patron de XXII accepte la proposition en se disant qu’Alexandre Benalla « n’est pas loin du président » et qu’il dispose d’un réseau important dans le domaine de la sécurité.

    Aucun projet concret n’a été acté lors de cette première rencontre du 26 mai. « Alexandre Benalla pense que j’ai une pépite dans les mains. Il m’a dit qu’il voit très bien le genre de cas d’utilisation qui pourraient lui être utiles », explique William Eldin. Romain Chantemargue explique ne pas avoir été rémunéré pour organiser ce rendez-vous : « Je ne suis pas payé par Alexandre, répond-il. J’ai une relation purement de travail avec lui. Si je peux faire des mises en relation autant le faire. Alexandre est quelqu’un d’adorable et très sérieux. »

    Selon le patron de XXII, l’ancien collaborateur du président a notamment indiqué « qu’il agissait beaucoup dans des pays étrangers ». Alexandre Benalla indique à Mediapart que cette rencontre a eu lieu dans le cadre du « développement » des activités de sa société, Comya Group, qui « est basée au Maroc » et qu’il est en train « de rebaser en France ». « [Le but] c’est de développer des propositions et des solutions vis-à-vis de mes clients : solutions globales de sécurité, solutions intégrées, cybersécurité, reconnaissance faciale, digitalisation des smart cities », détaille-t-il.

    Cette rencontre, dit-il, « n’intervenait en aucun cas dans le cadre d’un quelconque rapport avec M. Macron ». « Si à un moment l’Élysée a été abordé, c’est par M. Eldin, qui a soulevé le fait qu’il adorerait rencontrer Emmanuel Macron, et je n’ai pas répondu à cette phrase d’ailleurs », ajoute-t-il.

    L’ex-collaborateur d’Emmanuel Macron souligne n’avoir « plus de liens avec l’Élysée ». « Je ne veux plus avoir de liens avec aucun politique, aucun collaborateur, ça m’a apporté et ça m’apporterait plus de problèmes que de solutions. Je bosse aujourd’hui à titre privé, personnel, avec ma boîte. [...] Je développe mes activités de manière tout à fait – non pas transparente, parce que c’est un domaine qui n’est pas transparent –, mais en tout cas de manière légale. »

    Ses marges de manœuvre sont en tout cas, en théorie, très limitées : comme l’avait révélé Mediapart https://www.mediapart.fr/journal/france/160419/la-commission-de-deontologie-interdit-certaines-activites-alexandre-benall, la commission de déontologie de la fonction publique (CDFP) lui a interdit d’entretenir toute relation professionnelle avec des services publics de sécurité français ou avec des autorités publiques étrangères. Ces interdictions sont valables trois ans à compter du départ de M. Benalla de la présidence, soit jusqu’au 1er août 2021, mais – preuve supplémentaire de la faiblesse des dispositifs de contrôle en France – elles ne font l’objet d’aucune vérification systématique.

    Depuis son départ de l’Élysée après sa mise en cause pour des violences volontaires, l’ancien chargé de mission élyséen est concerné par plusieurs procédures judiciaires https://www.mediapart.fr/journal/france/220120/benalla-un-temoin-cle-implique-l-elysee-dans-l-affaire-des-coffres (violences du 1er Mai, selfie armé, passeports diplomatiques, contrats russes, soupçons de « faux témoignage », disparition du coffre-fort, absence de déclaration auprès de la HATVP) et mis en examen dans plusieurs d’entre elles.

    Alexandre Benalla affirme respecter « complètement » l’avis de la CDFP en ne travaillant « pas pour la sphère publique, pas pour des clients nationaux en France » mais « à l’international », et que pour « des personnes physiques ou morales privées ». Mais « dans un an, j’aurai la possibilité à nouveau de pouvoir dialoguer, proposer des offres commerciales à des entités, des États publics étrangers », précise-t-il. Actuellement, il maintient des contacts noués « avant l’Élysée », « à titre personnel, avec des chefs d’État étrangers », et qui « n’ont aucun lien et aucune incidence sur le professionnel », dit-il.

    Signe de son intérêt pour les technologies de XXII, Alexandre Benalla est revenu dès le lendemain du premier rendez-vous, mercredi 27 mai, au siège de la start-up. Encore entouré de Romain Chantemargue, l’ancien collaborateur d’Emmanuel Macron était cette fois accompagné de Yazid Sabeg, PDG de CS Group, une société de services informatiques et de cybersécurité.

    « J’ai reçu un petit message qui me disait : “William, on veut revenir avec quelqu’un d’important.” Moi je croyais que c’était Emmanuel Macron », explique M. Eldin.

    Yazid Sabeg n’est pas un simple entrepreneur. Ce patron d’origine algérienne est avant tout un homme de réseaux, qui cultive un épais carnet d’adresses, au carrefour de la politique et des affaires. Apparu sur le devant de la scène en 2004, à la faveur d’un livre déroulant ses propositions pour lutter contre les discriminations (Les Oubliés de l’égalité des chances issu d’un rapport commandé par l’Institut Montaigne https://www.institutmontaigne.org/publications/les-oublies-de-legalite-des-chances ), Sabeg fut, entre 2008 et 2012, le commissaire à la diversité et à l’égalité des chances de Nicolas Sarkozy.

    Il est aussi un proche de longue date de l’homme d’affaires franco-algérien Alexandre Djouhri – protagoniste clé de l’affaire Sarkozy-Kadhafi, mis en examen pour neuf délits présumés, dont « corruption active », « complicité de détournement de fonds publics » et « blanchiment ». Sous la présidence de Nicolas Sarkozy, le trio s’est rencontré à plusieurs reprises, comme en attestent les agendas de l’ex-chef de l’État, saisis dans le cadre de l’affaire Bettencourt https://www.leparisien.fr/politique/affaires-les-troublants-rendez-vous-de-sarkozy-05-04-2014-3742969.php .

    Yazid Sabeg est visé depuis 2013 par une enquête préliminaire menée par le parquet national financier pour « abus de biens sociaux » dans l’affaire Altis, cette usine de puces électroniques qu’il avait reprise à la demande et avec l’argent de feu Serge Dassault. Son nom apparaît également dans l’affaire Qatar/Veolia, qui porte sur la constitution d’une caisse noire de 180 millions d’euros par le Qatar lors de son entrée au capital de Veolia (lire ici https://www.mediapart.fr/journal/france/090620/%20https://www.mediapart.fr/journal/france/030415/qatar-veolia-henri-proglio-perquisitionne?onglet=full et là https://www.liberation.fr/futurs/2014/10/06/l-operation-velo-de-chypre-a-singapour_1116160 ). Sabeg dit n’avoir bénéficié d’aucun « mandat ou autre contrat » lié à cette opération.

    Questionné par Mediapart sur ce rendez-vous dans les locaux de XXII, Yazid Sabeg évoque une « réunion informelle » avec William Eldin, pour négocier les technologies d’acquisition visuelle de la société, « très intéressantes pour certaines de nos applications ».

    Il dément en revanche « tout rendez-vous commun » et « tout projet commun » avec Alexandre Benalla, en se contredisant sur la présence de l’ex-collaborateur d’Emmanuel Macron : il explique d’abord l’avoir « croisé » de manière « fortuite » au siège de XXII, puis dit avoir été « averti de sa présence en raison de ses relations techniques avec XXII ». Il affirme que l’ancien chargé de mission élyséen, « entouré d’un ou deux collaborateurs », « était là pour d’autres sujets, pour parler de vidéosurveillance ». « Lui s’intéresse à la reconnaissance faciale, la surveillance. Moi ce n’est pas mon sujet. Nos projets avec M. Eldin n’ont rien à voir avec M. Benalla ».

    Malgré ce démenti, nous avons reçu, après notre entretien, le 2 juin, avec Yazid Sabeg, des appels et messages d’Alexandre Benalla nous demandant de lui laisser « le droit de travailler ». Puis la Lettre A https://www.lalettrea.fr/action-publique_executif/2020/06/09/alexandre-benalla-approche-yazid-sabeg-sur-le-creneau-de-la-cybersecurite, a annoncé, le 9 juin, des « négociations » entre Benalla, Sabeg et XXII dans ce secteur de la surveillance et de la cybersécurité.

    À Mediapart, l’ancien collaborateur d’Emmanuel Macron confirme la rencontre du trio, mais affirme que ces rendez-vous « ont été des discussions de présentation et en aucun cas commerciales, de négociations ou contractuelles ».

    Comment sa route a-t-elle croisé celle de Yazid Sabeg ? Alexandre Benalla dit le connaître « depuis peu », et l’avoir rencontré « bien après l’Élysée », « à cinq reprises », par l’intermédiaire d’un « cadre supérieur dans un grand groupe français privé ». De son côté, Sabeg qualifie Benalla de « relation très lointaine », et dit l’avoir « croisé une fois ou deux avant », « par hasard », via des « relations amicales communes ». « Je ne vous en dirai pas plus », coupe-t-il court. « Arrêtez, arrêtez sur ces histoires, Benalla, tout ça, je n’ai pas envie de parler de tout ça. Je n’ai pas envie de répondre. »

    Tous deux démentent que cette rencontre se soit faite par l’intermédiaire d’Alexandre Djouhri, lui aussi une connaissance d’Alexandre Benalla.

    Benalla a nourri une vraie fascination pour Djouhri, d’extraction populaire (comme lui) et ayant fréquenté les ors de la République (comme lui). Il était allé au contact de l’intermédiaire sarkozyste au culot, dans un célèbre restaurant japonais du quartier de Knightsbridge, à Londres, à l’automne 2018.

    Questionné par Mediapart fin 2018 https://www.mediapart.fr/journal/france/191218/macron-sarkozy-benalla-djouhri-les-etranges-alliances-du-nouveau-monde?ong , l’ancien collaborateur d’Emmanuel Macron avait d’abord nié connaître Alexandre Djouhri, avant d’admettre l’avoir rencontré « plusieurs fois ». Aujourd’hui, il affirme n’avoir « plus aucun lien avec M. Djouhri ». « Il ne m’a jamais présenté personne, comme moi je ne lui ai jamais présenté personne », ajoute-t-il.

    #surveillance #benalla #technopolice #reconnaissance_faciale #bandits #contrôle_social #technomafia

  • Amazon suspend l’utilisation de sa reconnaissance faciale par la police pendant un an
    https://www.lemonde.fr/economie/article/2020/06/11/amazon-suspend-l-utilisation-de-sa-reconnaissance-faciale-par-la-police-pend


    Un manifestant porte un masque dénonçant la reconnaissance faciale, à Londres, le 16 mai.
    KIRSTY WIGGLESWORTH / AP

    La société basée à Seattle n’a pas dit pourquoi, mais les manifestations après la mort de George Floyd ont attiré l’attention sur l’injustice raciale aux Etats-Unis et sur la façon dont la police utilise la technologie pour suivre les personnes.

    Amazon a annoncé, mercredi 10 juin, interdire pendant un an à la police d’utiliser son logiciel de reconnaissance faciale Rekognition, dans un contexte de manifestations contre les violences policières et le racisme aux Etats-Unis depuis deux semaines.

    « Nous prônons des régulations plus strictes des gouvernements sur le recours éthique aux technologies de reconnaissance faciale, et le Congrès semble prêt à relever le défi », a indiqué le géant du commerce en ligne dans un communiqué.

    Risque de cibler les minorités
    L’annonce d’Amazon intervient un jour après qu’IBM a annoncé se retirer du secteur de la reconnaissance faciale – cette entreprise étant préoccupée par la façon dont la technologie peut être utilisée pour la surveillance de masse et le profilage racial.

  • Riconoscimento facciale, perché Como è tra le prime città a usarlo - Wired

    Perché Como è diventata una delle prime città in Italia a usare il riconoscimento facciale
    Il Comune ha già fatto due appalti per dotarsi di sistemi di videosorveglianza con riconoscimento facciale. Ma su che basi? L’inchiesta di Wired con le carte della gara

    https://www.wired.it/internet/regole/2020/06/09/riconoscimento-facciale-como

    #come #como #italie #controlefaciale #migration #gare @cdb_77

  • #Webinars. #COVID-19 Capitalism #Webinar Series

    Since 1 April, #TNI with allies has brought together experts and activists weekly to discuss how this pandemic health crisis exposes the injustices of the global economic order and how it must be a turning point towards creating the systems, structures and policies that can always protect those who are marginalised and allow everyone to live with dignity. Every Wednesday at 4pm CET.

    TNI works closely with allied organisations and partners around the world in organising these webinars. AIDC and Focus on the Global South are co-sponsors for the full series.

    –—

    Les conférences déjà en ligne sont ci-dessous en commentaire.

    –----

    Les prochains webinars:

    On 10 June, TNI will hold a webinar on Taking on the Tech Titans: Reclaiming our Data Commons.

    Upcoming webinars - Wednesdays at 4pm CET

    17 June: Borders and migration
    #frontières #migrations

    24 June: Broken Trade System
    #commerce

    https://www.tni.org/en/webinars
    #capitalisme #vidéo #conférence #coronavirus

    ping @isskein @reka

    • Building an internationalist response to Coronavirus
      https://www.youtube.com/watch?v=t5qN35qeB1w&feature=emb_logo


      Panellists:

      Sonia Shah, award-winning investigative science journalist and author of Pandemic: Tracking contagions from Cholera to Ebola and Beyond (2017).
      Luis Ortiz Hernandez, public health professor in UAM-Xochimilco, Mexico. Expert on social and economic health inequities.
      Benny Kuruvilla, Head of India Office, Focus on the Global South, working closely with Forum For Trade Justice.
      Mazibuko Jara, Deputy Director, Tshisimani Centre for Activist Education, helping to coordinate a national platform of civic organisations in South Africa to confront COVID-19.
      Umyra Ahmad, Advancing Universal Rights and Justice Associate, Association for Women’s Rights in Development (AWID), Malaysia

      #internationalisme

    • The coming global recession: building an internationalist response

      Recording of a TNI-hosted webinar on Wednesday, 8 April with Professor Jayati Ghosh, Quinn Slobodian, Walden Bello and Lebohang Pheko on the likely global impacts of the economic fallout from the Coronavirus and how we might be better prepared than the 2008 economic crisis to put forward progressive solutions.

      The webinar explored what we can expect in terms of a global recession that many predict could have bigger social impacts than the virus itself. How should we prepare? What can social movements learn from our failures to advance alternative progressive policies in the wake of the 2008 economic crisis?

      https://www.youtube.com/watch?v=LiP5qJhHsjw&feature=emb_logo

      Panellists:

      Professor Jayati Ghosh, award-winning economist Jawaharlal Nehru University, India. Author of India and the International Economy (2015) and co-editor of Handbook of Alternative Theories of Economic Development, 2018.
      Quinn Slobodian, associate professor of history, Wellesley College. Author of Globalists: The End of Empire and the Birth of Neoliberalism (2018)
      Walden Bello, author of Paper Dragons: China and the Next Crash (2019) and Capitalism’s Last Stand?: Deglobalization in the Age of Austerity (2013)

      Lebohang Liepollo Pheko, Senior Research Fellow of Trade Collective, a thinktank in South Africa that works on international trade, globalisation, regional integration and feminist economics

      #récession #crise_économique

    • A Recipe for Disaster: Globalised food systems, structural inequality and COVID-19

      A dialogue between Rob Wallace, author of Big Farms Make Big Flu and agrarian justice activists from Myanmar, Palestine, Indonesia and Europe.

      The webinar explored how globalised industrial food systems set the scene for the emergence of COVID-19, the structural connections between the capitalist industrial agriculture, pathogens and the precarious conditions of workers in food systems and society at large. It also touched on the kind of just and resilient food systems we need to transform food and agriculture today?

      https://www.youtube.com/watch?v=m9A6WkeqPss&feature=emb_logo

      Panellists:

      Rob Wallace author of Big Farms Make Big Flu and co-author of Neoliberal Ebola: Modeling Disease Emergence from Finance to Forest and Farm.
      Moayyad Bsharat of Union of Agricultural Work Committees (UAWC), member organization of La Via Campesina in Palestine.
      Arie Kurniawaty of Indonesian feminist organization Solidaritas Perempuan (SP) which works with women in grassroots communities across the urban-rural spectrum.
      Sai Sam Kham of Metta Foundation in Myanmar.
      Paula Gioia, peasant farmer in Germany and member of the Coordination Committee of the European Coordination Via Campesina.

      #inégalités #agriculture #alimentation

      –—

      #livre:
      Big Farms Make Big Flu

      In this collection of dispatches, by turns harrowing and thought-provoking, #Rob_Wallace tracks the ways #influenza and other pathogens emerge from an agriculture controlled by multinational corporations. With a precise and radical wit, Wallace juxtaposes ghastly phenomena such as attempts at producing featherless chickens with microbial time travel and neoliberal Ebola. While many books cover facets of food or outbreaks, Wallace’s collection is the first to explore infectious disease, agriculture, economics, and the nature of science together.


      https://monthlyreview.org/press/new-big-farms-make-big-flu-by-rob-wallace
      #multinationales

    • Taking Health back from Corporations: pandemics, big pharma and privatized health

      This webinar brought together experts in healthcare and activists at the forefront of struggles for equitable universal public healthcare from across the globe. It examined the obstacles to access to medicines, the role of Big Pharma, the struggles against health privatisation, and the required changes in global governance of health to prevent future pandemics and bring about public healthcare for all.

      https://www.youtube.com/watch?v=5KSIRFYF3W8&feature=emb_logo

      Panellists:

      Susan George, Author and President of the Transnational Institute
      Baba Aye, Health Officer, Public Services International
      Mark Heywood, Treatment Action Campaign, Section27 and editor at the Daily Maverick
      Kajal Bhardwaj, Independent lawyer and expert on health, trade and human rights
      David Legge, Peoples Health Movement Moderator: Monica Vargas, Corporate Power Project, Transnational Institute

      #santé #big-pharma #industrie_pharmaceutique #privatisation #système_de_santé

    • States of Control – the dark side of pandemic politics

      In response to an unprecedented global health emergency, many states are rolling out measures from deploying armies and drones to control public space, to expanding digital control through facial recognition technology and tracker apps.

      This webinar explored the political dimension of state responses, particularly the securitisation of COVID-19 through the expansion of powers for military, police, and security forces. It examined the impact of such repression on certain groups who are unable to socially distance, as well as how digital surveillance is being rolled out with little, if any democratic oversight.

      https://www.youtube.com/watch?v=4KI515hJud8&feature=emb_logo

      Panellists:

      Fionnuala Ni Aolain, UN Special Rapporteur on the Protection and Promotion of Human Rights while Countering Terrorism, University of Minnesota
      Arun Kundnani, New York University, author of The Muslims are Coming! Islamophobia, extremism, and the domestic War on Terror and The End of Tolerance: racism in 21st century Britain
      Anuradha Chenoy, School of International Studies in Jawaharlal Nehru University (retired), and author of Militarisation and Women in South Asia
      María Paz Canales, Derechos Digitales (Digital Rights campaign), Chile

      #contrôle #surveillance #drones #reconnaissance_faciale #démocratie

      ping @etraces

    • A Global Green New Deal

      This sixth webinar in our COVID Capitalism series asked what a truly global #Green_New_Deal would look like. It featured Richard Kozul-Wright (UNCTAD), and leading activists from across the globe leading the struggle for a just transition in the wake of the Coronavirus pandemic.

      https://www.youtube.com/watch?v=JbNhmPXpSAA&feature=emb_logo

      Panellists:

      Richard Kozul-Wright, Director of the Division on Globalization and Development Strategies at the United Nations Conference on Trade and Development, author of Transforming Economies: Making Industrial Policy Work for Growth, Jobs and Development
      Karin Nansen, chair of Friends of the Earth International, founding member of REDES – Friends of the Earth Uruguay
      Sandra van Niekerk, Researcher for the One Million Climate Jobs campaign, South Africa

      #transition

    • Proposals for a democratic just economy

      Outgoing UN rapporteur, #Philip_Alston in conversation with trade unionists and activists in Italy, Nigeria and India share analysis on the impacts of privatisation in a time of COVID-19 and the strategies for resistance and also constructing participatory public alternatives.

      https://www.youtube.com/watch?v=6-IvJq9QJnI&feature=emb_logo

      Panellists:

      Philip Alston, outgoing UN Special Rapporteur on extreme poverty and human rights
      Rosa Pavanelli, General Secretary of the global union federation Public Services International (PSI)
      Aderonke Ige, Our Water, Our Rights Campaign in Lagos / Environmental Rights Action /Friends of The Earth Nigeria
      Sulakshana Nandi, Co-chair, People’s Health Movement Global (PHM Global)

      #privatisation #participation #participation_publique #résistance

    • Feminist Realities – Transforming democracy in times of crisis

      An inspiring global panel of feminist thinkers and activists reflect and discuss how we can collectively reorganise, shift power and pivot towards building transformative feminist realities that can get us out of the worsening health, climate and capitalist crises.

      https://www.youtube.com/watch?v=XFEBlNxZUAQ&feature=emb_logo

      Panellists:

      Tithi Bhattacharya, Associate Professor of History and the Director of Global Studies at Purdue University and co-author of the manifesto Feminism for the 99%.
      Laura Roth, Lecturer of legal and political philosophy at Universitat Oberta de Catalunya, Barcelona, member of Minim Municipalist Observatory and co-author of the practice-oriented report Feminise Politics Now!
      Awino Okech, Lecturer at the Centre for Gender Studies at School of Oriental and African Studies (SOAS), University of London who brings over twelve years of social justice transformation work in Eastern Africa, the Great Lakes region, and South Africa to her teaching, research and movement support work.
      Khara Jabola-Carolus, Executive Director of the Hawaii State Commission on the Status of Women, co-founder of AF3IRM Hawaii (the Association of Feminists Fighting Fascism, Imperialism, Re-feudalization, and Marginalization) and author of Hawaii’s Feminist Economic Recovery Plan for COVID-19.
      Felogene Anumo, Building Feminist Economies, AWID presenting the #feministbailout campaign

      #féminisme

    • COVID-19 and the global fight against mass incarceration

      November 3rd, 2015, Bernard Harcourt (Columbia Law School) and Naomi Murakawa (Princeton) present rival narratives about mass incarceration in America. In The Illusion of Free Markets: Punishment and the Myth of Natural Order , Harcourt shows the interdependence of contract enforcements in global markets and punitive authority. InThe First Civil Right: How Liberals Built Prison America, by contrast, Murakawa traces prison growth to liberal campaigns and progressive legislation. Together, Murakawa and Harcourt offer fresh ideas about into the political, economic and ethical dimensions of mass incarceration.

      https://www.youtube.com/watch?v=BLeXbi4aIno&feature=emb_rel_pause

      Olivia Rope, Director of Policy and International Advocacy, Penal Reform International
      Isabel Pereira, Principal investigator at the Center for the Study of Law, Justice & Society (Dejusticia), Colombia
      Sabrina Mahtani, Advocaid Sierra Leone
      Maidina Rahmawati, Institute of Criminal Justice Reform (ICJR), Indonesia
      Andrea James, Founder and Exec Director, and Justine Moore, Director of Training, National Council For Incarcerated and Formerly Incarcerated Women and Girls, USA

      #prisons #emprisonnement_de_masse #USA #Etats-Unis

  • Dossier / Reconnaissance faciale : Dans le viseur | Politis
    http://www.politis.fr/dossiers/reconnaissance-faciale-dans-le-viseur-478

    Articles du dossier :
    PAR ROMAIN HAILLARD

    Reconnaissance faciale : Une technologie d’avenir déjà là
    Surveillance : Petites phrases pour grand sujet

    Quadrature du Net : « Faire du visage une clé instaure une société du suspect. »

    #Reconnaissance_faciale #Surveillance