• La #Technopolice, moteur de la « #sécurité_globale »

    L’article 24 de la #loi_Sécurité_Globale ne doit pas devenir l’arbre qui cache la forêt d’une politique de fond, au cœur de ce texte, visant à faire passer la #surveillance et le #contrôle_de_la_population par la police à une nouvelle ère technologique.

    Quelques jours avant le vote de la loi Sécurité Globale à l’Assemblée Nationale, le ministère de l’Intérieur présentait son #Livre_blanc. Ce long #rapport de #prospective révèle la #feuille_de_route du ministère de l’Intérieur pour les années à venir. Comme l’explique Gérard Darmanin devant les députés, la proposition de loi Sécurité Globale n’est que le début de la transposition du Livre dans la législation. Car cette loi, au-delà de l’interdiction de diffusion d’#images de la police (#article_24), vise surtout à renforcer considérablement les pouvoirs de surveillance des #forces_de_l’ordre, notamment à travers la légalisation des #drones (article 22), la diffusion en direct des #caméras_piétons au centre d’opération (article 21), les nouvelles prérogatives de la #police_municipale (article 20), la #vidéosurveillance dans les hall d’immeubles (article 20bis). Cette loi sera la première pierre d’un vaste chantier qui s’étalera sur plusieurs années.

    Toujours plus de pouvoirs pour la police

    Le Livre blanc du ministère de l’Intérieur envisage d’accroître, à tous les niveaux, les pouvoirs des différentes #forces_de_sécurité (la #Police_nationale, la police municipale, la #gendarmerie et les agents de #sécurité_privée) : ce qu’ils appellent, dans la novlangue officielle, le « #continuum_de_la_sécurité_intérieure ». Souhaitant « renforcer la police et la rendre plus efficace », le livre blanc se concentre sur quatre angles principaux :

    - Il ambitionne de (re)créer une #confiance de la population en ses forces de sécurité, notamment par une #communication_renforcée, pour « contribuer à [leur] légitimité », par un embrigadement de la jeunesse – le #Service_National_Universel, ou encore par la création de « #journées_de_cohésion_nationale » (page 61). Dans la loi Sécurité Globale, cette volonté s’est déjà illustrée par la possibilité pour les policiers de participer à la « #guerre_de_l’image » en publiant les vidéos prises à l’aide de leurs #caméras_portatives (article 21).
    - Il prévoit d’augmenter les compétences des #maires en terme de sécurité, notamment par un élargissement des compétences de la police municipale : un accès simplifié aux #fichiers_de_police, de nouvelles compétences en terme de lutte contre les #incivilités … (page 135). Cette partie-là est déjà en partie présente dans la loi Sécurité Globale (article 20).
    - Il pousse à une #professionnalisation de la sécurité privée qui deviendrait ainsi les petites mains de la police, en vu notamment des #Jeux_olympiques Paris 2024, où le besoin en sécurité privée s’annonce colossal. Et cela passe par l’augmentation de ses #compétences : extension de leur #armement, possibilité d’intervention sur la #voie_publique, pouvoir de visionner les caméras, et même le port d’un #uniforme_spécifique (page 145).
    - Enfin, le dernier grand axe de ce livre concerne l’intégration de #nouvelles_technologies dans l’arsenal policier. Le titre de cette partie est évocateur, il s’agit de « porter le Ministère de l’Intérieur à la #frontière_technologique » (la notion de #frontière évoque la conquête de l’Ouest aux États-Unis, où il fallait coloniser les terres et les premières nations — la reprise de ce vocable relève d’une esthétique coloniale et viriliste).

    Ce livre prévoit une multitude de projets plus délirants et effrayants les uns que les autres. Il propose une #analyse_automatisée des #réseaux_sociaux (page 221), des #gilets_connectés pour les forces de l’ordre (page 227), ou encore des lunettes ou #casques_augmentés (page 227). Enfin, le Livre blanc insiste sur l’importance de la #biométrie pour la police. Entre proposition d’#interconnexion des #fichiers_biométriques (#TAJ, #FNAEG, #FAED…) (page 256), d’utilisation des #empreintes_digitales comme outil d’#identification lors des #contrôles_d’identité et l’équipement des #tablettes des policiers et gendarmes (#NEO et #NEOGEND) de lecteur d’empreinte sans contact (page 258), de faire plus de recherche sur la #reconnaissance_vocale et d’#odeur (!) (page 260) ou enfin de presser le législateur pour pouvoir expérimenter la #reconnaissance_faciale dans l’#espace_public (page 263).

    Le basculement technologique de la #surveillance par drones

    Parmi les nouveaux dispositifs promus par le Livre blanc : les #drones_de_police, ici appelés « #drones_de_sécurité_intérieure ». S’ils étaient autorisés par la loi « Sécurité Globale », ils modifieraient radicalement les pouvoirs de la police en lui donnant une capacité de surveillance totale.

    Il est d’ailleurs particulièrement marquant de voir que les rapporteurs de la loi considèrent cette légalisation comme une simple étape sans conséquence, parlant ainsi en une phrase « d’autoriser les services de l’État concourant à la #sécurité_intérieure et à la #défense_nationale et les forces de sécurité civile à filmer par voie aérienne (…) ». Cela alors que, du côté de la police et des industriels, les drones représentent une révolution dans le domaine de la sécurité, un acteur privé de premier plan évoquant au sujet des drones leur « potentiel quasiment inépuisable », car « rapides, faciles à opérer, discrets » et « tout simplement parfaits pour des missions de surveillance »

    Dans les discours sécuritaires qui font la promotion de ces dispositifs, il est en effet frappant de voir la frustration sur les capacités « limitées » (selon eux) des caméras fixes et combien ils fantasment sur le « potentiel » de ces drones. C’est le cas du maire LR d’Asnières-sur-Seine qui en 2016 se plaignait qu’on ne puisse matériellement pas « doter chaque coin de rue de #vidéoprotection » et que les drones « sont les outils techniques les plus adaptés » pour pallier aux limites de la présence humaine. La police met ainsi elle-même en avant la toute-puissance du #robot par le fait, par exemple pour les #contrôles_routiers, que « la caméra du drone détecte chaque infraction », que « les agents démontrent que plus rien ne leur échappe ». Même chose pour la #discrétion de ces outils qui peuvent, « à un coût nettement moindre » qu’un hélicoptère, « opérer des surveillances plus loin sur l’horizon sans être positionné à la verticale au-dessus des suspects ». Du côté des constructeurs, on vante les « #zooms puissants », les « #caméras_thermiques », leur donnant une « #vision_d’aigle », ainsi que « le #décollage possible pratiquement de n’importe où ».

    Tout cela n’est pas que du fantasme. Selon un rapport de l’Assemblée nationale, la police avait, en 2019, par exemple 30 drones « de type #Phantom_4 » et « #Mavic_Pro » (ou « #Mavic_2_Enterprise » comme nous l’avons appris lors de notre contentieux contre la préfecture de police de Paris). Il suffit d’aller voir les fiches descriptives du constructeur pour être inondé de termes techniques vantant l’omniscience de son produit : « caméra de nacelle à 3 axes », « vidéos 4K », « photos de 12 mégapixels », « caméra thermique infrarouge », « vitesse de vol maximale à 72 km/h » … Tant de termes qui recoupent les descriptions faites par leurs promoteurs : une machine volante, discrète, avec une capacité de surveiller tout (espace public ou non), et de loin.

    Il ne s’agit donc pas d’améliorer le dispositif de la vidéosurveillance déjà existant, mais d’un passage à l’échelle qui transforme sa nature, engageant une surveillance massive et largement invisible de l’espace public. Et cela bien loin du léger cadre qu’on avait réussi à imposer aux caméras fixes, qui imposait notamment que chaque caméra installée puisse faire la preuve de son utilité et de son intérêt, c’est-à-dire de la nécessité et de la #proportionnalité de son installation. Au lieu de cela, la vidéosurveillance demeure une politique publique dispendieuse et pourtant jamais évaluée. Comme le rappelle un récent rapport de la Cour des comptes, « aucune corrélation globale n’a été relevée entre l’existence de dispositifs de vidéoprotection et le niveau de la délinquance commise sur la voie publique, ou encore les taux d’élucidation ». Autre principe fondamental du droit entourant actuellement la vidéosurveillance (et lui aussi déjà largement inappliqué) : chaque personne filmée doit être informée de cette surveillance. Les drones semblent en contradiction avec ces deux principes : leur utilisation s’oppose à toute notion d’information des personnes et de nécessité ou proportionnalité.

    Où serons-nous dans 4 ans ?

    En pratique, c’est un basculement total des #pratiques_policières (et donc de notre quotidien) que préparent ces évolutions technologiques et législatives. Le Livre blanc fixe une échéance importante à cet égard : « les Jeux olympiques et paralympiques de Paris de 2024 seront un événement aux dimensions hors normes posant des enjeux de sécurité majeurs » (p. 159). Or, « les Jeux olympiques ne seront pas un lieu d’expérimentation : ces technologies devront être déjà éprouvées, notamment à l’occasion de la coupe de monde de Rugby de 2023 » (p. 159).

    En juillet 2019, le rapport parlementaire cité plus haut constatait que la Police nationale disposait de 30 drones et de 23 pilotes. En novembre 2020, le Livre blanc (p. 231) décompte 235 drones et 146 pilotes. En 14 mois, le nombre de drones et pilotes aura été multiplié par 7. Dès avril 2020, le ministère de l’Intérieur a publié un appel d’offre pour acquérir 650 drones de plus. Rappelons-le : ces dotations se sont faites en violation de la loi. Qu’en sera-t-il lorsque les drones seront autorisés par la loi « sécurité globale » ? Avec combien de milliers d’appareils volants devra-t-on bientôt partager nos rues ? Faut-il redouter, au cours des #JO de 2024, que des dizaines de drones soient attribués à la surveillance de chaque quartier de la région parisienne, survolant plus ou moins automatiquement chaque rue, sans répit, tout au long de la journée ?

    Les évolutions en matières de reconnaissance faciale invite à des projections encore plus glaçantes et irréelles. Dès 2016, nous dénoncions que le méga-fichier #TES, destiné à contenir le visage de l’ensemble de la population, servirait surtout, à terme, à généraliser la reconnaissance faciale à l’ensemble des activités policières : enquêtes, maintien de l’ordre, contrôles d’identité. Avec le port d’une caméra mobile par chaque brigade de police et de gendarmerie, tel que promis par Macron pour 2021, et la retransmission en temps réel permise par la loi « sécurité globale », ce rêve policier sera à portée de main : le gouvernement n’aura plus qu’à modifier unilatéralement son #décret_TES pour y joindre un système de reconnaissance faciale (exactement comme il avait fait en 2012 pour permettre la reconnaissance faciale à partir du TAJ qui, à lui seul, contient déjà 8 millions de photos). Aux robots dans le ciel s’ajouteraient des humains mutiques, dont le casque de réalité augmentée évoqué par le Livre Blanc, couplé à l’analyse d’image automatisée et aux tablettes numériques NEO, permettrait des contrôles systématiques et silencieux, rompus uniquement par la violence des interventions dirigées discrètement et à distance à travers la myriade de drones et de #cyborgs.

    En somme, ce Livre Blanc, dont une large partie est déjà transposée dans la proposition de loi sécurité globale, annonce le passage d’un #cap_sécuritaire historique : toujours plus de surveillance, plus de moyens et de pouvoirs pour la police et consorts, dans des proportions et à un rythme jamais égalés. De fait, c’est un #État_autoritaire qui s’affirme et se consolide à grand renfort d’argent public. Le Livre blanc propose ainsi de multiplier par trois le #budget dévolu au ministère de l’Intérieur, avec une augmentation de 6,7 milliards € sur 10 ans et de 3 milliards entre 2020 et 2025. Une provocation insupportable qui invite à réfléchir sérieusement au définancement de la police au profit de services publiques dont le délabrement plonge la population dans une #insécurité bien plus profonde que celle prétendument gérée par la police.

    https://www.laquadrature.net/2020/11/19/la-technopolice-moteur-de-la-securite-globale
    #France #Etat_autoritaire

    ping @isskein @karine4 @simplicissimus @reka @etraces

  • L’ONU met en garde contre l’impact des frontières intelligentes sur les réfugiés
    https://www.nextinpact.com/lebrief/44611/lonu-met-en-garde-contre-impact-frontieres-intelligentes-sur-refugies

    Tendayi Achiume, rapporteure spéciale de l’ONU sur le racisme, la discrimination raciale, la xénophobie et l’intolérance, a appelé à un moratoire sur l’utilisation de certaines technologies de surveillance utilisées dans les programmes de « frontières intelligentes », révèle The Guardian.

    Dans un rapport à paraître, elle qualifie de « troublants » les détecteurs de mensonge dans les aéroports européens, les scans oculaires effectués dans les camps de réfugiés ou les logiciels de reconnaissance vocale utilisés dans les demandes d’asile. Elle estime que ces technologies peuvent en outre être injustes et enfreindre les droits de l’homme.

    Elle a également cité les efforts de Donald Trump pour construire un mur entre les États-Unis et le Mexique : « il s’avère que les décès aux frontières ont augmenté dans les endroits où des frontières intelligentes ont été mises en place ».

    Petra Molnar, du Refugee Law Lab de Toronto, qui a contribué au rapport du rapporteur de l’ONU, a noté dans ses propres recherches l’impact déshumanisant de certaines technologies sur les personnes déplacées . Un demandeur d’asile, avec qui elle s’est entretenue en Belgique, a déclaré que la quantité de données personnelles auxquelles il avait renoncé lui faisait se sentir « comme un morceau de viande sans vie, juste des empreintes digitales et des scans oculaires ».

    « L’un des messages clés du rapport est que nous devons être très attentifs à l’impact disparate de cette technologie et pas seulement supposer que parce que la technologie va être juste ou neutre ou objective d’une manière ou d’une autre ».

    « La collecte de données n’est pas un exercice apolitique », note le rapport d’Achiume, « en particulier lorsque de puissants acteurs du Nord mondial collectent des informations sur les populations vulnérables sans méthodes réglementées de surveillance et de responsabilité. »

    L’année dernière, le Programme alimentaire mondial des Nations Unies s’est ainsi associé à Palantir Technologies, rappelle The Guardian, sur un contrat de 45 millions de dollars, partageant les données de 92 millions de bénéficiaires de l’aide.

    Achiume a déclaré que jusqu’à ce que l’impact des technologies de surveillance sur les droits de l’homme puisse être compris, l’utilisation de ces technologies devrait être interrompue. « Jusqu’à ce que nous puissions comprendre et atténuer ces préjudices, il devrait y avoir un moratoire à leur encontre. »

    #Reconnaissance_faciale #Migrants #Droits_humains #Frontières

  • UN warns of impact of smart borders on refugees: ‘Data collection isn’t apolitical’

    Special rapporteur on racism and xenophobia believes there is a misconception that biosurveillance technology is without bias

    Robotic lie detector tests at European airports, eye scans for refugees and voice-imprinting software for use in asylum applications are among new technologies flagged as “troubling” in a UN report.

    The UN’s special rapporteur on racism, racial discrimination, xenophobia and related intolerance, Prof Tendayi Achiume, said digital technologies can be unfair and regularly breach human rights. In her new report, she has called for a moratorium on the use of certain surveillance technologies.

    Achiume, who is from Zambia, told the Guardian she was concerned about the rights of displaced people being compromised. She said there was a misconception that such technologies, often considered “a humane” option in border enforcement, are without bias.

    “One of the key messages of the report is that we have to be paying very close attention to the disparate impact of this technology and not just assuming that because it’s technology, it’s going to be fair or be neutral or objective in some way.”

    She cited the example of pushback against Donald Trump’s effort to build a wall between the US and Mexico. “You see that there isn’t a similar sense of outrage when digital technologies are deployed to serve the same function … if you actually look at some of the statistics, and if you look at some of the research, which I cite in my report, it turns out that border deaths have increased in places where smart borders have been implemented.”

    She also raised concerns about the ways in which humanitarian agencies are engaging with surveillance. The report notes that in Afghanistan, the UN refugee agency (UNHCR) requires returning refugees to undergo iris registration as a prerequisite for receiving assistance.

    While the UNHCR has justified the use of this technology as a way to prevent fraud, “the impact of processing such sensitive data can be grave when systems are flawed or abused”, the report said.

    Last year the UN’s World Food Programme partnered with Palantir Technologies, a data mining company, on a $45m (£34m) contract, sharing the data of 92 million aid recipients.

    “Data collection is not an apolitical exercise,” notes Achiume’s report, “especially when powerful global north actors collect information on vulnerable populations with no regulated methods of oversights and accountability.”

    Covid-19 has also accelerated “biosurveillance” – focused on tracking people’s movements and health. Biosurveillance has everyday uses, such as the “track and trace” app in the UK, but there are concerns about the regulation of large-scale data harvested from populations.

    One example is the “Covi-Pass”, a health passport developed by Mastercard and Gavi, a private-public health alliance, that is reportedly due to be rolled out across west Africa. The UN report highlighted the implications of such passports for freedom of movement, “especially for refugees”.

    Petra Molnar from the Refugee Law Lab in Toronto said it was clear that the pandemic was increasing digital rights violations. “State responses to the pandemic are exacerbating the turn towards biosurveillance, with refugees and people on the move acting as communities on which to test various interventions and fast-track tech development,” she said.

    Molnar, who contributed to the UN rapporteur’s report, has noted the dehumanising impact of some technologies on displaced people in her own research. One asylum seeker she spoke to in Belgium said the amount of personal data he’d given up made him feel, “like a piece of meat without a life, just fingerprints and eye scans”.

    “Our conversations with refugees and people crossing borders show how little attention is being paid to the lived experiences of people who are at the sharp edges of these high-risk technological experiments,” said Molnar.

    The intersection of technology and human rights violations were highlighted in a recent investigation into the European border agency Frontex, which allegedly witnessed pushbacks of migrants in the Aegean Sea via some of its assets, including drones.

    Konstantinos Kakavoulis from Homo Digitalis, a Greek organisation focused on digital rights, said technologies often outpaced the legal framework.

    “There is no clear regulation for the use of drones or body-worn cameras by the Greek police,” he said. “The police have signed a contract for the provision of a facial recognition software with Intracom Telecom, a Greek company, without receiving the opinion of the Greek data protection authority.”

    He added: “Apart from the insufficiency of legal safeguards, we also lack transparency; and this is not only remarkable, but highly problematic.”

    Achiume said that until the impact of surveillance technologies on human rights could be understood, use of such technologies should be halted. “Until we can understand and mitigate those harms, there should just be a moratorium on them.”

    https://www.theguardian.com/global-development/2020/nov/11/un-warns-of-impact-of-smart-borders-on-refugees-data-collection-isnt-ap

    #frontières #smart_borders #frontières_intelligentes #réfugiés #asile #migrations #technologie #politique #biopolitique #technologies_digitales #droits_fondamentau #droits_humains #surveillance #contrôles_frontaliers #neutralité #Palantir_Technologies #données #biosurveillance #Covi-Pass #Mastercard #Gavi #complexe_militaro-industriel #covid-19 #coronavirus #reconnaissance_faciale #Intracom_Telecom

    ping @karine4 @isskein @etraces @thomas_lacroix

  • [vidéo] « Pourtant la ville t’appartient » | Mačko Dràgàn
    https://technopolice.fr/blog/pourtant-la-ville-tappartient-un-film-pour-enrayer-la-machine-technopol

    C’est quoi, un espace public ? Pour le pouvoir c’est un lieu à gentrifier, privatiser, fliquer. Pour nous, habitant.e.s des quartiers, précaires, sans-abris, squatteurs, artistes de rue, manifestant.e.s, c’est un lieu de vie. Nous avons donné la parole à ces invisibles, afin de voir ce que nous avons perdu –et ce qu’il nous faut reprendre. Parce qu’on peut vivre ensemble. Sans répression. Durée : 1h22. Source : Technopolice

  • À l’aéroport de Lyon, Vinci banalise la reconnaissance faciale
    https://technopolice.fr/blog/a-laeroport-de-lyon-vinci-banalise-la-reconnaissance-faciale

    L’expérimentation de reconnaissance faciale lancée la semaine dernière par Vinci Airports est un nouveau pas vers la banalisation des technologies de surveillance biométrique. Grâce aux financements de l’Etat et au soutien implicite de la Cnil, l’entreprise Idemia a pu déployer sans inquiétude son dispositif biométrique dans l’espace public. Nulle doute qu’elle et les autres entreprises de la Technopolice sauront en profiter. Lundi 5 octobre, l’entreprise Vinci Airports a annoncé le lancement d’une (...)

    #Vinci #algorithme #CCTV #biométrie #facial #reconnaissance #vidéo-surveillance #surveillance # #LaQuadratureduNet (...)

    ##_ ##Technopolice

  • L’#artiste #Paolo_Cirio affiche des visages de policiers dans Paris pour dénoncer la reconnaissance faciale
    https://information.tv5monde.com/info/l-artiste-paolo-cirio-affiche-des-visages-de-policiers-dans-pa

    La #pétition pour « bannir la #reconnaissance_faciale en Europe » a recueilli près de 14 000 signatures. Le #hacker militant et artiste Paolo Cirio y participe grâce à une performance bien particulière, en placardant à travers la capitale française des centaines d’affiches de visages de policiers récupérés sur Internet. Entretien.
    Paolo Cirio est très connu dans le milieu des défenseurs de la vie privée sur Internet. Il l’est moins du grand public, ce qui pourrait changer après sa performance artistique urbaine nommée "Capture "et lancée ce premier octobre 2020.

    https://www.laquadrature.net/2020/09/22/nous-soutenons-la-petition-pour-bannir-la-reconnaissance-faciale-en-eu

    pétition :
    https://ban-facial-recognition.wesign.it/droitshumains/bannissons-la-reconnaissance-faciale-en-europe#sign

  • L’artiste Paolo Cirio affiche des visages de policiers dans Paris pour dénoncer la reconnaissance faciale.
    https://information.tv5monde.com/info/l-artiste-paolo-cirio-affiche-des-visages-de-policiers-dans-pa

    Paolo Cirio — pour son dernier projet nommé Capture — a créé une base de données contenant 4000 visages de policiers français pour les identifier avec une technologie de reconnaissance faciale, via sa plateforme https://capture-police.com. Ce jeudi premier octobre 2020, l’artiste effectue donc une performance de « street art » en dévoilant une partie des portraits des officiers de police tirés de sa plateforme, affichés un peu partout dans la capitale française.

    J’ai choisi le mot Capture parce qu’il est court et qu’il résume bien le concept qu’il y a derrière la reconnaissance faciale. Particulièrement lorsque cette technologie est utilisée par la police. Ils l’utilisent pour capturer des criminels, des manifestants, pour les attraper, donc les capturer grâce à des logiciels et des caméras.

    Quand vous capturez un visage avec un appareil photo vous faites la même chose que ce que fait la police qui tente de capturer quelqu’un. C’est comme ça que m’est venue l’idée de ce projet Capture, en utilisant des photos de visages de policiers, des visages que j’ai capturés moi aussi, sur le Net.

    Tout le monde doit être inquiet par l’émergence de cette technologie qui va permettre la surveillance de masse, les analyses des comportements, des émotions des gens dans la rue, comme en Chine.

    J’ai en fait renversé le procédé de la reconnaissance faciale en l’utilisant contre ceux qui normalement l’utilisent contre des citoyens, c’est-à-dire les policiers. Je veux démontrer que cette technologie est très puissante et qu’elle peut être utilisée par des activistes, des citoyens, mais aussi par des criminels ou des terroristes, et ce, contre la police.

    Cela peut ressembler à une grosse provocation, mais en fait, cela peut-être aussi pris comme une manière de protéger la police en leur montrant les dangers de cette technologie. En fait, j’aimerais que les policiers signent eux aussi la pétition pour bannir la reconnaissance faciale en Europe.

    • Synergie-Officiers @PoliceSynergie
      https://twitter.com/PoliceSynergie/status/1312024085447180290

      Merci à ⁦@GDarmanin⁩ pour la promptitude de sa réaction et sa fermeté pour défendre les #policiers et leurs familles. Son intervention a permis de déprogrammer une entreprise criminogène sous couvert d’une démarche artistique. #Police # Jesoutienslapolice #BlueLivesMatter

      Le Fresnoy déprogramme :

      Des fafs tous les jours sur les chaînes info et dans la presse, des lois et décrets liberticides, racistes et anti pauvres comme si il en pleuvait, et des débats" sur la « cancel culture » et la longueur des vêtements des scolarisées.

      #police #reconnaissance_faciale #censure #école_d'art #exposition #culture #art

    • #fuite suite aux menaces
      https://www.mediapart.fr/journal/france/131020/un-artiste-menace-apres-avoir-voulu-diffuser-des-visages-de-policiers

      "« Je ne me sens plus en sécurité dans ce pays », lâche, amer, l’artiste et hacktiviste Paolo Cirio qui a quitté précipitamment la France la semaine dernière après avoir reçu plusieurs menaces par mails. L’exposition de son œuvre Capture venait d’être annulée, dans laquelle il entendait dénoncer les dangers de la reconnaissance faciale en exposant des visages de policiers trouvés sur internet.

      Pour réaliser son projet, Paolo Cirio avait « collecté 1 000 images publiques de policiers, dans des photos prises durant des manifestations en France, et les avaient soumises à un logiciel de reconnaissance faciale », explique l’artiste sur son site. Ce procédé lui a permis de récupérer 4 000 visages de policiers. Ceux-ci devaient être exposés, sous forme d’une fresque, dans le cadre de l’exposition Panorama 22. Les Sentinelles, qui s’ouvre jeudi 15 octobre au studio national des arts contemporains Le Fresnoy de Tourcoing.

      Le jour de la mise en ligne de la présentation de son projet, le jeudi 1er octobre, Paulo Cirio avait également mené une action dans les rues de Paris y affichant certains des portraits de policiers. L’opération était accompagnée de la mise en place d’un site internet, capture-police.com, répertoriant les photos et invitant les internautes à identifier les agents qu’ils pourraient reconnaître, ainsi que d’une pétition appelant à l’interdiction de la reconnaissance faciale.

      « La police appelle à l’utilisation de la reconnaissance faciale sur les manifestants, les minorités et les civils, alors qu’elle se rend non identifiable lors d’affrontements publics, poursuit le site internet de l’artiste. Dans le projet Capture, la reconnaissance faciale se retourne contre les mêmes autorités publiques et forces de l’ordre qui cherchent à en justifier la nécessité. »

      Mais les choses ne se sont pas passées comme Paolo Cirio l’avait prévu. Immédiatement après sa mise en ligne, le projet de l’artiste provoque une levée de boucliers. « Ça a été très vite », raconte-t-il à Mediapart. Il y eut tout d’abord les réactions indignées de syndicats de policiers – « seulement une heure après avoir publié mon projet », se souvient Paolo Cirio – qui en appellent à leur ministre de tutelle, Gérald Darmanin. Celui-ci, qui se trouve être par ailleurs ancien maire de Tourcoing, ville où se situe le studio Le Fresnoy, réagit quelques heures plus tard.

      « Insupportable mise au pilori de femmes et d’hommes qui risquent leur vie pour nous protéger, écrit le ministre de l’intérieur sur Twitter. Je demande la déprogrammation de l’“exposition” et le retrait des photos de son site, sous peine de saisir les juridictions compétentes. »

      Dès le lendemain, Le Fresnoy annule effectivement l’exposition de Paolo Cirio. « Nous ne pouvons en aucun cas adhérer à une démarche qui associe l’œuvre en question à une plateforme numérique où l’artiste invite à identifier et à désigner nommément des policiers, dont les photographies ont été préalablement diffusées sur internet », écrit le studio dans un communiqué en date du vendredi 2 octobre et largement diffusé sur les réseaux sociaux par des syndicats de policiers. « Par cette démarche qui a changé la nature de l’intervention du Fresnoy, l’artiste a violé les engagements qu’il avait pris de ne rien faire de tel devant les responsables du Fresnoy, et la direction de la Condition publique, ce qui nous a profondément choqués », poursuit-il.

      Parallèlement, Paolo Cirio reçoit sur sa boîte mails des messages d’insultes et d’autres plus inquiétants. « J’ai reçu de nombreux messages, dont certains très violents disant par exemple qu’ils me surveillaient ou qu’ils me trouveraient », raconte-t-il. Aucune menace de mort directe, mais des pressions et des insinuations assez précises pour le décider à retirer son site internet, qui a depuis été remplacé par la pétition.

      Et pour le convaincre de quitter le territoire français. « Je suis parti car je ne me sens plus en sécurité, explique Paolo Cirio. Je venais deux, trois fois en France par an. J’ai même donné des cours au Fresnoy. Mais pour l’instant, je pense que je ne reviendrai pas. »
      "

  • L’essor des réseaux de caméras intelligentes, et pourquoi nous devrions les interdire
    https://www.les-crises.fr/l-essor-des-reseaux-de-cameras-intelligentes-et-pourquoi-nous-devrions-le

    Source : The Intercept, Michael Kwet La #Reconnaissance_Faciale inquiète un peu partout. Qu’on puisse, par caméra, suivre nos moindres mouvements en public préoccupe beaucoup plus que l’existence et la prévalence exponentielle des réseaux de vidéosurveillance « intelligents », alors qu’il s’agit d’un sujet tout aussi inquiétant. Les ménages et les sociétés privées commencent à connecter leurs caméras sur les réseaux policiers, et les rapides progrès de l’intelligence artificielle donnent aux réseaux de télévision en circuit fermé le pouvoir de surveiller la totalité de l’espace public. Dans un avenir pas si lointain, nos forces de police, nos magasins, et notre administration municipale espèrent pouvoir filmer notre moindre mouvement, et même mieux, l’interpréter par le biais de l’analyse des métadonnées. (...)

    #Libertés_Publiques #Surveillance_de_masse #Libertés_Publiques,_Reconnaissance_Faciale,_Surveillance_de_masse

  • Racisme policier : les géants du Net font mine d’arrêter la reconnaissance faciale
    https://www.laquadrature.net/2020/06/22/racisme-policier-les-geants-du-net-font-mine-darreter-la-reconnaissanc

    À un moment où l’institution policière est remise en question, les multinationales de la sécurité tentent de se racheter une image par des effets d’annonce : elles arrêteraient la reconnaissance faciale car la technologie ne serait…

    #Non_classé

  • Les réseaux politiques de Benalla lui ouvrent le marché de la reconnaissance faciale - Page 1 | Mediapart
    https://www.mediapart.fr/journal/france/100620/les-reseaux-politiques-de-benalla-lui-ouvrent-le-marche-de-la-reconnaissan

    En pleine pandémie du Covid-19, Alexandre Benalla a mis un pied dans le marché de la reconnaissance faciale, secteur en pleine expansion en France, notamment pour ses applications en matière de sécurité, grâce au concours de plusieurs intermédiaires politiques, selon les informations de Mediapart.

    En pleine pandémie du Covid-19, Alexandre Benalla a mis un pied dans le marché de la reconnaissance faciale, secteur en pleine expansion en France, notamment pour ses applications en matière de sécurité, grâce au concours de plusieurs intermédiaires politiques, selon les informations de Mediapart : l’ancien collaborateur du député Joachim Son-Forget et l’homme d’affaires Yazid Sabeg, ex-commissaire à la diversité de Nicolas Sarkozy.

    L’ancien collaborateur d’Emmanuel Macron a été reçu une première fois, mardi 26 mai, à Suresnes (Hauts-de-Seine), dans les locaux de la société française « XXII », une jeune entreprise française qui développe la technologie prometteuse de « vision par ordinateur » (une branche de l’intelligence artificielle qui permet le traitement de données visuelles).

    Fondée en 2016, l’entreprise travaille notamment avec Airbus, Safran, Total, Aéroports de Paris ou des collectivités territoriales, en vue de développer des « safe cities », des réseaux urbains sécurisés par la reconnaissance faciale.

    Alexandre Benalla a été introduit auprès de XXII par l’ex-assistant parlementaire du député des Français de l’étranger Joachim Son-Forget, un certain Romain Chantemargue. Ce dernier, âgé de 20 ans, et ancien stagiaire chez XXII, vient d’être élu aux municipales dans la commune de Cormeilles-en-Parisis (Val-d’Oise). Il présidait, jusqu’au 2 juin, le micro-parti « Valeur absolue », fondé par Son-Forget après sa démission fracassante de La République en marche, en décembre 2018.

    L’ancien chargé de mission élyséen a rencontré l’assistant « à l’automne dernier », par l’intermédiaire de Joachim Son-Forget. Le jeune homme lui aurait d’abord offert ses services pour s’occuper de la certification de ses comptes sur les réseaux sociaux « gratuitement », « à titre amical », précise à Mediapart Alexandre Benalla. Puis il lui aurait proposé de rencontrer le patron de la start-up XXII, William Eldin.

    Pour Romain Chantemargue, il s’agissait de valoriser XXII, qui « est le seul acteur à faire de l’intelligence artificielle avec de la vision par ordinateur dans le domaine de la sécurité ». « C’est quelque chose qui se développe énormément. En Chine, en Israël avec Anyvision [voir ce documentaire https://www.arte.tv/fr/videos/083310-000-A/tous-surveilles-7-milliards-de-suspects sur le leader mondial de la reconnaissance faciale, proche des services de sécurité israéliens – ndlr]. En France, il y a XXII », explique à Mediapart le jeune homme, passionné d’informatique.

    Dans un premier temps, l’assistant parlementaire avait prévu d’organiser un rendez-vous entre XXII et Emmanuel Macron. « Romain Chantemargue m’a dit : “Je pourrais te faire rencontrer le président, ce serait cool.” Je dis : vas-y, go pour le président », confirme à Mediapart William Eldin, enthousiaste à l’idée de présenter au chef de l’État les enjeux de la technologie qu’il développe. « On a abordé le sujet ensemble avec William Eldin. J’ai dit que ça peut être intéressant de proposer au chef de cabinet une rencontre entre le président et une start-up qui travaille sur ce sujet », justifie l’assistant, en assurant toutefois qu’il s’agit d’une « réflexion » qui n’a pas abouti à ce stade.

    Contacté, l’Élysée n’a pas souhaité faire de commentaires.

    Quelques jours plus tard, le projet a changé de dimension. « Au dernier moment ça s’est réorienté, Romain Chantemargue m’a envoyé un message en me disant : “Et Alexandre Benalla ça te tente de le voir ?” », raconte William Eldin. Le patron de XXII accepte la proposition en se disant qu’Alexandre Benalla « n’est pas loin du président » et qu’il dispose d’un réseau important dans le domaine de la sécurité.

    Aucun projet concret n’a été acté lors de cette première rencontre du 26 mai. « Alexandre Benalla pense que j’ai une pépite dans les mains. Il m’a dit qu’il voit très bien le genre de cas d’utilisation qui pourraient lui être utiles », explique William Eldin. Romain Chantemargue explique ne pas avoir été rémunéré pour organiser ce rendez-vous : « Je ne suis pas payé par Alexandre, répond-il. J’ai une relation purement de travail avec lui. Si je peux faire des mises en relation autant le faire. Alexandre est quelqu’un d’adorable et très sérieux. »

    Selon le patron de XXII, l’ancien collaborateur du président a notamment indiqué « qu’il agissait beaucoup dans des pays étrangers ». Alexandre Benalla indique à Mediapart que cette rencontre a eu lieu dans le cadre du « développement » des activités de sa société, Comya Group, qui « est basée au Maroc » et qu’il est en train « de rebaser en France ». « [Le but] c’est de développer des propositions et des solutions vis-à-vis de mes clients : solutions globales de sécurité, solutions intégrées, cybersécurité, reconnaissance faciale, digitalisation des smart cities », détaille-t-il.

    Cette rencontre, dit-il, « n’intervenait en aucun cas dans le cadre d’un quelconque rapport avec M. Macron ». « Si à un moment l’Élysée a été abordé, c’est par M. Eldin, qui a soulevé le fait qu’il adorerait rencontrer Emmanuel Macron, et je n’ai pas répondu à cette phrase d’ailleurs », ajoute-t-il.

    L’ex-collaborateur d’Emmanuel Macron souligne n’avoir « plus de liens avec l’Élysée ». « Je ne veux plus avoir de liens avec aucun politique, aucun collaborateur, ça m’a apporté et ça m’apporterait plus de problèmes que de solutions. Je bosse aujourd’hui à titre privé, personnel, avec ma boîte. [...] Je développe mes activités de manière tout à fait – non pas transparente, parce que c’est un domaine qui n’est pas transparent –, mais en tout cas de manière légale. »

    Ses marges de manœuvre sont en tout cas, en théorie, très limitées : comme l’avait révélé Mediapart https://www.mediapart.fr/journal/france/160419/la-commission-de-deontologie-interdit-certaines-activites-alexandre-benall, la commission de déontologie de la fonction publique (CDFP) lui a interdit d’entretenir toute relation professionnelle avec des services publics de sécurité français ou avec des autorités publiques étrangères. Ces interdictions sont valables trois ans à compter du départ de M. Benalla de la présidence, soit jusqu’au 1er août 2021, mais – preuve supplémentaire de la faiblesse des dispositifs de contrôle en France – elles ne font l’objet d’aucune vérification systématique.

    Depuis son départ de l’Élysée après sa mise en cause pour des violences volontaires, l’ancien chargé de mission élyséen est concerné par plusieurs procédures judiciaires https://www.mediapart.fr/journal/france/220120/benalla-un-temoin-cle-implique-l-elysee-dans-l-affaire-des-coffres (violences du 1er Mai, selfie armé, passeports diplomatiques, contrats russes, soupçons de « faux témoignage », disparition du coffre-fort, absence de déclaration auprès de la HATVP) et mis en examen dans plusieurs d’entre elles.

    Alexandre Benalla affirme respecter « complètement » l’avis de la CDFP en ne travaillant « pas pour la sphère publique, pas pour des clients nationaux en France » mais « à l’international », et que pour « des personnes physiques ou morales privées ». Mais « dans un an, j’aurai la possibilité à nouveau de pouvoir dialoguer, proposer des offres commerciales à des entités, des États publics étrangers », précise-t-il. Actuellement, il maintient des contacts noués « avant l’Élysée », « à titre personnel, avec des chefs d’État étrangers », et qui « n’ont aucun lien et aucune incidence sur le professionnel », dit-il.

    Signe de son intérêt pour les technologies de XXII, Alexandre Benalla est revenu dès le lendemain du premier rendez-vous, mercredi 27 mai, au siège de la start-up. Encore entouré de Romain Chantemargue, l’ancien collaborateur d’Emmanuel Macron était cette fois accompagné de Yazid Sabeg, PDG de CS Group, une société de services informatiques et de cybersécurité.

    « J’ai reçu un petit message qui me disait : “William, on veut revenir avec quelqu’un d’important.” Moi je croyais que c’était Emmanuel Macron », explique M. Eldin.

    Yazid Sabeg n’est pas un simple entrepreneur. Ce patron d’origine algérienne est avant tout un homme de réseaux, qui cultive un épais carnet d’adresses, au carrefour de la politique et des affaires. Apparu sur le devant de la scène en 2004, à la faveur d’un livre déroulant ses propositions pour lutter contre les discriminations (Les Oubliés de l’égalité des chances issu d’un rapport commandé par l’Institut Montaigne https://www.institutmontaigne.org/publications/les-oublies-de-legalite-des-chances ), Sabeg fut, entre 2008 et 2012, le commissaire à la diversité et à l’égalité des chances de Nicolas Sarkozy.

    Il est aussi un proche de longue date de l’homme d’affaires franco-algérien Alexandre Djouhri – protagoniste clé de l’affaire Sarkozy-Kadhafi, mis en examen pour neuf délits présumés, dont « corruption active », « complicité de détournement de fonds publics » et « blanchiment ». Sous la présidence de Nicolas Sarkozy, le trio s’est rencontré à plusieurs reprises, comme en attestent les agendas de l’ex-chef de l’État, saisis dans le cadre de l’affaire Bettencourt https://www.leparisien.fr/politique/affaires-les-troublants-rendez-vous-de-sarkozy-05-04-2014-3742969.php .

    Yazid Sabeg est visé depuis 2013 par une enquête préliminaire menée par le parquet national financier pour « abus de biens sociaux » dans l’affaire Altis, cette usine de puces électroniques qu’il avait reprise à la demande et avec l’argent de feu Serge Dassault. Son nom apparaît également dans l’affaire Qatar/Veolia, qui porte sur la constitution d’une caisse noire de 180 millions d’euros par le Qatar lors de son entrée au capital de Veolia (lire ici https://www.mediapart.fr/journal/france/090620/%20https://www.mediapart.fr/journal/france/030415/qatar-veolia-henri-proglio-perquisitionne?onglet=full et là https://www.liberation.fr/futurs/2014/10/06/l-operation-velo-de-chypre-a-singapour_1116160 ). Sabeg dit n’avoir bénéficié d’aucun « mandat ou autre contrat » lié à cette opération.

    Questionné par Mediapart sur ce rendez-vous dans les locaux de XXII, Yazid Sabeg évoque une « réunion informelle » avec William Eldin, pour négocier les technologies d’acquisition visuelle de la société, « très intéressantes pour certaines de nos applications ».

    Il dément en revanche « tout rendez-vous commun » et « tout projet commun » avec Alexandre Benalla, en se contredisant sur la présence de l’ex-collaborateur d’Emmanuel Macron : il explique d’abord l’avoir « croisé » de manière « fortuite » au siège de XXII, puis dit avoir été « averti de sa présence en raison de ses relations techniques avec XXII ». Il affirme que l’ancien chargé de mission élyséen, « entouré d’un ou deux collaborateurs », « était là pour d’autres sujets, pour parler de vidéosurveillance ». « Lui s’intéresse à la reconnaissance faciale, la surveillance. Moi ce n’est pas mon sujet. Nos projets avec M. Eldin n’ont rien à voir avec M. Benalla ».

    Malgré ce démenti, nous avons reçu, après notre entretien, le 2 juin, avec Yazid Sabeg, des appels et messages d’Alexandre Benalla nous demandant de lui laisser « le droit de travailler ». Puis la Lettre A https://www.lalettrea.fr/action-publique_executif/2020/06/09/alexandre-benalla-approche-yazid-sabeg-sur-le-creneau-de-la-cybersecurite, a annoncé, le 9 juin, des « négociations » entre Benalla, Sabeg et XXII dans ce secteur de la surveillance et de la cybersécurité.

    À Mediapart, l’ancien collaborateur d’Emmanuel Macron confirme la rencontre du trio, mais affirme que ces rendez-vous « ont été des discussions de présentation et en aucun cas commerciales, de négociations ou contractuelles ».

    Comment sa route a-t-elle croisé celle de Yazid Sabeg ? Alexandre Benalla dit le connaître « depuis peu », et l’avoir rencontré « bien après l’Élysée », « à cinq reprises », par l’intermédiaire d’un « cadre supérieur dans un grand groupe français privé ». De son côté, Sabeg qualifie Benalla de « relation très lointaine », et dit l’avoir « croisé une fois ou deux avant », « par hasard », via des « relations amicales communes ». « Je ne vous en dirai pas plus », coupe-t-il court. « Arrêtez, arrêtez sur ces histoires, Benalla, tout ça, je n’ai pas envie de parler de tout ça. Je n’ai pas envie de répondre. »

    Tous deux démentent que cette rencontre se soit faite par l’intermédiaire d’Alexandre Djouhri, lui aussi une connaissance d’Alexandre Benalla.

    Benalla a nourri une vraie fascination pour Djouhri, d’extraction populaire (comme lui) et ayant fréquenté les ors de la République (comme lui). Il était allé au contact de l’intermédiaire sarkozyste au culot, dans un célèbre restaurant japonais du quartier de Knightsbridge, à Londres, à l’automne 2018.

    Questionné par Mediapart fin 2018 https://www.mediapart.fr/journal/france/191218/macron-sarkozy-benalla-djouhri-les-etranges-alliances-du-nouveau-monde?ong , l’ancien collaborateur d’Emmanuel Macron avait d’abord nié connaître Alexandre Djouhri, avant d’admettre l’avoir rencontré « plusieurs fois ». Aujourd’hui, il affirme n’avoir « plus aucun lien avec M. Djouhri ». « Il ne m’a jamais présenté personne, comme moi je ne lui ai jamais présenté personne », ajoute-t-il.

    #surveillance #benalla #technopolice #reconnaissance_faciale #bandits #contrôle_social #technomafia

  • Amazon suspend l’utilisation de sa reconnaissance faciale par la police pendant un an
    https://www.lemonde.fr/economie/article/2020/06/11/amazon-suspend-l-utilisation-de-sa-reconnaissance-faciale-par-la-police-pend


    Un manifestant porte un masque dénonçant la reconnaissance faciale, à Londres, le 16 mai.
    KIRSTY WIGGLESWORTH / AP

    La société basée à Seattle n’a pas dit pourquoi, mais les manifestations après la mort de George Floyd ont attiré l’attention sur l’injustice raciale aux Etats-Unis et sur la façon dont la police utilise la technologie pour suivre les personnes.

    Amazon a annoncé, mercredi 10 juin, interdire pendant un an à la police d’utiliser son logiciel de reconnaissance faciale Rekognition, dans un contexte de manifestations contre les violences policières et le racisme aux Etats-Unis depuis deux semaines.

    « Nous prônons des régulations plus strictes des gouvernements sur le recours éthique aux technologies de reconnaissance faciale, et le Congrès semble prêt à relever le défi », a indiqué le géant du commerce en ligne dans un communiqué.

    Risque de cibler les minorités
    L’annonce d’Amazon intervient un jour après qu’IBM a annoncé se retirer du secteur de la reconnaissance faciale – cette entreprise étant préoccupée par la façon dont la technologie peut être utilisée pour la surveillance de masse et le profilage racial.

  • Riconoscimento facciale, perché Como è tra le prime città a usarlo - Wired

    Perché Como è diventata una delle prime città in Italia a usare il riconoscimento facciale
    Il Comune ha già fatto due appalti per dotarsi di sistemi di videosorveglianza con riconoscimento facciale. Ma su che basi? L’inchiesta di Wired con le carte della gara

    https://www.wired.it/internet/regole/2020/06/09/riconoscimento-facciale-como

    #come #como #italie #controlefaciale #migration #gare @cdb_77

  • #Webinars. #COVID-19 Capitalism #Webinar Series

    Since 1 April, #TNI with allies has brought together experts and activists weekly to discuss how this pandemic health crisis exposes the injustices of the global economic order and how it must be a turning point towards creating the systems, structures and policies that can always protect those who are marginalised and allow everyone to live with dignity. Every Wednesday at 4pm CET.

    TNI works closely with allied organisations and partners around the world in organising these webinars. AIDC and Focus on the Global South are co-sponsors for the full series.

    –—

    Les conférences déjà en ligne sont ci-dessous en commentaire.

    –----

    Les prochains webinars:

    On 10 June, TNI will hold a webinar on Taking on the Tech Titans: Reclaiming our Data Commons.

    Upcoming webinars - Wednesdays at 4pm CET

    17 June: Borders and migration
    #frontières #migrations

    24 June: Broken Trade System
    #commerce

    https://www.tni.org/en/webinars
    #capitalisme #vidéo #conférence #coronavirus

    ping @isskein @reka

    • Building an internationalist response to Coronavirus
      https://www.youtube.com/watch?v=t5qN35qeB1w&feature=emb_logo


      Panellists:

      Sonia Shah, award-winning investigative science journalist and author of Pandemic: Tracking contagions from Cholera to Ebola and Beyond (2017).
      Luis Ortiz Hernandez, public health professor in UAM-Xochimilco, Mexico. Expert on social and economic health inequities.
      Benny Kuruvilla, Head of India Office, Focus on the Global South, working closely with Forum For Trade Justice.
      Mazibuko Jara, Deputy Director, Tshisimani Centre for Activist Education, helping to coordinate a national platform of civic organisations in South Africa to confront COVID-19.
      Umyra Ahmad, Advancing Universal Rights and Justice Associate, Association for Women’s Rights in Development (AWID), Malaysia

      #internationalisme

    • The coming global recession: building an internationalist response

      Recording of a TNI-hosted webinar on Wednesday, 8 April with Professor Jayati Ghosh, Quinn Slobodian, Walden Bello and Lebohang Pheko on the likely global impacts of the economic fallout from the Coronavirus and how we might be better prepared than the 2008 economic crisis to put forward progressive solutions.

      The webinar explored what we can expect in terms of a global recession that many predict could have bigger social impacts than the virus itself. How should we prepare? What can social movements learn from our failures to advance alternative progressive policies in the wake of the 2008 economic crisis?

      https://www.youtube.com/watch?v=LiP5qJhHsjw&feature=emb_logo

      Panellists:

      Professor Jayati Ghosh, award-winning economist Jawaharlal Nehru University, India. Author of India and the International Economy (2015) and co-editor of Handbook of Alternative Theories of Economic Development, 2018.
      Quinn Slobodian, associate professor of history, Wellesley College. Author of Globalists: The End of Empire and the Birth of Neoliberalism (2018)
      Walden Bello, author of Paper Dragons: China and the Next Crash (2019) and Capitalism’s Last Stand?: Deglobalization in the Age of Austerity (2013)

      Lebohang Liepollo Pheko, Senior Research Fellow of Trade Collective, a thinktank in South Africa that works on international trade, globalisation, regional integration and feminist economics

      #récession #crise_économique

    • A Recipe for Disaster: Globalised food systems, structural inequality and COVID-19

      A dialogue between Rob Wallace, author of Big Farms Make Big Flu and agrarian justice activists from Myanmar, Palestine, Indonesia and Europe.

      The webinar explored how globalised industrial food systems set the scene for the emergence of COVID-19, the structural connections between the capitalist industrial agriculture, pathogens and the precarious conditions of workers in food systems and society at large. It also touched on the kind of just and resilient food systems we need to transform food and agriculture today?

      https://www.youtube.com/watch?v=m9A6WkeqPss&feature=emb_logo

      Panellists:

      Rob Wallace author of Big Farms Make Big Flu and co-author of Neoliberal Ebola: Modeling Disease Emergence from Finance to Forest and Farm.
      Moayyad Bsharat of Union of Agricultural Work Committees (UAWC), member organization of La Via Campesina in Palestine.
      Arie Kurniawaty of Indonesian feminist organization Solidaritas Perempuan (SP) which works with women in grassroots communities across the urban-rural spectrum.
      Sai Sam Kham of Metta Foundation in Myanmar.
      Paula Gioia, peasant farmer in Germany and member of the Coordination Committee of the European Coordination Via Campesina.

      #inégalités #agriculture #alimentation

      –—

      #livre:
      Big Farms Make Big Flu

      In this collection of dispatches, by turns harrowing and thought-provoking, #Rob_Wallace tracks the ways #influenza and other pathogens emerge from an agriculture controlled by multinational corporations. With a precise and radical wit, Wallace juxtaposes ghastly phenomena such as attempts at producing featherless chickens with microbial time travel and neoliberal Ebola. While many books cover facets of food or outbreaks, Wallace’s collection is the first to explore infectious disease, agriculture, economics, and the nature of science together.


      https://monthlyreview.org/press/new-big-farms-make-big-flu-by-rob-wallace
      #multinationales

    • Taking Health back from Corporations: pandemics, big pharma and privatized health

      This webinar brought together experts in healthcare and activists at the forefront of struggles for equitable universal public healthcare from across the globe. It examined the obstacles to access to medicines, the role of Big Pharma, the struggles against health privatisation, and the required changes in global governance of health to prevent future pandemics and bring about public healthcare for all.

      https://www.youtube.com/watch?v=5KSIRFYF3W8&feature=emb_logo

      Panellists:

      Susan George, Author and President of the Transnational Institute
      Baba Aye, Health Officer, Public Services International
      Mark Heywood, Treatment Action Campaign, Section27 and editor at the Daily Maverick
      Kajal Bhardwaj, Independent lawyer and expert on health, trade and human rights
      David Legge, Peoples Health Movement Moderator: Monica Vargas, Corporate Power Project, Transnational Institute

      #santé #big-pharma #industrie_pharmaceutique #privatisation #système_de_santé

    • States of Control – the dark side of pandemic politics

      In response to an unprecedented global health emergency, many states are rolling out measures from deploying armies and drones to control public space, to expanding digital control through facial recognition technology and tracker apps.

      This webinar explored the political dimension of state responses, particularly the securitisation of COVID-19 through the expansion of powers for military, police, and security forces. It examined the impact of such repression on certain groups who are unable to socially distance, as well as how digital surveillance is being rolled out with little, if any democratic oversight.

      https://www.youtube.com/watch?v=4KI515hJud8&feature=emb_logo

      Panellists:

      Fionnuala Ni Aolain, UN Special Rapporteur on the Protection and Promotion of Human Rights while Countering Terrorism, University of Minnesota
      Arun Kundnani, New York University, author of The Muslims are Coming! Islamophobia, extremism, and the domestic War on Terror and The End of Tolerance: racism in 21st century Britain
      Anuradha Chenoy, School of International Studies in Jawaharlal Nehru University (retired), and author of Militarisation and Women in South Asia
      María Paz Canales, Derechos Digitales (Digital Rights campaign), Chile

      #contrôle #surveillance #drones #reconnaissance_faciale #démocratie

      ping @etraces

    • A Global Green New Deal

      This sixth webinar in our COVID Capitalism series asked what a truly global #Green_New_Deal would look like. It featured Richard Kozul-Wright (UNCTAD), and leading activists from across the globe leading the struggle for a just transition in the wake of the Coronavirus pandemic.

      https://www.youtube.com/watch?v=JbNhmPXpSAA&feature=emb_logo

      Panellists:

      Richard Kozul-Wright, Director of the Division on Globalization and Development Strategies at the United Nations Conference on Trade and Development, author of Transforming Economies: Making Industrial Policy Work for Growth, Jobs and Development
      Karin Nansen, chair of Friends of the Earth International, founding member of REDES – Friends of the Earth Uruguay
      Sandra van Niekerk, Researcher for the One Million Climate Jobs campaign, South Africa

      #transition

    • Proposals for a democratic just economy

      Outgoing UN rapporteur, #Philip_Alston in conversation with trade unionists and activists in Italy, Nigeria and India share analysis on the impacts of privatisation in a time of COVID-19 and the strategies for resistance and also constructing participatory public alternatives.

      https://www.youtube.com/watch?v=6-IvJq9QJnI&feature=emb_logo

      Panellists:

      Philip Alston, outgoing UN Special Rapporteur on extreme poverty and human rights
      Rosa Pavanelli, General Secretary of the global union federation Public Services International (PSI)
      Aderonke Ige, Our Water, Our Rights Campaign in Lagos / Environmental Rights Action /Friends of The Earth Nigeria
      Sulakshana Nandi, Co-chair, People’s Health Movement Global (PHM Global)

      #privatisation #participation #participation_publique #résistance

    • Feminist Realities – Transforming democracy in times of crisis

      An inspiring global panel of feminist thinkers and activists reflect and discuss how we can collectively reorganise, shift power and pivot towards building transformative feminist realities that can get us out of the worsening health, climate and capitalist crises.

      https://www.youtube.com/watch?v=XFEBlNxZUAQ&feature=emb_logo

      Panellists:

      Tithi Bhattacharya, Associate Professor of History and the Director of Global Studies at Purdue University and co-author of the manifesto Feminism for the 99%.
      Laura Roth, Lecturer of legal and political philosophy at Universitat Oberta de Catalunya, Barcelona, member of Minim Municipalist Observatory and co-author of the practice-oriented report Feminise Politics Now!
      Awino Okech, Lecturer at the Centre for Gender Studies at School of Oriental and African Studies (SOAS), University of London who brings over twelve years of social justice transformation work in Eastern Africa, the Great Lakes region, and South Africa to her teaching, research and movement support work.
      Khara Jabola-Carolus, Executive Director of the Hawaii State Commission on the Status of Women, co-founder of AF3IRM Hawaii (the Association of Feminists Fighting Fascism, Imperialism, Re-feudalization, and Marginalization) and author of Hawaii’s Feminist Economic Recovery Plan for COVID-19.
      Felogene Anumo, Building Feminist Economies, AWID presenting the #feministbailout campaign

      #féminisme

    • COVID-19 and the global fight against mass incarceration

      November 3rd, 2015, Bernard Harcourt (Columbia Law School) and Naomi Murakawa (Princeton) present rival narratives about mass incarceration in America. In The Illusion of Free Markets: Punishment and the Myth of Natural Order , Harcourt shows the interdependence of contract enforcements in global markets and punitive authority. InThe First Civil Right: How Liberals Built Prison America, by contrast, Murakawa traces prison growth to liberal campaigns and progressive legislation. Together, Murakawa and Harcourt offer fresh ideas about into the political, economic and ethical dimensions of mass incarceration.

      https://www.youtube.com/watch?v=BLeXbi4aIno&feature=emb_rel_pause

      Olivia Rope, Director of Policy and International Advocacy, Penal Reform International
      Isabel Pereira, Principal investigator at the Center for the Study of Law, Justice & Society (Dejusticia), Colombia
      Sabrina Mahtani, Advocaid Sierra Leone
      Maidina Rahmawati, Institute of Criminal Justice Reform (ICJR), Indonesia
      Andrea James, Founder and Exec Director, and Justine Moore, Director of Training, National Council For Incarcerated and Formerly Incarcerated Women and Girls, USA

      #prisons #emprisonnement_de_masse #USA #Etats-Unis

  • Dossier / Reconnaissance faciale : Dans le viseur | Politis
    http://www.politis.fr/dossiers/reconnaissance-faciale-dans-le-viseur-478

    Articles du dossier :
    PAR ROMAIN HAILLARD

    Reconnaissance faciale : Une technologie d’avenir déjà là
    Surveillance : Petites phrases pour grand sujet

    Quadrature du Net : « Faire du visage une clé instaure une société du suspect. »

    #Reconnaissance_faciale #Surveillance

  • How Well Can Algorithms Recognize Your Masked Face? | WIRED
    https://www.wired.com/story/algorithms-recognize-masked-face

    Facial-recognition algorithms from Los Angeles startup TrueFace are good enough that the US Air Force uses them to speed security checks at base entrances. But CEO Shaun Moore says he’s facing a new question: How good is TrueFace’s technology when people are wearing face masks?

    “It’s something we don’t know yet because it’s not been deployed in that environment,” Moore says. His engineers are testing their technology on masked faces and are hurriedly gathering images of masked faces to tune their machine-learning algorithms for pandemic times.

    Some vendors and users of facial recognition say the technology works well enough on masked faces. “We can identify a person wearing a balaclava, or a medical mask and a hat covering the forehead,” says Artem Kuharenko, founder of NtechLab, a Russian company whose technology is deployed on 150,000 cameras in Moscow. He says that the company has experience with face masks through contracts in southeast Asia, where masks are worn to curb colds and flu. US Customs and Border Protection, which uses facial recognition on travelers boarding international flights at US airports, says its technology can identify masked faces.

    But Anil Jain, a professor at Michigan State University who works on facial recognition and biometrics, says such claims can’t be easily verified. “Companies can quote internal numbers, but we don’t have a trusted database or evaluation to check that yet,” says. “There’s no third-party validation.”

    Early in March, China’s SenseTime, which became the world’s most valuable AI startup in part through providing face recognition to companies and government agencies, said it had upgraded its product for controlling access to buildings and workplaces to work with face masks. The software attends to facial features left uncovered, such as eyes, eyebrows, and the bridge of the nose, a spokesperson said. The US restricted sales to SenseTime and other Chinese AI companies last year for allegedly supplying technology used to oppress Uighur Muslims in China’s northwest.

    Reports from China of the systems’ effectiveness with masks are mixed. One Beijing resident told WIRED she appreciated the convenience of not having to remove her mask to use Alipay, China’s leading mobile payments network, which has updated its facial-recognition system. But Daniel Sun, a Gartner analyst also in Beijing, says he has had to step out of crowds to pull down his mask to use facial recognition for payments. Still, he believes facial recognition will continue to grow in usage, perhaps helped by interest in more hygienic, touch-free transactions. “I don’t think Covid-19 will stop the increase in usage of this technology in China,” Sun says.

    #Reconnaissance_faciale

  • Fooling Facial Detection with Fashion

    Usage of facial recognition is on the rise. With the recent debates over the ethics of facial recognition potential adversarial attacks against facial detection have been on my mind. Facial recognition is being used everywhere from airports to social media. It seems to be near impossible to opt-out of having your face scanned.

    An ideal attack on facial detection would be an article of clothing that looks inconspicuous to the uninformed. With inspiration from the Hyperface project I decided to research and implement a wearable adversarial example. In this article I’ll detail the process of creating an adversarial image to fool a selected type of facial detection and how I implemented a practical example on a face mask.

    https://towardsdatascience.com/fooling-facial-detection-with-fashion-d668ed919eb

    https://github.com/BruceMacD/Adversarial-Faces

    #surveillance #vidéo-surveillance #reconnaissance_faciale #Hyperface_project #biométrie #CCTV #algorithme #Surveillance #intelligence_artificielle

  • Dans les universités, la tentation de la télésurveillance des examens - Page 1 | Mediapart
    https://www.mediapart.fr/journal/france/010520/dans-les-universites-la-tentation-de-la-telesurveillance-des-examens

    Faute de pouvoir organiser des partiels classiques pour cause de risque sanitaire, certaines universités réfléchissent à une télésurveillance des examens, via des prestataires privés. Un dispositif contesté et coûteux, que le gouvernement encourage.

    Évaluera ou n’évaluera pas ? « Pour l’instant, c’est les grandes négociations », glisse un vice-président d’une université parisienne. Depuis le début du mois d’avril, les discussions sur les modalités d’examen font rage dans les facultés, qui ne rouvriront pas leurs portes avant la rentrée de septembre.

    Mercredi 22 avril, la ministre de l’enseignement supérieur Frédérique Vidal, dans une interview accordée à 20 Minutes, a recommandé d’organiser « un maximum d’épreuves ne nécessitant pas la présence physique des étudiants sur les campus », tout en estimant que les modalités de ces épreuves relevaient de la « liberté pédagogique » des établissements.

    Les votes s’enchaînent dans les CFVU, les commissions chargées des règles des examens dans chaque université. Une partie des syndicats étudiants, comme l’Unef, s’opposent à l’organisation de partiels classiques, certains réclamant une neutralisation du semestre ou l’instauration du « 10 améliorable » (validation automatique du semestre, avec une note minimale de 10 pour tous les étudiants). Des demandes irrecevables pour la plupart des établissements, qui souhaitent maintenir une forme d’évaluation et mettent sur pied les modalités filière par filière.

    La plupart des universités ont déjà annoncé vouloir privilégier le contrôle continu et adapter fortement les examens de fin d’année. À l’université Lumière-Lyon II, la consigne est d’éviter ou d’alléger autant que possible les examens « en temps contraint », explique Valérie Haas, vice-présidente à la formation. Les enseignants sont donc invités à privilégier des « devoirs maison », sans que l’étudiant ne soit obligé de se connecter à une heure fixe. Certains étudiants pourront bénéficier d’un accès à l’examen « pendant 24 heures ». Le tout en passant par des plateformes comme Moodle, installées dans la plupart des universités.

    D’autres établissements ont déjà annoncé l’organisation d’examens à distance, selon des modalités très diverses, comme les universités de Bretagne (UBO), de Nancy, de Lille ou de Rouen. Avec une inquiétude : ces partiels ne risquent-ils pas d’entraîner une hausse des fraudes et de mettre en péril la sacro-sainte valeur des diplômes ? C’est sur cette angoisse que cherchent à se positionner les entreprises spécialisées dans la télésurveillance des examens.

    Pour réduire les risques de triche, le ministère de l’enseignement supérieur conseille aux universités de privilégier les épreuves « simples » et courtes, comme des questionnaires à choix multiples (QCM), ou au contraire des examens mettant l’accent sur « l’esprit critique », moins propices au copier-coller. « Il s’avère difficile d’éviter la recherche d’informations sur le Web », note-t-il, lucide.

    Les disciplines comptant peu d’étudiants pourraient aussi s’orienter vers l’organisation d’oraux par visioconférence, qui permettent de vérifier l’identité du candidat. Mais, dans des facultés comptant souvent des centaines d’étudiants par amphithéâtre, la surveillance des partiels reste une grande illusion. D’où la tentation de recourir à des prestataires extérieurs.

    Dès le début du confinement, le ministère de l’enseignement supérieur a transmis aux universités une fiche mentionnant les noms de plusieurs entreprises spécialisées dans la télésurveillance d’examens, en précisant les volumes de partiels pouvant être organisés et les tarifs pratiqués, de l’ordre de 10 euros par heure d’examen et par étudiant en moyenne. Une manière de mettre l’option sur la table, sans remettre en cause la liberté de choix des établissements.

    Techniquement, les détails divergent, mais la plupart des entreprises listées par le ministère proposent une captation d’image. « D’abord, l’étudiant installe le logiciel et l’autorise à fermer toutes les autres applications. Ensuite il se prend en photo avec sa carte d’identité », explique Benoît Sillard, PDG de TestWe, l’une des sociétés citées par le ministère.

    « Pendant l’examen, une photo est prise toutes les quelques secondes. Cela forme un mini-film qui est automatiquement analysé pour détecter des anomalies : un autre visage qui apparaît ou l’étudiant qui s’en va. Dans ce cas, une vérification est faite par une personne physique pour voir ce qu’il s’est passé », détaille l’entrepreneur, lui-même passé par les ministères de l’éducation nationale et de la recherche en tant que spécialiste numérique au début des années 2000. Ces surveillants peuvent être fournis par les universités ou par les prestataires, moyennant finance.

    Contacté par Mediapart, le ministère de l’enseignement supérieur et de la recherche minimise le recours à ce type de prestation : « Le nombre d’établissements ayant prévu de recourir aux examens télésurveillés devrait être limité. Il s’agirait majoritairement d’écoles, et dans une moindre mesure d’universités. » Les facultés de médecine ou de pharmacie, en particulier, pourraient être tentées par le dispositif.

    Le ministère estime que l’ordonnance du 27 mars « donne aux établissements assez de souplesse pour organiser les évaluations sous des formes variées », citant notamment « l’organisation d’oraux en visioconférence ou de quizz à questions et réponses aléatoires », et que la plupart des solutions envisagées rendent « le risque de triche très faible et donc ne nécessitent pas de recours à la télésurveillance ».

    Reste que le sujet suscite de vives oppositions dans les universités, où chaque UFR – ou filière disciplinaire – dispose d’une certaine marge de manœuvre. « Nous voulions interdire l’organisation d’examens synchrones [en temps réel] », raconte Jennifer Buyck, élue du syndicat Snesup à la CFVU de l’université Grenoble-Alpes, qui soulève des objections éthiques et pratiques à la télésurveillance : fracture numérique pour de nombreux étudiants, mauvaises conditions de travail au domicile, accentuation de la précarité en période de confinement, logiciel jugé intrusif et liberticide…

    « Le point commun entre tout ça, c’est une rupture d’égalité des étudiants », souligne l’enseignante-chercheuse, dont la proposition a été rejetée. « Il n’y a pas de garde-fous », s’inquiète-t-elle.

    Des reproches injustifiés, tente de pondérer Benoît Sillard, qui estime que les examens encadrés par sa société sont « exactement les mêmes, en dématérialisé, que dans une salle de cours ». Le PDG de TestWe affirme avoir été très sollicité par des établissements du supérieur ces dernières semaines et avoir déjà organisé plusieurs milliers d’examens surveillés. « Les grandes écoles ont vite basculé », résume-t-il, rappelant que sa société a déjà travaillé avec l’ENA ou de grosses écoles de commerce comme l’EM Lyon. « C’est plus long du côté des facs », admet-il, tout en assurant être en « négociations très avancées » avec plusieurs universités.

    Ces dernières années, des universités ont déjà eu recours à ce type de télésurveillance pour contourner des blocages dus à des mouvements étudiants. C’est le cas à Nanterre ou à l’université Paul-Valéry de Montpellier, où des examens à distance se sont tenus au printemps 2018 après le rejet d’un recours administratif déposé par des syndicats étudiants.

    Ailleurs, la télésurveillance est expérimentée à petite échelle, notamment pour les étudiants dans l’impossibilité d’assister aux examens pour raisons professionnelles ou médicales. Ce devait être le cas cette année pour certaines licences de langue à Nancy, où les étudiants volontaires se voyaient demander le paiement de 200 euros de frais « non remboursables » pour bénéficier de ce service, confié par l’université de Lorraine à la société Managexam.

    La société vend aussi son outil à l’université de Caen, présentée comme « en pointe sur la question » par le ministère, tout comme Sorbonne-Université, qui travaille avec Proctorexam, un concurrent.

    À l’université de Caen, le dispositif est expérimenté depuis plusieurs années sur « une petite centaine d’étudiants », sur les 30 000 que compte l’université, précise son président, Pierre Denis. Essentiellement dans le cadre de formations à distance, par exemple pour des étudiants résidant à l’étranger. « Nous n’envisageons pas d’étendre ce système massivement », affirme-t-il, s’exprimant également au nom de la conférence des présidents d’université (CPU). « Avec la fracture numérique, ce ne serait ni adapté, ni éthique, ni peut-être même faisable », estime-t-il.

    Selon un sondage en cours de finalisation réalisé par l’université de Caen, au moins 5 % des effectifs, soit 1 500 étudiants, ne sont actuellement pas dans des conditions leur permettant de passer des examens. Des solutions techniques (clefs 4G, autorisations de déplacement) ou organisationnelles (évaluation décalée ou par oral) sont actuellement à l’étude.

    L’université d’Aix-Marseille a déjà acté qu’elle n’aurait pas recours à la télésurveillance d’examens et qu’elle s’orienterait principalement vers le contrôle continu. « Nous distribuons 1 500 colis alimentaires par semaine. Près de 600 étudiants n’ont pas un accès numérique satisfaisant, les conditions d’égalité n’étaient pas réunies pour organiser des examens », détaille Éric Berton, président d’Aix-Marseille Université (AMU).

    Un choix qui est aussi économique. Lionel Nicod, le vice-président à la formation de l’AMU, a fait ses comptes : « On arrivait à 1,6 million d’euros rien que pour les premières années de licence. Entre dépenser cette somme pour des examens ou la garder pour soutenir nos étudiants à la rentrée, le choix a été vite fait. » Les tarifs indicatifs recensés par le ministère auprès des différentes entreprises varient de 1,50 euro pour des « examens non surveillés », ressemblant à une simple visioconférence, jusqu’à 17 euros par étudiant et par examen, si l’entreprise fournit les surveillants.

    Le gouvernement a trouvé une parade pour réduire ces coûts prohibitifs : une sorte de commande groupée. Le ministère de l’enseignement supérieur indique à Mediapart que la Fédération inter-universitaire de l’enseignement à distance (Fied) propose une adhésion gratuite à tous les établissements du supérieur. Une action « discutée » avec les services du ministère, précise-t-il.

    L’opération doit permettre aux établissements de passer une sorte de commande groupée et de « profiter du contrat cadre que la Fied a passé avec la société Managexam et permettant un tarif préférentiel de 1 euro HT l’examen (par étudiant) réalisé en télésurveillance par prise de photos […]. Compte tenu du fait que le recours à la télésurveillance ne sera pas massif, cela restera très acceptable dans les coûts », détaille le ministère.

    Même avec une réduction, l’idée fait bondir Mélanie Luce, présidente de l’Unef. « Les étudiants sont dans des situations très précaires, sans emploi ni droits au chômage ou au RSA, vivent parfois dans des taudis ou peinent à se nourrir, et on serait prêts à dépenser des millions d’euros pour nous forcer à passer des examens télésurveillés ? C’est aberrant. » Et le temps presse pour les universités, qui doivent se positionner ces semaines-ci sur la question : selon la loi, elles doivent informer les étudiants des modalités d’évaluation choisies au moins 15 jours avant la date de l’examen.

    #université #facs #ESR #surveillance #examens #reconnaissance_faciale

  • Crise sanitaire : la Technopolice envahit l’université
    https://www.laquadrature.net/2020/04/30/crise-sanitaire-la-technopolice-envahit-luniversite

    Dans le contexte de la pandémie, le gouvernement recommande officiellement aux établissements d’enseignement supérieur la télésurveillance des examens à l’aide de dispositifs invasifs, discriminants et manifestement illégaux : reconnaissance faciale, vidéosurveillance par webcam et smartphone, détection…

    #Surveillance

  • (4) A Cannes, des caméras scrutent les habitants non masqués - Libération
    https://www.liberation.fr/france/2020/04/29/a-cannes-des-cameras-scrutent-les-habitants-non-masques_1786737

    La ville des Alpes-Maritimes a mis en place un système de vidéosurveillance en prévision d’une obligation du port de masque. Une décision qui ne fait pas l’unanimité.

    A Cannes, des caméras scrutent les habitants non masqués

    Le marché Forville de Cannes n’est plus ouvert aux quatre vents. Pour entrer sous la halle, Didier et Jules devaient déjà se plier à la prise de température et au lavage des mains. Depuis le 23 avril, et sans qu’ils ne le sachent, ces deux Cannois ont été soumis à un autre contrôle : leurs visages sont passés à la moulinette d’un algorithme. La ville de Cannes vient de se doter d’un détecteur de masques intégré aux caméras de ce marché provençal. « Ils sont tombés sur la tête. On se croirait dans un film, raillent Didier et Jules. Ils feraient mieux de mettre l’argent pour ouvrir des lits à l’hôpital et trouver un médicament plutôt que de nous surveiller. » Les deux amis ne portent pas de masques. Ils font partie des 26 % de Cannois, selon les nouvelles statistiques de la ville, qui ne se protègent pas pour faire leurs emplettes.
    Masques gratuits et rues désinfectées

    « Cet algorithme permet de détecter les personnes qui portent ou non un masque dans l’espace public à l’aide de petites caméras et de mini ordinateurs qui traitent les images en local », détaille la mairie dans un communiqué diffusé trois jours après l’installation du matériel. Développée par la start-up française Datakalab, cette technologie transforme les images en données. Son PDG Xavier Fischer les reçoit sur son ordinateur. A gauche de l’écran, un graphique matérialise la fréquentation. A droite, un autre indique la part de Cannois masqués. « Pour la journée du 26 avril, on voit que 87 % des personnes portaient le masque à 8 h 45. Ça baisse très régulièrement au cours de la matinée, pointe Xavier Fischer. Plus il est tôt, plus le port du masque est respecté. »

    Ces informations intéressent la ville de Cannes qui s’est offert l’expérimentation contre un chèque de 9 000 euros. « On se base sur des mathématiques pour anticiper le déconfinement, explique la cheffe de cabinet adjoint de la commune, Sophie Mouysset. Si le masque devient obligatoire, et que le gouvernement nous donne les moyens, à un moment donné il faudra faire de la répression pour appliquer ce principe. » Pour l’instant, « un SMS ou un email est envoyé aux employés municipaux chargés de la sécurité du lieu » et « les équipes peuvent aller au-devant des Cannois pour une action pédagogique ». C’est qu’à Cannes, les masques sont gratuits : le maire LR David Lisnard en a déjà distribué 100 000. Il s’est aussi engagé à désinfecter les rues, parfois à l’aide de drones. Des mesures qui « rassurent » Isabelle, maraîchère sous la halle : « Ces mesures ne me dérangent pas. On ne va pas s’empêcher de vivre, estime-t-elle. Quand on n’a rien à se reprocher, ça ne devrait pas poser de problème d’être filmé. »
    « Atteinte à nos droits »

    Trois marchés sont déjà équipés. Dès jeudi, l’algorithme montera à bord des bus. « La détection, avec l’individualisation du port du masque, est déjà une atteinte à nos droits. Ça fait partie de toutes ces nouvelles technologies déployées et légitimées par la crise, pointe Martin Drago, juriste pour la Quadrature du net. Il faut bien distinguer deux craintes : la première c’est l’atteinte à nos droits maintenant, le seconde c’est la question de la banalisation. »

    A lire aussiLa justice valide le couvre-feu des quartiers populaires de Nice

    Xavier Fischer répète inlassablement le même discours : il éloigne toute association d’idées entre sa technologie et la reconnaissance faciale : « Oui, on passe par la caméra, mais on met tous les garde-fous pour être certains de ne pas conserver d’images, insiste-t-il. On a automatisé le boîtier de comptage : on envoie des lignes de data avec le nombre de personnes, le nombre de masques et les heures. Cette analyse d’images respecte le RGPD [règlement général sur la protection des données, ndlr]. » Datakalab a été créé il y a trois ans pour développer le comptage dans les centres-commerciaux, les duty-free ou les hôpitaux. La start-up et son intelligence artificielle sont capables de faire des statistiques par tranche d’âges, par sexe ou par niveau de satisfaction grâce au sourire. En fin de semaine, Datakalab testera à Cannes l’analyse de la distanciation sociale entre les individus.

    Sur le boîtier de la caméra du marché Forville figure un petit écriteau : « Vous pouvez vous opposer au traitement en faisant un signe "non" de la tête. » Trop tard pour Didier et Jules. Ils sont passés sous l’objectif sans même se rendre compte qu’ils étaient filmés. Ils entreront dans les statistiques des mauvais élèves : les non-porteurs de masques.

    #Surveillance #Reconnaissance_faciale #Géolocalisation #After

  • Tous surveillés - 7 milliards de suspects | ARTE
    https://www.arte.tv/fr/videos/083310-000-A/tous-surveilles-7-milliards-de-suspects

    https://www.youtube.com/watch?v=8wN3emyA-ew

    C’est un reportage intéressant car il contient une interview avec l’inventeur du système de crédit social chinois Lin Junyue. (à partir deTC 00:50:20) Cet homme rearquable pour son visage aux traits impénétrables explique sur un ton glaçant qu’avec son système le mouvement des gilets jaunes et tous les autres mouvements populaires n’auraient pas eu lieu en France et qu’il espère bien qu’un jour les Français comprennent qu’il est nécessaire de règlementer la société à sa façon.

    Pour le reste ce serait parfait si on nous avait expliqué que le sort des Ouïgours est le résultat d’un islamisme terroriste lancé et entretenu par les #USA afin de déstabliliser son concurrent chinois. Le gouvernement Chinois se défend avec les moyens modernes qui lui permettent d’éviter un conflit armé ouvert. Il est évident que les conséquences sont horribles pour les familles ouïgoures broyées dans l’engrenage de la nouvelle guerre froide imérialiste. Quant à ce sujet ce documentaire n’apporte pas d’élément au dela de ce que veulent nous font croire les infos de 20 heures des médias système. Au lieu de parler des forces véritables qui agissent dans cette guerre on nous tient le discours habituel anti-chinois avec quelques comparaison nazies aberrantes illustrés avec les images habituelles de Tibétains et autres opposants ralliés aux amis étatuniens.

    A d’autres moments le film dit clairement que les technologies de surveillance moderne sont le fruit de la guerre et particulièrment de la guerre menè par l’état d’Israel. Là encore il y manque l’information que cet état est le résultat d’actions de groupes armés zionistes anti-arabes et anti-britanniques, ces auteurs de l’attentat de l’hôtel King David et diplomates habiles se servant du désir étatsunien de récupérer la place du Royaume Uni dans la région après 1945.

    Bref, ce film est à voir mais avec les mises en garde habituelles contre l’amalgame de vérité et de vraies fausses histoires.

    Des caméras de Nice à la répression chinoise des Ouïghours, cette enquête dresse le panorama mondial de l’obsession sécuritaire, avec un constat glaçant : le totalitarisme numérique est pour demain.

    Disponible du 14/04/2020 au 19/06/2020, Prochaine diffusion le vendredi 15 mai à 09:25

    Arte-Doku zur Überwachungspraxis : Perfekte Unterdrückung - Medien - Gesellschaft - Tagesspiegel
    https://www.tagesspiegel.de/gesellschaft/medien/arte-doku-zur-ueberwachungspraxis-perfekte-unterdrueckung/25756912.html

    Tatsächlich ist mit dem Überwachungs-Regime die Kriminalitätsrate stark gesunken. Probleme würden nicht durch Inhaftierung, sondern durch die missbilligende Reaktion der Gesellschaft gelöst, sagt der Sozialwissenschaftler und Regierungsberater Lin Junyue, der in dem französischen Dokumentarfilm „Überwacht: Sieben Milliarden im Visier“ als Erfinder der Sozialkredite in der Volksrepublik China vorgestellt wird.

    Lin Junyue würde seine Idee gerne ins kapitalistische Ausland verkaufen, in Europa habe Polen Interesse signalisiert. Um das französische Publikum zu überzeugen, sagt er: „Mit dem Sozialkredit-System hätte es die Gelbwesten-Bewegung nie gegeben.“

    #intelligence_artificielle #reconnaissance_faciale #surveillance #crimes_de_guerre #Chine #France #reportage

  • Coronavirus. 100 000 caméras surveillent les confinés à Moscou… Et tous les autres

    Le #confinement a été décidé en Russie pour les personnes qui reviennent de pays touchés par la pandémie de #coronavirus. 200 personnes ont été contrôlées en train d’enfreindre cette règle dans la capitale moscovite grâce au système de vidéosurveillance. Au grand dam de l’opposition.

    À Moscou, la #reconnaissance_faciale est devenue un outil clé de la stratégie anti-coronavirus, un test grandeur nature pour cette #technologie controversée, ses détracteurs dénonçant de longue date le risque d’un usage à des fins politiques.

    Depuis février, des milliers de Moscovites, en particulier ceux revenus de pays touchés par le #Covid-19, sont soumis à un régime de confinement strict à domicile de 14 jours pour empêcher la maladie de se propager.

    La reconnaissance faciale pour surveiller les confinés

    Tous sont catalogués avec leurs adresses, la copie de leurs passeports et leurs numéros de téléphone dans une base de données de cette mégalopole aux 16 millions d’habitants et visiteurs quotidiens.

    Et chacun est informé qu’une infraction au régime d’isolement est passible d’amendes voire de prison et d’expulsion pour les ressortissants étrangers.

    "Le respect de ce régime fait l’objet d’une surveillance permanente, notamment via le système de reconnaissance faciale", a mis en garde le maire de Moscou Sergueï Sobianine sur son blog.

    La puissance du système repose sur un maillage très serré. Pas un couloir de métro, pas une rue n’échappe aujourd’hui aux 170 000 caméras déployées peu à peu depuis une décennie au nom de l’ordre public. Quelque 100 000 d’entre elles sont reliées à l’intelligence artificielle capable d’identifier les personnes filmées et les 70 000 restantes doivent suivre sous peu.

    200 personnes identifiées pour avoir enfreint la quarantaine

    La police de Moscou a dit avoir identifié depuis février près de 200 personnes ayant enfreint leur quarantaine, grâce à cette surveillance.

    La Russie a aussi lancé d’autres technologies au service de la lutte contre le coronavirus, allant de la télémédecine à la surveillance des étalages de supermarchés et des réseaux sociaux pour contrer les rumeurs et "fausses informations".

    Le président Vladimir Poutine a lui-même visité mardi le nouveau centre de vigilance face à l’épidémie de coronavirus en Russie.

    Selon Sergueï Sobianine, ce pôle dispose des coordonnées et lieux de travail de 95 % des personnes ayant voyagé dans les pays les plus touchés par la pandémie. "Nous avons identifié où ils sont", s’est-il félicité.

    Dès février, le maire vantait l’efficacité redoutable de ce contrôle en prenant l’exemple d’une Chinoise sortie indûment de sa quarantaine, d’une amie lui ayant rendu visite et du chauffeur de taxi de cette dernière. Les autorités ont collecté au passage les données personnelles des 600 voisins des deux jeunes femmes.

    Selon le maire, les caméras sont aussi utilisées pour surveiller l’approvisionnement des étals des supermarchés, afin d’éviter les pénuries alors que de nombreux Moscovites, inquiets face à l’épidémie, se sont précipités cette semaine pour faire des stocks.

    Une technologie qui s’exporte

    Cette vidéosurveillance renforcée par la reconnaissance faciale avait été testée pour la première fois durant l’été 2018 lors de la Coupe du monde de football, avant d’être généralisée en janvier 2020. Juste avant l’épidémie.

    "La probabilité d’une erreur de notre algorithme dans la reconnaissance des visages est de 1 sur 15 millions", expliquait en début d’année Alexandre Minine, directeur général de la société russe NtechLab qui a gagné l’appel d’offres de la mairie de Moscou.

    Son dispositif, qui est aussi exporté en Chine, premier marché mondial, et en Amérique latine, est même capable d’identifier les personnes par leur seule silhouette dans "80 % des cas".

    Les technologies de surveillance russes et chinoises, les plus sophistiquées au monde, sont déjà exportées dans une centaine de pays, relève Valentin Weber, un expert de la cybersécurité à l’Université d’Oxford, dans une étude publiée fin 2019.

    "En raison des lois plus strictes sur la protection des données personnelles, en Europe la reconnaissance faciale n’a pas été déployée à grande échelle. Les groupes russes et chinois avaient moins de restrictions juridiques pour collecter et utiliser les données personnelles que leurs collègues européens", explique Valentin Weber.

    Risque de « Big Brother »

    Avant la crise du coronavirus, experts et opposants ont ainsi mis en garde contre ce "Big Brother" et le risque que sous couvert d’une mission d’intérêt général, il soit aussi utilisé pour surveiller les adversaires politiques et restreindre les libertés publiques.

    "C’est l’argument sécuritaire qui vient toujours justifier une perte de vie privée et de liberté personnelle. C’est là où est le plus grand problème et le plus grand danger", souligne le chercheur français en cybersécurité Baptiste Robert.

    Alexandre Minine dit faire confiance aux autorités et affirme que les images les "informations sur les personnes (passeport, nom et prénom, numéro de téléphone) ne sont pas conservées dans les mêmes bases de données".

    Selon lui, ces données ne sont croisées qu’en cas de nécessité, en conformité avec une procédure stricte confiée aux forces de l’ordre.

    Du côté des détracteurs du système, on se montre autrement plus méfiant. D’autant que la surveillance à des fins politiques n’est pas chose nouvelle pour bien des Russes : à l’époque soviétique, le KGB avait la réputation d’avoir des yeux et des oreilles partout.

    Surveillance d’État ?

    Aliona Popova, juriste et activiste, a déposé une plainte pour dénoncer le recours à Moscou du système de reconnaissance faciale à l’occasion, le 29 septembre, d’une manifestation d’opposition autorisée par les pouvoirs publics.

    Selon elle, des caméras avaient été fixées aux portiques détecteurs de métaux par lesquels chaque manifestant était obligé de passer pour rejoindre la zone de rassemblement.

    "L’utilisation massive des technologies de reconnaissance faciale, c’est de la surveillance de l’État visant ses citoyens. Et c’est certain que l’État va l’utiliser contre les opposants politiques", a-t-elle estimé.

    Sa plainte a finalement été rejetée, mais sa pétition contre la reconnaissance faciale sur le site change.org avait recueilli près de 75 000 signatures avant la crise du Covid-19. La mairie dément tout usage machiavélique à des fins de fichage des opposants.

    Des activistes se peignent le visage avec des formes géométriques

    En février, un groupe d’activistes artistiques a tenté de sensibiliser sur le sujet avec une nouvelle forme de protestation.

    Inspirés par une action du "Dazzle Club" à Londres où la reconnaissance faciale a été lancée en début d’année dans des espaces géographiques précis, quatre militants se sont peint des formes géométriques sur le visage devant l’administration présidentielle russe, un maquillage censé les rendre non identifiables par les caméras.

    ""Il y a déjà eu des cas d’activistes politiques interpellés dans le métro, identifiés à l’aide des caméras", accusait alors la peintre Katrin Nenacheva. Les quatre activistes ont été interpellés lors de leur action, puis jugés et condamnés à des amendes de 15 000 roubles (173 €) pour infractions à la réglementation des manifestations.

    Le directeur général de la société NtechLab relève la futilité de ce mode de protestation. "Nous pouvons travailler même lorsque 40 % du visage est recouvert par une casquette ou un masque médical", explique-t-il.

    S’évader de sa quarantaine le visage couvert ne protège pas de l’œil de Moscou.

    https://www.ouest-france.fr/europe/russie/coronavirus-100-000-cameras-surveillent-les-confines-moscou-et-tous-les
    #vidéosurveillance #Russie #Moscou
    ping @etraces

  • Poland : App helps police monitor home quarantine | Privacy International
    https://privacyinternational.org/examples/3473/poland-app-helps-police-monitor-home-quarantine

    Too much : plus besoin de bracelets électronique, le mobile suffit... Impressionnant d’imaginer l’usage demain, sur le lieu de travail : prouver toutes les vingt minutes que vous êtes bien dans l’environnement qui vous a été attribué.

    The Polish government has developed the free Home Quarantine app for both iPhone and Android, which allows the police to check that individuals do not break quarantine; those who do may be fined up to PLN 5,000 and also offers support to those who are quarantined. Once users activate the app by entering a phone number and a code sent via SMS, they send a reference photo. Every so often the app sends an unscheduled request for a new photo to be sent within 20 minutes. The system checks both the person (using facial recognition) and the location, essentially replicating what would otherwise be a visit from a police officer. Non-quarantined people cannot sign up, as the app is connected to a database of telephone numbers belonging to those ordered into quarantine. The app also gives access to relevant health information and a hotline. The government intends to add more functionality to the app over time.

    #Libertés #Droits_fondamentaux #Bracelets_électroniques

  • To Participants in the Plenary Assembly of the Pontifical Academy for Life (28 February 2020) | Francis
    http://www.vatican.va/content/francesco/en/speeches/2020/february/documents/papa-francesco_20200228_accademia-perlavita.html

    MEETING WITH THE PARTICIPANTS IN THE PLENARY ASSEMBLY OF THE
     PONTIFICAL ACADEMY FOR LIFE

    ADDRESS PREPARED BY POPE FRANCIS,
    READ BY H.E. ARCHBISHOP PAGLIA,
    PRESIDENT OF THE PONTIFICAL ACADEMY FOR LIFE

    Clementine Hall
    Friday, 28 February 2020

     

    Distinguished Authorities,
    Ladies and Gentlemen,
    Dear Brothers and Sisters,

    I offer you a cordial greeting on the occasion of the General Assembly of the Pontifical Academy for Life. I thank Archbishop Paglia for his kind words. I am grateful too for the presence of the President of the European Parliament, the FAO Director-General and the other authorities and leaders in field of information technology. I also greet those who join us from the Conciliazione Auditorium. And I am heartened by the numerous presence of young people: I see this as a sign of hope.

    The issues you have addressed in these days concern one of the most important changes affecting today’s world. Indeed, we could say that the digital galaxy, and specifically artificial intelligence, is at the very heart of the epochal change we are experiencing. Digital innovation touches every aspect of our lives, both personal and social. It affects our way of understanding the world and ourselves. It is increasingly present in human activity and even in human decisions, and is thus altering the way we think and act. Decisions, even the most important decisions, as for example in the medical, economic or social fields, are now the result of human will and a series of algorithmic inputs. A personal act is now the point of convergence between an input that is truly human and an automatic calculus, with the result that it becomes increasingly complicated to understand its object, foresee its effects and define the contribution of each factor.

    To be sure, humanity has already experienced profound upheavals in its history: for example, the introduction of the steam engine, or electricity, or the invention of printing which revolutionized the way we store and transmit information. At present, the convergence between different scientific and technological fields of knowledge is expanding and allows for interventions on phenomena of infinitesimal magnitude and planetary scope, to the point of blurring boundaries that hitherto were considered clearly distinguishable: for example, between inorganic and organic matter, between the real and the virtual, between stable identities and events in constant interconnection.

    On the personal level, the digital age is changing our perception of space, of time and of the body. It is instilling a sense of unlimited possibilities, even as standardization is becoming more and more the main criterion of aggregation. It has become increasingly difficult to recognize and appreciate differences. On the socio-economic level, users are often reduced to “consumers”, prey to private interests concentrated in the hands of a few. From digital traces scattered on the internet, algorithms now extract data that enable mental and relational habits to be controlled, for commercial or political ends, frequently without our knowledge. This asymmetry, by which a select few know everything about us while we know nothing about them, dulls critical thought and the conscious exercise of freedom. Inequalities expand enormously; knowledge and wealth accumulate in a few hands with grave risks for democratic societies. Yet these dangers must not detract from the immense potential that new technologies offer. We find ourselves before a gift from God, a resource that can bear good fruits.

    The issues with which your Academy has been concerned since its inception present themselves today in a new way. The biological sciences are increasingly employing devices provided by artificial intelligence. This development has led to profound changes in our way of understanding and managing living beings and the distinctive features of human life, which we are committed to safeguarding and promoting, not only in its constitutive biological dimension, but also in its irreducible biographical aspect. The correlation and integration between life that is “lived” and life that is “experienced” cannot be dismissed in favour of a simple ideological calculation of functional performance and sustainable costs. The ethical problems that emerge from the ways that these new devices can regulate the birth and destiny of individuals call for a renewed commitment to preserve the human quality of our shared history.

    For this reason, I am grateful to the Pontifical Academy for Life for its efforts to develop a serious reflection that has fostered dialogue between the different scientific disciplines indispensable for addressing these complex phenomena.

    I am pleased that this year’s meeting includes individuals with various important roles of responsibility internationally in the areas of science, industry and political life. I am gratified by this and I thank you. As believers, we have no ready-made ideas about how to respond to the unforeseen questions that history sets before us today. Our task is rather one of walking alongside others, listening attentively and seeking to link experience and reflection. As believers, we ought to allow ourselves to be challenged, so that the word of God and our faith tradition can help us interpret the phenomena of our world and identify paths of humanization, and thus of loving evangelization, that we can travel together. In this way we will be able to dialogue fruitfully with all those committed to human development, while keeping at the centre of knowledge and social praxis the human person in all his or her dimensions, including the spiritual. We are faced with a task involving the human family as a whole.

    In light of this, mere training in the correct use of new technologies will not prove sufficient. As instruments or tools, these are not “neutral”, for, as we have seen, they shape the world and engage consciences on the level of values. We need a broader educational effort. Solid reasons need to be developed to promote perseverance in the pursuit of the common good, even when no immediate advantage is apparent. There is a political dimension to the production and use of artificial intelligence, which has to do with more than the expanding of its individual and purely functional benefits. In other words, it is not enough simply to trust in the moral sense of researchers and developers of devices and algorithms. There is a need to create intermediate social bodies that can incorporate and express the ethical sensibilities of users and educators.

    There are many disciplines involved in the process of developing technological equipment (one thinks of research, planning, production, distribution, individual and collective use…), and each entails a specific area of responsibility. We are beginning to glimpse a new discipline that we might call “the ethical development of algorithms” or more simply “algor-ethics” (cf. Address to Participants in the Congress on Child Dignity in the Digital World, 14 November 2019). This would have as its aim ensuring a competent and shared review of the processes by which we integrate relationships between human beings and today’s technology. In our common pursuit of these goals, a critical contribution can be made by the principles of the Church’s social teaching: the dignity of the person, justice, subsidiarity and solidarity. These are expressions of our commitment to be at the service of every individual in his or her integrity and of all people, without discrimination or exclusion. The complexity of the technological world demands of us an increasingly clear ethical framework, so as to make this commitment truly effective.

    The ethical development of algorithms – algor-ethics – can be a bridge enabling those principles to enter concretely into digital technologies through an effective cross-disciplinary dialogue. Moreover, in the encounter between different visions of the world, human rights represent an important point of convergence in the search for common ground. At present, there would seem to be a need for renewed reflection on rights and duties in this area. The scope and acceleration of the transformations of the digital era have in fact raised unforeseen problems and situations that challenge our individual and collective ethos. To be sure, the Call that you have signed today is an important step in this direction, with its three fundamental coordinates along which to journey: ethics, education and law.

    Dear friends, I express my support for the generosity and energy with which you have committed yourselves to launching this courageous and challenging process of reassessment. I invite you to continue with boldness and discernment, as you seek ways to increase the involvement of all those who have the good of the human family at heart. Upon all of you, I invoke God’s blessings, so that your journey can continue with serenity and peace, in a spirit of cooperation. May the Blessed Virgin assist you. I accompany you with my blessing. And I ask you please to remember me in your prayers. Thank you.

    #Surveillance #Reconnaissance_faciale #Intelligence_Artificielle #Pape_François

  • Vatican joins IBM, Microsoft to call for facial recognition regulation - Reuters
    https://www.reuters.com/article/us-vatican-artificial-intelligence/vatican-joins-ibm-microsoft-to-call-for-facial-recognition-regulation-idUSK
    https://s1.reutersmedia.net/resources/r/?m=02&d=20200228&t=2&i=1496434448&w=1200&r=LYNXNPEG1R0LA

    VATICAN CITY (Reuters) - The Vatican joined forces with tech giants Microsoft and IBM on Friday to promote the ethical development of artificial intelligence (AI) and call for regulation of intrusive technologies such as facial recognition.
    FILE PHOTO: Pope Francis waves during the weekly general audience at Vatican, February 26, 2020. REUTERS/Remo Casilli

    The three said AI should respect privacy, work reliably and without bias, consider human rights and operate transparently.

    Pope Francis, who has raised concerns about the uncontrolled spread of AI technologies, gave his backing in a speech read on his behalf at a conference attended by Microsoft president Brad Smith (MSFT.O) and IBM (IBM.N) Executive Vice President John Kelly. The pope is ill and could not deliver the address himself.

    Calling for the ethical development of algorithms, known as “algor-ethics”, Francis warned about the dangers of AI being used to extract data for commercial or political ends, often without the knowledge of individuals.

    “This asymmetry, by which a select few know everything about us while we know nothing about them, dulls critical thought and the conscious exercise of freedom,” he said in his message.

    “Inequalities expand enormously; knowledge and wealth accumulate in a few hands with grave risks for democratic societies,” he said.

    The joint document made a specific reference to the potential abuse of facial recognition technology.

    “New forms of regulation must be encouraged to promote transparency and compliance with ethical principles, especially for advanced technologies that have a higher risk of impacting human rights, such as facial recognition,” the document said.

    #Surveillance #Reconnaissance_faciale #Intelligence_Artificielle #Pape_François