• Facial recognition technology scrapped at #King's_Cross site

    #Surveillance software switched off at prestigious development after backlash.

    Facial recognition technology will not be deployed at the King’s Cross development in the future, following a backlash prompted by the site owner’s admission last month that the software had been used in its #CCTV systems.

    The developer behind the prestigious central London site said the surveillance software had been used between May 2016 and March 2018 in two cameras on a busy pedestrian street running through its heart.

    It said it had abandoned plans for a wider deployment across the 67-acre, 50-building site and had “no plans to reintroduce any form of facial recognition technology at the King’s Cross Estate”.

    The site became embroiled in the debate about the ethics of facial recognition three weeks ago after releasing a short statement saying its cameras “use a number of detection and tracking methods, including facial recognition”.

    That made it one of the first landowners to acknowledge it was deploying the software, described by human rights groups as authoritarian, partly because it captures and analyses images of people without their consent.

    Despite a series of questions about the scheme from the Information Commissioner’s Office, the London mayor, Sadiq Khan, and expert academics, King’s Cross had offered no further comment until Monday.

    Daragh Murray, a senior lecturer in human rights law at the University of Essex, said it was reassuring that the developer had abandoned the technology “in the light of the public outcry”, but he added: “This also serves to highlight the lack of transparency. We still don’t really know what they were doing with the technology and how they were able to get away with using it for so long without the public knowing.”

    Cameras using the software have been used by police forces and landlords to scan faces in streets, shopping centres, football stadiums and events such as the Notting Hill carnival. Images harvested can then be compared to a database of persons of interest.

    The use of facial recognition software by police in south Wales is being challenged in the courts by an office worker in Cardiff in a test case backed by the Liberty campaign group. The result is keenly anticipated by regulators and across the industry.

    A trial of facial recognition software last year at the Trafford Centre in Greater Manchester was halted because visitors were being checked against a set of 30 suspects and missing persons provided by the police. Concerns were raised that the trial monitored too many ordinary people.

    The technology’s accuracy is also unproven. Researchers at the University of Essex were invited by the Metropolitan police to study the force’s trials of its facial recognition software and concluded that it could be sure the right person had been identified in only 19% of the 42 cases studied.

    On Monday, King’s Cross argued that the use of facial recognition software was more limited than its initial statement may have suggested. The two cameras, operational between 2016 and 2018, were sited on the busy King’s Boulevard, used by pedestrians and cyclists.

    They were used to help the police in detecting crime and “ultimately to help ensure public safety”, its statement said. Any data processed was regularly deleted and the final deletion took place in March 2018, it added.

    However, the developer appeared to hold out the possibility of using the technology in the future, saying “we note the broad debate now under way” and adding that its pledge not to reintroduce facial recognition technology applied “in the meantime”.

    King’s Cross is owned by a consortium of property developer Argent, Hermes Investment Management on behalf of BT Pensioners, and the Australian pension scheme AustralianSuper.

    The site, mostly to the north of the mainline railway station, includes the headquarters of Google and the Central Saint Martins art school. The Guardian is sited on the fringe of the development.

    https://www.theguardian.com/technology/2019/sep/02/facial-recognition-technology-scrapped-at-kings-cross-development

    #réconnaissance_faciale

    ping @etraces

  • La reconnaissance faciale pour s’identifier en ligne inquiète les défenseurs des libertés numériques
    https://www.lemonde.fr/societe/article/2019/07/27/la-reconnaissance-faciale-pour-s-identifier-en-ligne-inquiete-les-defenseurs

    Scanner la puce de son passeport biométrique à l’aide de son téléphone et prendre une vidéo de soi pour créer son compte et pouvoir accéder à des services administratifs en ligne : c’est le principe de l’application « Authentification en ligne certifiée sur mobile », surnommée « AliceM ». Ce système, présenté comme très sécurisé par le ministère de l’intérieur et utilisable uniquement sur Android, devrait permettre de s’authentifier sur les sites liés au portail d’accès FranceConnect : celui des impôts, de la Sécurité sociale…

    Mais AliceM, qui est encore en phase de test, suscite des interrogations et des inquiétudes, venant notamment des défenseurs des libertés numériques.

    Le 15 juillet, l’association spécialisée La Quadrature du Net a déposé un recours devant le Conseil d’Etat pour annuler le décret du 13 mai autorisant le dispositif. Elle dénonce un traitement intrusif de données biométriques « ayant pour objectif avoué d’identifier chaque personne sur Internet pour ne plus laisser aucune place à l’anonymat ».

    En mai, à l’occasion de la publication du rapport « Etat de la menace liée au numérique en 2019 », le locataire de Beauvau, Christophe Castaner, affirmait vouloir que « chaque Français, dès 2020, puisse prouver son identité » en ligne pour, notamment, « bâtir la sécurité du XXIe siècle » et lutter contre les contenus haineux sur Internet. Il affirmait à cette occasion qu’AliceM constituait l’un des « prémices d’une politique publique de l’identité numérique ».

    Dans le recours qu’elle a déposé, La Quadrature du Net centre son argumentaire sur le caractère obligatoire de la reconnaissance faciale dans le fonctionnement de l’application.

    Dès octobre 2018, dans un avis portant sur le projet de décret visant à autoriser AliceM, la Commission nationale de l’informatique et des libertés (CNIL) émettait aussi des doutes sur ce point et proposait des alternatives, comme un face-à-face en préfecture. « En l’espèce, le refus du traitement des données biométriques fait obstacle à l’activation du compte, et prive de portée le consentement initial à la création du compte », écrivait-elle, rappelant les exigences du Règlement général sur la protection des données (RGPD) en la matière.

    #Reconnaissance_faciale #Identité_numérique #Surveillance

  • Facial Recognition Tech Is Growing Stronger, Thanks to Your Face
    https://www.nytimes.com/2019/07/13/technology/databases-faces-facial-recognition-technology.html

    Dozens of databases of people’s faces are being compiled without their knowledge by companies and researchers, with many of the images then being shared around the world, in what has become a vast ecosystem fueling the spread of facial recognition technology.

    (...)

    Documents released last Sunday revealed that Immigration and Customs Enforcement officials employed facial recognition technology to scan motorists’ photos to identify undocumented immigrants. The F.B.I. also spent more than a decade using such systems to compare driver’s license and visa photos against the faces of suspected criminals, according to a Government Accountability Office report last month. On Wednesday, a congressional hearing tackled the government’s use of the technology.

    (...)

    One database, which dates to 2014, was put together by researchers at Stanford. It was called Brainwash, after a San Francisco cafe of the same name, where the researchers tapped into a camera. Over three days, the camera took more than 10,000 images, which went into the database, the researchers wrote in a 2015 paper. The paper did not address whether cafe patrons knew their images were being taken and used for research. (The cafe has closed.)

    The Stanford researchers then shared "Brainwash. According to research papers, it was used in China by academics associated with the National University of Defense Technology and Megvii, an artificial intelligence company that The New York Times previously reported has provided surveillance technology for monitoring Uighurs.

    #face_recognition #databases #bases_de_données #reconnaissance_faciale #msceleb #dataset

    Dataset created “in the wild”
    https://megapixels.cc/datasets

    https://megapixels.cc/datasets/msceleb

    End-to-end people detection in crowded scenes
    https://arxiv.org/pdf/1506.04878.pdf

  • Facial Recognition Tech Is Growing Stronger, Thanks to Your Face - The New York Times
    https://www.nytimes.com/2019/07/13/technology/databases-faces-facial-recognition-technology.html

    Dozens of databases of people’s faces are being compiled without their knowledge by companies and researchers, with many of the images then being shared around the world, in what has become a vast ecosystem fueling the spread of facial recognition technology.

    #reconnaissance_faciale #Google #Stanford #Microsoft #facebook #données

    • Comme tu dis !
      https://www.rt.com/news/464109-porn-co2-emissions-report
      A new study brings a whole new meaning to the term ‘dirty movie’, as online porn has been found to be responsible for 100 million tons of carbon dioxide emissions a year.

      The Shift Project’s ‘Climate crisis: The unsustainable use of online video’ report found that a third of all videos viewed online are porn, and that watching online adult entertainment emits just under 100 million tons of CO2 emissions. The emissions generated in 2018 were of the same “magnitude as that of the residential sector in France,” the report found.

  • Democrats and Republicans Passing Soft Regulations - The Atlantic
    https://www.theatlantic.com/technology/archive/2019/06/democrats-and-republicans-passing-soft-regulations/592558

    Your face is no longer just your face—it’s been augmented. At a football game, your face is currency, used to buy food at the stadium. At the mall, it is a ledger, used to alert salespeople to your past purchases, both online and offline, and shopping preferences. At a protest, it is your arrest history. At the morgue, it is how authorities will identify your body.

    Facial-recognition technology stands to transform social life, tracking our every move for companies, law enforcement, and anyone else with the right tools. Lawmakers are weighing the risks versus rewards, with a recent wave of proposed regulation in Washington State, Massachusetts, Oakland, and the U.S. legislature. In May, Republicans and Democrats in the House Committee on Oversight and Reform heard hours of testimony about how unregulated facial recognition already tracks protesters, impacts the criminal-justice system, and exacerbates racial biases. Surprisingly, they agreed to work together to regulate it.

    The Microsoft president Brad Smith called for governments “to start adopting laws to regulate this technology” last year, while the Amazon Web Services CEO Andy Jassy echoed those comments in June, likening the technology to a knife. It’s a less dramatic image than the plutonium and nuclear-waste metaphors critics employ, but his message—coming from an executive at one of the world’s most powerful facial-recognition technology outfits—is clear: This stuff is dangerous.

    But crucially, Jassy and Smith seem to argue, it’s also inevitable. In calling for regulation, Microsoft and Amazon have pulled a neat trick: Instead of making the debate about whether facial recognition should be widely adopted, they’ve made it about how such adoption would work.

    Without regulation, the potential for misuse of facial-recognition technology is high, particularly for people of color. In 2016 the MIT researcher Joy Buolamwini published research showing that tech performs better on lighter-skinned men than on darker-skinned men, and performs worst on darker-skinned women. When the ACLU matched Congress members against a criminal database, Amazon’s Rekognition software misidentified black Congress members more often than white ones, despite there being far fewer black members.

    This includes House Chairman Elijah Cummings, a Baltimore native whose face was also scanned when he attended a 2015 rally in memory of Freddie Gray, the unarmed black teenager who died of a spinal-cord injury while in police custody. The Baltimore Police Department used facial recognition to identify protesters and target any with outstanding warrants. Most of the protesters were black, meaning the software used on them might have been less accurate, increasing the likelihood of misidentification. Expert witnesses at the committee hearing in May warned of a chilling effect: Protesters, wary of being identified via facial recognition and matched against criminal databases, could choose to stay home rather than exercise their freedom of assembly.

    Microsoft and Amazon both claim to have lessened the racial disparity in accuracy since the original MIT study and the ACLU’s report. But fine-tuning the technology to better recognize black faces is only part of the process: Perfectly accurate technology could still be used to support harmful policing, which affects people of color. The racial-accuracy problem is a distraction; how the technology is used matters, and that’s where policy could prevent abuse. And the solution Microsoft and Amazon propose would require auditing face recognition for racial and gender biases after they’re already in use—which might be too late.

    In early May, The Washington Post reported that police were feeding forensic sketches to their facial-recognition software. A witness described a suspect to a sketch artist, then police uploaded the sketch to Amazon’s Rekognition, looking for hits, and eventually arrested someone. Experts at the congressional hearing in May were shocked that a sketch submitted to a database could credibly qualify as enough reasonable suspicion to arrest someone.

    Read: Half of American adults are in police facial-recognition databases

    But Jassy, the Amazon Web Services CEO, claimed that Amazon has never received a report of police misuse. In May, Amazon shareholders voted down a proposal that would ban the sale of Rekognition to police, and halt sales to law enforcement and ICE. Jassy said that police should only rely on Rekognition results when the system is 99 percent confident in the accuracy of a match. This is a potentially critical safeguard against misidentification, but it’s just a suggestion: Amazon doesn’t require police to adhere to this threshold, or even ask. In January, Gizmodo quoted an Oregon sheriff’s official saying his department ignores thresholds completely. (“There has never been a single reported complaint from the public and no issues with the local constituency around their use of Rekognition,” a representative from Amazon said, in part, in a statement to Gizmodo.)

    #Reconnaissance_faciale #Libertés #Espace_public #Etat_policier

  • Nouvelles #caméras et système de #reconnaissance_faciale à la frontière entre le #Maroc et #Ceuta

    Le système de sécurité à la frontière entre le Maroc et Ceuta se modernise. De nouvelles caméras de surveillance ont été installées dans l’enclave espagnole et un système de reconnaissance faciale devrait bientôt être mis en place, bien qu’aucune date de mise en route n’ait été communiquée par l’Espagne.

    Le ministère espagnol de l’Intérieur a ainsi récemment mis à jour le système de surveillance vidéo dans tout le périmètre de la frontière de Ceuta. 41 caméras #DOMOS et 11 caméras fixes ont été remplacées et 14 nouvelles #caméras_techniques et une plateforme plus moderne de contrôle du système de #vidéosurveillance ont été installées, rapporte El Confidencial (https://www.elconfidencial.com/espana/andalucia/2019-06-09/frontera-ceuta-marruecos-concertinas_2061042). La plupart des caméras dataient du milieu des années 90 et étaient déjà obsolètes, souligne le quotidien espagnol.

    L’une des autres mesures phares annoncées par l’Intérieur est le système de reconnaissance faciale qui sera lancé non seulement à la frontière entre Ceuta et le Maroc, mais également à Melilla, rappelle la même source. L’objectif est de réduire les temps de contrôle aux frontières et d’accroître la sécurité là où des milliers de personnes passent chaque jour.

    Pour la déléguée du gouvernement de Ceuta, Salvadora Mateos, il s’agit de créer une véritable “frontière intelligente”, indique Ceuta TV, à même de “relever les défis du XXIe siècle”, à savoir la hausse de l’immigration illégale.

    Le ministre espagnol de l’Intérieur Fernando Grande Marlaska avait également annoncé en février que les lames et fils barbelés installés en haut de la barrière frontalière (les “concertinas”) seraient bientôt enlevés et la barrière rehaussée.

    Des mesures qui ne sont toujours pas effectives alors que du côté marocain, de nouvelles lames ont été installées pour rendre plus difficile l’accès des migrants à la partie espagnole du périmètre, souligne Ceuta TV.

    “Cela fait partie d’un projet de renforcement des dispositifs marocains en Méditerranée sur 1.000 kilomètres. C’est le résultat d’une analyse qui a débuté en 2016, lorsque nous avions identifié certaines améliorations et que nous les intégrons maintenant”, a déclaré le directeur de l’immigration et de la surveillance des frontières du ministère marocain de l’Intérieur, Khalid Zerouali, rapporte El Confidencial.

    Selon le journal, le ministère espagnol de l’Intérieur attend la fin de l’installation de ces “concertinas” du côté marocain pour enlever celles du côté espagnol.

    https://www.huffpostmaghreb.com/entry/nouvelles-cameras-et-systeme-de-reconnaissance-faciale-a-la-frontie
    #Espagne #frontières #militarisation_des_frontières #surveillance #asile #migrations #réfugiés

    • Spanish-Moroccan borders upgraded with new cameras, facial recognition and a barbed wire ’swap’

      The Spanish government is seeking a 50% reduction in illegal immigration and to achieve this goal is deploying new surveillance cameras and facial recognition technology at its borders with Morocco in Ceuta and Melilla. The Spanish government also plans to remove the barbed wire fences at those borders - but the Moroccan government is constructing its own.

      New surveillance technology

      The Spanish interior ministry has updated the #CCTV system at the border between the enclave of Ceuta and Morocco, replacing 52 cameras (mainly dating from the mid-90s) with 14 new ones, backed up by a new control system.

      Facial recognition technology will also be deployed, not only at Ceuta’s border with Morocco, but also at that with the enclave of Melilla. The stated objective is to reduce the time taken to conduct border checks and to increase security at crossings used by thousands of people daily.

      It is not clear how exactly the facial recognition system will be used - for example, while the technology could be used to compare an individual’s face against the image stored in their passport (a ’one-to-one’ match), it may also be possible to scan faces in a crowd against police databases.

      Barbed wire: out and in

      In the summer of 2018 the announcement from the Spanish interior ministry that the barbed wire between Spain’s enclaves and Morocco would be removed was welcomed by many as a positive development.

      However, on the other side of the border, Morocco is installing its own barbed wire fencing, which according to El Confidencial has its origins in an agreement between the EU and Morocco through which Brussels will provide €140 million for migration control.

      The Spanish government has denied any relationship between the developments, but it plans to wait until the Moroccan fence is installed before removing its own - it is “a question of borders and borders are between two countries,” said Fernando Grande-Marlaska, the interior minister, in June.

      It is not clear from where Morocco has purchased the new fencing, which is made up of two-metre-high layers of barbed wire stacked on top of one another and surrounds the eight kilometres of wall surrounding Ceuta.

      However, the Malaga-based European Security Fencing would be an obvious choice - as well as being the supplier of the fence Spain now plans to remove, it has supplied its galvanised steel, razor-tipped products to Hungary, Denmark and is expanding into the Arabian Gulf.

      Secret agreements

      The push for new border control measures between Spain and Morocco does not only involve infrastructure - the two countries signed bilateral agreements on the control and return of irregular migrants in February this year.

      The Andalusian Association for Human Rights (APDHA) requested access to them from the European Commission, which refused, arguing that “the guarantee of confidentiality is essential for the complex operation to succeed, the objective of which is to guarantee the interests and values of the EU”.

      Intensive training has also been provided to Moroccan military, and the EU has equipped the state with search and rescue equipment. On top of the 140 million given by the EU to Morocco to “combat illegal immigration” Spain is the state’s third largest foreign investor, with the Morocco-Spain Economic Forum held to encourage partnership and investment projects. These collaborative measures share the objectives of ensuring the control, detention and return of people trying to make irregular border crossings.

      At the start of March this year, Grande-Marlaska credited cooperation between Spain, the EU and Morocco as a fundamental factor in the reduction in recorded entries to Spain, where 10,475 people had arrived by boat by July this year, compared to 14,426 in the same period of 2018.

      http://www.statewatch.org/news/2019/sep/es-mo-borders-tech.htm
      #reconnaissance_faciale #surveillance #caméras_de_vidéosurveillance #vidéosurveillance

      ping @reka @etraces @isskein

  • Facial recognition tech is arsenic in the water of democracy, says Liberty
    https://www.theguardian.com/technology/2019/jun/07/facial-recognition-technology-liberty-says-england-wales-police-use-sho

    Human rights group calls on England and Wales to ban police use of AFR in public spaces Automated facial recognition poses one of the greatest threats to individual freedom and should be banned from use in public spaces, according to the director of the campaign group Liberty. Martha Spurrier, a human rights lawyer, said the technology had such fundamental problems that, despite police enthusiasm for the equipment, its use on the streets should not be permitted. She said : “I don’t think (...)

    #CCTV #biométrie #facial #vidéo-surveillance #surveillance #Islam

    https://i.guim.co.uk/img/media/8e6e98b9bdc1c7e71fbcc4fc0b52022b9c2b43d4/0_312_5138_3082/master/5138.jpg

  • Reconnaissance faciale et pornographie : la dystopie en embuscade
    https://www.konbini.com/fr/techetinnovation/reconnaissance-faciale-et-pornographie-la-dystopie-en-embuscade

    Demain, le « World Wide Face »

    Ce qui importe, dans cette histoire, n’est pas tant que ce programmeur anonyme et son algorithme soient réels ou non. Ce qui importe, c’est qu’aujourd’hui, la démocratisation des algorithmes de machine learning (particulièrement dans le domaine de la reconnaissance faciale), l’augmentation de la puissance des processeurs, la chute du coût de la mémoire et les incommensurables volumes de données personnelles que nous dispersons à chaque minute passée en ligne permettent théoriquement à une petite équipe, dotée de quelques connaissances en programmation, de développer un tel système en quelques mois, depuis une chambre. L’idée qu’un type développe dans son coin un système aussi nuisible est plausible (un service similaire existe déjà d’ailleurs, au moins).

    En 2016, déjà, le Guardian s’inquiétait du succès d’une application mobile de reconnaissance faciale russe, FindFace, qui annonçait « la fin de l’anonymat public ». Depuis, d’autres algorithmes sont disponibles. Plus puissants, mieux entraînés. Face à ce constat, la seule chose raisonnable à faire serait de sortir la tête du guidon de l’innovation et de réfléchir. Réfléchir sur la montée en gamme de la biométrie et la reconnaissance faciale massive automatisée et ce qu’elle signifie pour la vie privée, l’anonymat et le consentement. Sur son invasion lente mais progressive de tous les secteurs de notre vie, du trottoir à l’aéroport en passant par la salle de classe. Sur la création, ici et là, de réservoirs à données biométriques géants, malgré les risques de sécurité que la centralisation de données sensibles implique.

    Il faut tenter d’anticiper, comme l’a magistralement fait Olivier Ertzscheid (auteur du blog affordance.info) le 3 juin, les scénarios catastrophe d’une société où le visage s’installe au centre des processus régaliens (police et justice, notamment) en même temps qu’il devient monnaie d’échange et de spéculation au sein du capitalisme de surveillance. « Bienvenue dans le World Wide Face », écrit Ertzscheid, ce nouveau paradigme biométrique qui nous ferait regretter le bon vieux temps des données impersonnelles.

    Rappelons quelques évidences. La reconnaissance faciale, outil statistique, génère des faux positifs à la chaîne (au Royaume-Uni, on frôle les 100 % d’erreur pendant les tests). La reconnaissance faciale, parfois entraînée sur des données biaisées, discrimine des populations déjà marginalisées (on se souviendra que les systèmes de Google avaient pour péché mignon, courant 2015, de confondre les Noirs avec des gorilles). Parfaite, elle serait implacable ; imparfaite, heureusement, elle n’est que terrifiante.

    Imaginez les conséquences d’un faux positif de l’algorithme d’identification d’actrices porno pour une femme lambda, qui ressemblerait un peu trop à l’une d’elles aux yeux des machines. Imaginez son compte Facebook ou Instagram lié par la myopie algorithmique à un profil Pornhub. Rappelez-vous qu’on ne négocie pas avec une fonction mathématique, même si celle-ci vous pourrit la vie par erreur. « Toute identification, martèle Ertzscheid, est d’abord une désignation. » Et toute désignation porte en soi la promesse de la stigmatisation. Que vous soyez identifié correctement ou pas importe peu, une fois que le sceau est apposé.

    Vendue comme utopie d’une police incontestable (car forcément neutre, transparente et dépassionnée), la reconnaissance faciale automatisée n’est rien de tout cela. Elle est un outil au service d’un projet politique obsédé par la surveillance, le suivi, le triage. Elle n’a rien d’inévitable, encore moins d’urgent (la mairie de San Francisco vient tout simplement de l’interdire) dès lors que l’on s’intéresse davantage à ses dérives qu’à ses bénéfices. La tête dans le guidon du progrès technique, nous risquerions de ne pas voir venir le précipice.

    #Reconnaissance_faciale #Porno #Culture_du_viol #Revenge_porn #Programmeurs_tarés

  • The guy who made a tool to track women in porn videos is sorry - MIT Technology Review
    https://www.technologyreview.com/s/613607/facial-recognition-porn-database-privacy-gdpr-data-collection-poli

    An anonymous programmer based in Germany caused outrage this week for supposedly using face-recognition technology to “catch” women who had appeared in porn. He says he’s since deleted the project and all its data, but that’s not an act of altruism. Such a project would have violated European privacy law anyway, though it would have been okay elsewhere.

    There is still no proof that the global system—which allegedly matched women’s social-media photos with images from sites like Pornhub—actually worked, or even existed. Still, the technology is possible and would have had awful consequences. “It’s going to kill people,” says Carrie A. Goldberg, an attorney who specializes in sexual privacy violations and author of the forthcoming book Nobody’s Victim: Fighting Psychos, Stalkers, Pervs, and Trolls. “Some of my most viciously harassed clients have been people who did porn, oftentimes one time in their life and sometimes nonconsensually [because] they were duped into it. Their lives have been ruined because there’s this whole culture of incels that for a hobby expose women who’ve done porn and post about them online and dox them.” (Incels, or “involuntary celibates,” are a misogynistic online subculture of men who claim they are denied sex by women.)

    The European Union’s GDPR privacy law prevents this kind of situation. Though the programmer—who posted about the project on the Chinese social network Weibo—originally insisted everything was fine because he didn’t make the information public, just collecting the data is illegal if the women didn’t consent, according to Börge Seeger, a data protection expert and partner at German law firm Neuwerk. These laws apply to any information from EU residents, so they would have held even if the programmer weren’t living in the EU.

    Under GDPR, personal data (and especially sensitive biometric data) needs to be collected for specific and legitimate purposes. Scraping data to figure out if someone once appeared in porn is not that. And if the programmer had charged money to access this information, he could have faced up to three years in prison under German criminal law, adds Seeger.

    Et toujours cette logique de l’excuse qui semble Zurkerbériser un grand nombre de programmeurs.

    Reached last night via Weibo, the programmer (who did not give his real name) insisted that the technology was real, but acknowledged that it raised legal issues. He’s sorry to have caused trouble. But he’s not the only one able to build this technology, or the only one interested in using it for dangerous purposes. Policymakers concerned with global privacy law need to start thinking ahead.

    #Reconnaissance_faciale #Données_provées #Porno

  • (13) L’empire du signal, ou les dangers d’un contrôle social par les corps - Libération
    https://www.liberation.fr/debats/2019/04/24/l-empire-du-signal-ou-les-dangers-d-un-controle-social-par-les-corps_1723

    Avec la reconnaissance faciale, une nouvelle forme de gouvernementalité se met en place, où des plateformes privées collaborent avec les dispositifs publics de sécurité. Un tel déploiement technologique dans notre quotidien, une telle capture de nos visages et de nos traits constituent un redoutable pallier vers une surveillance généralisée.

    Mais réguler un tel déploiement s’annonce complexe. Car les usages de reconnaissance faciale proposés sont multiformes, à la fois commerciaux, publicitaires, sécuritaires, sanitaires ou éducatifs. Le privé et le public, le divertissement et le punitif s’entremêlent sans que l’on ne puisse y voir clair. Un thème récurrent est largement mobilisé pour justifier l’usage de ces technologies de surveillance biométrique : la sécurité. Et c’est toujours au nom du Bien qu’elle se voit matérialisée.

    De façon assez inédite, la plupart des technologies de surveillance publique, à l’instar de la reconnaissance faciale, ont d’abord été élaborées et diffusées à des fins commerciales par des géants numériques de la publicité et de la recommandation . La reconnaissance faciale, dont on ne sait plus très bien si elle est proposée à des fins commerciales ou sécuritaires, a été banalisée par la domotique, et amplement développée avec les smartphones ou les réseaux sociaux, pour un confort d’utilisation et une expérience client toujours plus forte. En procédant par pseudomorphisme, l’omniprésence de technologies d’identification qui servent à un moment donné une entreprise de quadrillage techno-sécuritaire du territoire semble aller de soi.

    Parmi l’ensemble des signatures biométriques potentiellement disponibles (empreintes digitales, scan de l’iris, voix, numérisation des veines de la paume), la reconnaissance faciale reste à ce jour la référence en matière de mesures biométriques par sa facilité de mise en œuvre et de déploiement.

    On ne se contentera bientôt plus d’espaces clos, l’enfermement sera en nous. Enfermés en nous-mêmes. Il serait alors risqué de dévier de la norme sociale, de bafouer les interdits ou de mettre en cause l’ordre établi au risque que les caméras, lunettes et autres drones de reconnaissance ne nous identifient comme suspects.

    La responsabilité de l’Etat est ici considérable. Passé d’Etat de droit à Etat de l’ultrasécurité, inquiet pour sa propre survie et par conséquent boulimique de données de surveillance, il semble moins se préoccuper de fabriquer des libertés par la loi dans un cadre de surveillance bienveillant que d’industrialiser, de concert avec les acteurs privés compétents. Ainsi assistons-nous à une marchandisation de la souveraineté territoriale.

    Il s’agit de trouver le juste équilibre entre la nécessaire sécurisation du territoire et le respect des libertés fondamentales. Et le glissement conceptuel de la Smart City à la Safe City actuellement à l’œuvre pose la question fondamentale de nos libertés, du droit à évoluer dans l’espace public sans être identifié. Surtout, quels contre-pouvoirs, quels recours mettre en place face à des dispositifs algorithmiques intangibles ?

    #Surveillance #Reconnaissance_faciale #Public_Privé

  • La généralisation de la #reconnaissance_faciale est-elle inévitable ?
    http://www.internetactu.net/a-lire-ailleurs/la-generalisation-de-la-reconnaissance-faciale-est-elle-inevitable

    Le philosophe Evan Selinger (@evanselinger, auteur de Re-Engineering Humanity) et le professeur de droit Woodrow Hartzog (@hartzog, auteur de Privacy’s Blueprint : The Battle to Control the Design of New Technologies) signent pour OneZero une intéressante tribune sur la nécessité de réguler la reconnaissance faciale. Il y a peu, l’AI Now (...)

    #A_lire_ailleurs #Enjeux #liberté #surveillance #vidéosurveillance

  • #Reconnaissance_faciale : un recours pour faire barrage à la #surveillance biométrique

    Quatre organisations – La Quadrature du Net, la Ligue des droits de l’Homme, CGT Educ’Action des Alpes-Maritimes et la Fédération des Conseils de Parents d’Élèves des écoles publiques des #Alpes-Maritimes – viennent de déposer un #recours devant le #tribunal_administratif de Marseille pour demander l’annulation de la délibération du conseil régional autorisant la mise en œuvre d’une #expérimentation de reconnaissance faciale dans deux lycées de la région.

    https://www.laquadrature.net/2019/02/19/reconnaissance-faciale-un-recours-pour-faire-barrage-a-la-surveillance
    #biométrie #lycées #France #éducation #école

  • Le monde selon #Xi_Jinping

    Depuis 2012, le désormais « président à vie » Xi Jinping a concentré tous les pouvoirs sur sa personne, avec l’obsession de faire de la #Chine la superpuissance du XXIe siècle. Plongée au coeur de son « rêve chinois ».

    Derrière son apparente bonhomie se cache un chef redoutable, prêt à tout pour faire de la Chine la première puissance mondiale, d’ici au centenaire de la République populaire, en 2049. En mars dernier, à l’issue de vastes purges, Xi Jinping modifie la Constitution et s’intronise « président à vie ». Une concentration des pouvoirs sans précédent depuis la fin de l’ère maoïste. Né en 1953, ce fils d’un proche de Mao Zedong révoqué pour « complot antiparti » choisit à l’adolescence, en pleine tourmente de la Révolution culturelle, un exil volontaire à la campagne, comme pour racheter la déchéance paternelle. Revendiquant une fidélité aveugle au Parti, il gravira en apparatchik « plus rouge que rouge » tous les degrés du pouvoir.
    Depuis son accession au secrétariat général du Parti en 2012, puis à la présidence l’année suivante, les autocritiques d’opposants ont réapparu, par le biais de confessions télévisées. Et on met à l’essai un système de surveillance généralisée censé faire le tri entre les bons et les mauvais citoyens. Inflexible sur le plan intérieur, Xi Jinping s’est donné comme objectif de supplanter l’Occident à la tête d’un nouvel ordre mondial. Son projet des « routes de la soie » a ainsi considérablement étendu le réseau des infrastructures chinoises à l’échelle planétaire. Cet expansionnisme stratégique, jusque-là développé en silence, inquiète de plus en plus l’Europe et les États-Unis.

    Impériale revanche
    Dans ce portrait très documenté du leader chinois, Sophie Lepault et Romain Franklin donnent un aperçu inédit de sa politique et montrent que l’itinéraire de Xi Jinping a façonné ses choix. De Pékin à Djibouti – l’ancienne colonie française est depuis 2017 la première base militaire chinoise à l’étranger – en passant par la mer de Chine méridionale et l’Australie, les réalisateurs passent au crible les projets et les stratégies d’influence du nouvel homme fort de la planète. Nourrie d’images d’archives et de témoignages (de nombreux experts et de dissidents, mais aussi d’un haut gradé proche du pouvoir), leur enquête montre comment Xi Jinping a donné à la reconquête nationaliste de la grandeur impériale chinoise, projet nourri dès l’origine par la République populaire, une spectaculaire ampleur.

    https://www.arte.tv/fr/videos/078193-000-A/le-monde-selon-xi-jinping
    #biographie #démocratie #trauma #traumatisme #Mao #révolution_culturelle #Terres_Jaunes #exil #Prince_Rouge #nationalisme #rêve_chinois #renaissance_nationale #histoire_nationale #totalitarisme #stabilité #idéologie #anti-corruption #lutte_contre_la_corruption #purge #dictature #investissements_à_l'étranger #prêts #dette #KUKA #ports #droits_humains #Australie #infiltration_chinoise #Nouvelle-Zélande #David_Cameron #Jean-Pierre_Raffarin #matières_premières #capitalisme_autoritaire #Ouïghours #arrestations #répression #censure #liberté_d'expression #défilés_militaires #armée #puissance_militaire #Mer_de_Chine_méridionale #îles_de_Spratleys #liberté_de_la_presse #prisonniers_politiques #Hong_Kong

    #Djibouti #base_militaire (de Djibouti)

    #Sri_Lanka —> Au Sri Lanka, le #port de #Hambantota est sous contrôle chinois, ceci pour au moins 99 ans (accord signé avec le Sri Lanka qui n’a pas pu rembourser le prêt que la Chine lui a accorder pour construire le port...)
    #dépendance
    v. aussi :
    Comment la Chine a fait main basse sur le Sri Lanka
    https://www.courrierinternational.com/article/comment-la-chine-fait-main-basse-sur-le-sri-lanka

    Histoire semblable pour le #Port_du_Pirée à #Athènes, en #Grèce ou l’#aéroport de #Toulouse, en #France.

    #Organisation_de_coopération_de_Shangaï :


    https://fr.wikipedia.org/wiki/Organisation_de_coop%C3%A9ration_de_Shanghai
    #Grande_unité_mondiale #enrichissement_pour_tous

    Quelques cartes et images tirées du #film #documentaire.

    La #nouvelle_route_de_la_soie et autres investissements chinois dans les infrastructures mondiales de #transport :

    La #Chinafrique :


    #Afrique
    Afrique où la Chine propose la « #solution_chinoise », programme de #développement basé sur le #développement_économique —> « #modèle_chinois de développement »

    Le programme de #surveillance_de_masse :

    Outre la surveillance, mise en place d’un programme appelé « #crédit_social » :

    Le #Système_de_crédit_social est un projet du gouvernement chinois visant à mettre en place d’ici 2020 un système national de #réputation_des_citoyens. Chacun d’entre eux se voit attribuer une note, échelonnée entre 350 et 950 points, dite « crédit social », fondée sur les données dont dispose le gouvernement à propos de leur statut économique et social. Le système repose sur un outil de surveillance de masse et utilise les technologies d’analyse du #big_data. Il est également utilisé pour noter les entreprises opérant sur le marché chinois.

    https://fr.wikipedia.org/wiki/Syst%C3%A8me_de_cr%C3%A9dit_social

    Voici ce que cela donne :


    #surveillance #contrôle_de_la_population #vidéosurveillance #reconnaissance_faciale #contrôle_social
    #cartographie #visualisation
    ping @etraces

    ping @reka

  • Citoyens et consommateurs dévisagés pour garantir leur « bien-être »
    https://www.lemonde.fr/economie/article/2018/12/19/citoyens-et-consommateurs-devisages-pour-garantir-leur-bien-etre_5399814_323
    #pub #smile_you_re_being_analyzed
    #video_surveillance

    Une start-up de Metz, Two-I, rencontre un succès rapide en développant des solutions d’analyse des images de #caméras de surveillance, qui permettent non seulement de compter les passants, mais de décrypter en temps réel leur sexe, leur âge et les émotions exprimées par leur visage. Son credo : s’imposer comme un « outil de la #smart_city » en fournissant une mesure objective du « bien-être » pour guider la gestion de la ville.

    Les métropoles de #Metz, de #Nancy, de Nice et quelques autres se sont déjà laissé convaincre, comme plusieurs gestionnaires de stades. Depuis cet automne, la société signe également des contrats à Dubaï, où ses technologies pourraient être mises à profit par le « ministère du bonheur » créé par les Emirats arabes unis pour garantir le « bien-être social » et la « positivité ».

    L’analyse des émotions permet aussi d’évaluer « l’expérience client » dans un centre commercial, ou le ressenti face à une #publicité. « Nous avons de grosses commandes à #Dubaï liées à l’affichage publicitaire », indique M. Trombini. Grâce aux caméras intégrées aux écrans, les annonceurs savent si leur message est bien vu par le public voulu ou s’il rate sa cible, et comment il est perçu.

    Après une première levée de fonds de 250 000 euros lors de la création de la #start_up, en juillet 2017, la société, qui compte désormais quatorze collaborateurs, a réuni un million d’euros supplémentaires en mai. « On fera peut-être encore un tour de table, mais notre objectif est d’atteindre la rentabilité en 2019. On entre en phase d’industrialisation », indique Julien Trombini.

    • Comment des villes « hyper connectées » contrôlent l’espace public
      https://www.lemonde.fr/economie/article/2018/12/19/au-nom-de-la-smart-city-des-villes-sous-surveillance_5399527_3234.html

      De Nice à Valenciennes (Nord), de Marseille à la Défense ou à Nîmes, de plus en plus de collectivités se laissent tenter par des plates-formes numériques organisées autour des outils de surveillance et de contrôle de l’espace public.

      Un mouvement de fond, en phase avec de puissants intérêts industriels et porté par des subventions publiques, qui prospère dans un certain flou juridique et inquiète les associations de défense des libertés publiques. Construits autour d’une vidéoprotection dernier cri, dopée à l’intelligence artificielle, aux algorithmes et au « big data », ces dispositifs ont l’avantage de rendre bien concret l’un des rêves fondateurs de la smart city : la gestion centralisée de la ville depuis un poste unique de commandement.

      C’est le début d’une révolution : la fibre optique et les technologies numériques permettent l’interopérabilité de tous les systèmes, une interconnexion des différents métiers de la ville, qui fonctionnaient jusque-là en silos : l’éclairage public, la mobilité et le stationnement, la sécurité, les parcs et jardins, les réseaux d’eau ou d’énergie… « Le même matériel permet d’imbriquer la sécurité avec d’autres enjeux et d’autres fonctions. En mutualisant les équipements, nous multiplions les services, que ce soit dans la gestion quotidienne, pour les grands événements ou en cas de crise », explique Nathalie Allegret, directrice du marché Villes et territoires connectés chez Engie Ineo, l’un des poids lourds du secteur.

    • https://www.laquadrature.net/2018/12/19/reconnaissance-faciale-au-lycee-lexperimentation-avant-la-generalisati

      Le 14 décembre dernier, le Conseil Régional de #PACA a voté une mesure visant à faire installer, à partir de 2019, des dispositifs de #reconnaissance_faciale à l’entrée de deux #lycées de Nice et de Marseille. Dès le mois d’octobre, La #Quadrature_du_Net avait demandé à la CNIL la communication des documents en sa possession sur ce dossier, cette dernière ayant été consultée par la région pour la mise en place de ces dispositifs. L’analyse de ces documents, ainsi que les précisions apportées par Christian Estrosi, confirment l’impuissance de la CNIL à enrayer la banalisation d’une technologie particulièrement liberticide et qui vise ici à s’étendre à l’ensemble des établissements scolaires de la région.

      De quoi s’agit-il ? En octobre 2017, Renaud Muselier, président de la région PACA, demande les conseils de la CNIL pour la mise en place dans deux lycées de Nice et de Marseille de dispositifs de « portiques virtuels » associant « des moyens classiques d’identification (…) à un dispositif biométrique utilisant des technologies de comparaison faciale, seuls à même d’après nos premières investigations, d’apporter une solution fiable et rapide dans un contexte de contrôle d’accès portant sur un nombre potentiellement élevé de personnes ». Cette nouvelle étape est la suite logique de sa politique sécuritaire ayant conduit, entre 2016 et 2017, à ce que plus de 1 300 caméras de vidéosurveillance soient installées dans l’ensemble des lycées de la région. La technologisation à outrance est également présentée par la région comme une réponse au contexte d’austérité budgétaire :

  • Reconnaissance faciale au lycée : l’expérimentation avant la généralisation
    https://www.laquadrature.net/2018/12/19/reconnaissance-faciale-au-lycee-lexperimentation-avant-la-generalisati

    Le 14 décembre dernier, le Conseil Régional de PACA a voté une mesure visant à faire installer, à partir de 2019, des dispositifs de reconnaissance faciale à l’entrée de deux lycées de Nice et de…

    #Surveillance

  • Microsoft sounds an alarm over facial recognition technology - The Verge
    https://www.theverge.com/2018/12/7/18129858/microsoft-facial-recognition-ai-now-google

    AI Now is a group affiliated with New York University that counts as its members employees of tech companies including Google and Microsoft. In a new paper published Thursday, the group calls on governments to regulate the use of artificial intelligence and facial recognition technologies before they can undermine basic civil liberties. The authors write:

    Facial recognition and affect recognition need stringent regulation to protect the public interest. Such regulation should include national laws that require strong oversight, clear limitations, and public transparency. Communities should have the right to reject the application of these technologies in both public and private contexts. Mere public notice of their use is not sufficient, and there should be a high threshold for any consent, given the dangers of oppressive and continual mass surveillance.

    The AI Now researchers are particularly concerned about what’s called “affect recognition” — and attempt to identify people’s emotions, and possibly manipulate them, using machine learning.

    #Reconnaissance_faciale #Société_numérique #Société_controle #Dystopie

  • Facial recognition snares China’s air con queen Dong Mingzhu for jaywalking, but it’s not what it seems | South China Morning Post
    https://www.scmp.com/tech/innovation/article/2174564/facial-recognition-catches-chinas-air-con-queen-dong-mingzhu

    Since last year, many Chinese cities have cracked down on jaywalking by investing in facial recognition systems and AI-powered surveillance cameras

    Jaywalkers are identified and shamed by displaying their photographs on large public screens

    #reconnaissance_faciale #chine et #bugs

  • #Cybersécurité, #Reconnaissance_faciale et #Réseaux_Sociaux :
    Social Mapper, quand la reconnaissance faciale devient trop accessible… voire un danger
    https://www.presse-citron.net/social-mapper-quand-la-reconnaissance-faciale-devient-trop-accessible

    Ce petit logiciel permet en effet de faire du tracking à travers différents réseaux sociaux. LinkedIn, Facebook, Twitter, Instagram…peu ou prou tous les réseaux sociaux sont au menu. Il suffit d’un nom et d’une photo. Ce petit logiciel permet de retrouver n’importe qui sur les différentes plateformes de façon automatique.

    Ce logiciel est en open-source, sous licence gratuite, il est disponible sur GitHub sans aucune limitation ou presque quant à son usage. Ce sont les chercheurs de Trustedwave SpiderLabs qui l’ont mis en ligne. L’idée est bien sûr d’aider les chercheurs en sécurité.

    Complément : Un outil de reconnaissance faciale traque les profils sur les réseaux sociaux
    https://siecledigital.fr/2018/08/09/un-outil-de-reconnaissance-faciale-traque-les-profils-sur-les-reseaux-

    Sur son blog officiel, #Trustwave a déclaré : « Et si cela pouvait être automatisé et réalisé à grande échelle avec des centaines ou des milliers de personnes ? »

  • À Orly et Roissy, des contrôles par reconnaissance faciale pour désengorger les files d’attente
    http://www.lefigaro.fr/conjoncture/2018/06/29/20002-20180629ARTFIG00173--orly-et-roissy-des-controles-par-reconnaissance-

    Le groupe Aéroports de Paris (ADP) espère ainsi limiter le temps d’attente aux postes de contrôle de police aux frontières (PAF) avant l’embarquement des passagers. Cet été, fini les longues files d’attente dans les aéroports parisiens ? À l’aube des premiers grands départs en vacances, les dirigeants du groupe Aéroports de Paris (ADP) assurent aborder la saison « de manière plus confiante » que l’an dernier. Grâce à la mise en place progressive d’un système automatisé de contrôle des passagers, le système (...)

    #Gemalto #algorithme #CCTV #biométrie #facial #frontières #voyageurs #surveillance

    ##voyageurs

  • Après la Société Générale, Boursorama se lance dans la reconnaissance faciale
    https://www.nextinpact.com/news/106244-apres-societe-generale-boursorama-se-lance-dans-reconnaissance-fa

    Comme la Société Générale, sa propriétaire, Boursorama a décidé de se lancer dans la reconnaissance faciale pour l’ouverture des comptes bancaires en ligne. La CNIL a accordé son feu vert voilà quelques jours, après avoir ausculté la conformité du mécanisme avec la loi de 1978. La brèche ouverte par la Société Générale en septembre 2017 s’agrandit. Comme le chef de file du groupe SG, Boursorama a décidé de se lancer dans la reconnaissance faciale pour l’ouverture d’un compte en ligne. Le traitement repose là (...)

    #biométrie #banque #facial #CNIL

  • Derrière l’application de Google qui trouve votre sosie artistique, du digital labor (gratuit) pour entraîner son IA de reconnaissance faciale http://www.rtl.fr/actu/futur/l-application-de-google-qui-trouve-votre-sosie-artistique-souleve-des-inquietude
    http://media.rtl.fr/online/image/2018/0117/7791879937_l-application-google-arts-culture-est-en-tete-des-telechargemen

    (Le seul article un peu critique que j’ai trouvé provient donc de rtl.fr)

    La dernière version de l’application Google Arts & Culture est l’une des plus populaires du moment aux États-Unis. La raison ? L’ajout d’une fonctionnalité permettant aux utilisateurs de découvrir quel est leur sosie artistique. Intitulée "Is your portrait in a museum ?" ("Votre portrait se trouve-t-il dans un musée ?"), elle propose de comparer un selfie à des portraits célèbres réalisés par des peintres de renom.

    L’expérience repose sur la technologie de reconnaissance faciale Face Net. Développée par #Google, elle scanne la photo envoyée par l’utilisateur pour créer une empreinte numérique de son #visage et la comparer aux 70.000 œuvres de sa base de données. Une fois les correspondances trouvées, les résultats les plus pertinents sont affichés avec leur pourcentage de ressemblance.

    Cette fonction a largement emballé les internautes américains. Depuis sa mise à jour mi-décembre, #Google_Arts_&_Culture truste les premières places des applications les plus téléchargées aux États-Unis sur l’App Store d’Apple et le Play Store de Google. Disponible uniquement outre-Atlantique, elle fait l’objet d’une expérimentation par Google.

    (…) Devant la popularité de l’application, certaines voix se sont élevées aux États-Unis pour mettre en garde le public contre le véritable objectif poursuivi par Google. "Le stagiaire de Google qui a inventé cette application pour tromper les utilisateurs en les incitant à envoyer des images pour remplir sa base de données de reconnaissance faciale a certainement eu une promotion", a observé sur Twitter l’analyste politique, Yousef Munayyer. "Personne ne s’inquiète d’abandonner les données de son visage à Google ou vous estimez tous que c’est déjà le cas ?", s’est aussi émue l’actrice et activiste américaine, Alyssa Milano.

    Google propose régulièrement des outils ludiques et gratuits aux internautes pour faire la démonstration de ses progrès dans l’intelligence artificielle. Ces programmes permettent aussi à l’entreprise américaine de mettre ses réseaux de neurones artificiels à l’épreuve de neurones humains afin de les perfectionner à peu de frais. Les programmes Quick Draw ! et AutoDraw visaient notamment à améliorer la #reconnaissance_visuelle de ses algorithmes. La société utilise aussi la reconnaissance des caractères des #Captcha pour aider ses robots à déchiffrer les pages de livres mal conservés sur Google Book et les indexer par la suite à son moteur de recherche.

    (…)

    Interrogé par plusieurs médias américains sur la portée réelle de son application « Arts & Culture », Google se veut rassurant. Selon la firme américaine, les photos téléchargées par les utilisateurs ne sont pas utilisées à d’autres fins et sont effacées une fois trouvées les correspondances avec des œuvres d’art. La dernière expérience du géant américain illustre à nouveau les craintes suscitées par les progrès rapides de l’#intelligence_artificielle et plus particulièrement de la #reconnaissance_faciale, dont les applications ont pris une place grandissante dans nos vies ces derniers mois.

    Apple a fait entrer cette technologie dans la vie de millions d’utilisateurs cet automne en intégrant le dispositif #Face_ID à l’iPhone X pour déverrouiller l’appareil d’un simple regard. Dans le sillage de la pomme, un grand nombre de constructeurs travaille à généraliser ce système sur des smartphones à moindre prix. Facebook a recours à la reconnaissance faciale depuis décembre pour traquer les usurpations d’identité sur sa plateforme. Google l’utilise déjà dans son service Photos, utilisé par 500 millions d’utilisateurs, capable depuis peu de reconnaître les animaux de compagnies.

    Les défenseurs des libertés craignent que la généralisation de la reconnaissance faciale dans des outils utilisés à si grande échelle ne glisse vers une utilisation plus large par les publicitaires ou les autorités. En Chine, cette technologie est déjà utilisée pour surveiller les citoyens dans les endroits publics. 170 millions de caméras de surveillance sont installées à travers le pays. Un nombre qui doit atteindre 400 millions à horizon 2020. La plupart sont dotées de programmes d’intelligence artificielle pour analyser les données en temps réel et inciter les individus à ne pas déroger à la norme édictée par le pouvoir.

    #digital_labor #IA

    Et puis cf. le thread d’@antoniocasilli sur son fil Twitter :

    Avez-vous déjà vu, partagé, commenté les « art selfies » de l’appli @googlearts ? Savez-vous qu’ils utilisent votre visage pour constituer un fichier biométrique ? J’en veux pour preuve qu’ils ne sont pas disponibles en Illinois—état où les lois sur la biométrie sont plus strictes.

    https://twitter.com/AntonioCasilli/status/953662993480474624

    • Version optimiste, ft. John Berger :

      In one way, the art selfie app might be seen as a fulfillment of Berger’s effort to demystify the art of the past. As an alternative to museums and other institutions that reinforce old hierarchies, Berger offered the pinboard hanging on the wall of an office or living room, where people stick images that appeal to them: paintings, postcards, newspaper clippings, and other visual detritus. “On each board all the images belong to the same language and all are more or less equal within it, because they have been chosen in a highly personal way to match and express the experience of the room’s inhabitant,” Berger writes. “Logically, these boards should replace museums.” (As the critic Ben Davis has noted, today’s equivalent of the pinboard collage might be Tumblr or Instagram.)

      Yet in Berger’s story this flattening represents the people prying away power from “a cultural hierarchy of relic specialists.” Google Arts & Culture is overseen by a new cadre of specialists: the programmers and technology executives responsible for the coded gaze. Today the Google Cultural Institute, which released the Arts & Culture app, boasts more than forty-five thousand art works scanned in partnership with over sixty museums. What does it mean that our cultural history, like everything else, is increasingly under the watchful eye of a giant corporation whose business model rests on data mining? One dystopian possibility offered by critics in the wake of the Google selfie app was that Google was using all of the millions of unflattering photos to train its algorithms. Google has denied this. But the training goes both ways. As Google scans and processes more of the world’s cultural artifacts, it will be easier than ever to find ourselves in history, so long as we offer ourselves up to the computer’s gaze.

      https://www.newyorker.com/tech/elements/the-google-arts-and-culture-app-and-the-rise-of-the-coded-gaze-doppelgang

      Version réaliste, par Evgeny Morozov :

      Google vient de lancer une plateforme d’IA destinée aux entreprises qui veulent mettre en œuvre une infrastructure d’apprentissage automatique (machine learning) de afin de construire leurs propres modèles (contre rétribution, bien entendu). Il sait pertinemment qu’il est toujours rentable de s’attirer la sympathie des utilisateurs, par exemple en leur donnant des outils d’IA pour trouver des œuvres d’art qui ressemblent à leur visage (1). Ces instruments gagnent ainsi en précision et peuvent ensuite être vendus aux entreprises. Mais pour combien de temps encore Google aura-t-il besoin de cobayes ?

      https://blog.mondediplo.net/2018-01-27-Mark-Zuckerberg-vous-veut-du-bien

  • How Google Arts and Culture’s Face Match A.I. Actually Works | Inverse
    https://www.inverse.com/article/40177-google-arts-and-culture-technology

    That’s part of what made the viral Google Arts and Culture feature, allowing users to compare their faces with a work of art, so fun. It played up our natural vanity, for sure, but it also gave us a chance to test out what A.I. is capable of.

    Some users took the opportunity to punk the A.I. to hilarious effect:

    It sounds like an easy process, but in fact, there is a lot of learning that the machine has to do first. After identifying faces in an image, it may have to reorient or resize it for a better reading — we’ve all been in cases where a selfie taken from too close looks distorted from reality.

    Then, once the A.I. has resized and reoriented the face, it creates a “faceprint,” a set of characteristics that uniquely identify one person’s face. This could include the distance between facial features, such as eyes, or shapes and sizes of noses.

    Faceprints can then be compared with an individual photo or to databases of many images.

    In the case of Google’s museum selfie feature, each selfie that is uploaded is compared with its database of over 70,000 works of art.

    According to the Post, users currently have to opt into facial recognition on Google Photos (but not on Facebook).

    But, by playing around with this selfie feature, that’s essentially what we’re doing, so we are actively consenting to making Google’s A.I. smarter.

    #Google #Reconnaissance_faciale #Intelligence_artificielle #Digital_labour

  • Des centaines de supérettes sans employés ouvertes en Chine par JD.com | La Revue du Digital
    http://www.larevuedudigital.com/des-centaines-de-superettes-sans-employes-ouvertes-en-chine-par-jd

    JD.com, leader du e-commerce en Chine, annonce qu’il va ouvrir des centaines de supérettes sans personnel avec le promoteur China Overseas Land & Investment. Le paiement des clients sera automatisé via la reconnaissance faciale, la reconnaissance d’images et le RFID. La technologie facilite également l’approvisionnement des magasins et le suivi des stocks.

    Les flux de clients sont tracés par la chaleur dégagée
    Les solutions ont été testées en octobre dernier à Beijing au siège de JD.com par les 10 000 employés de l’enseigne. Le flux était de mille clients par jour avec un taux de ré-achat de 70%. Les caméras placées sur les plafonds des magasins reconnaissent le mouvement des clients et génèrent des cartes de l’activité – via la chaleur dégagée par les clients – afin de mesurer le trafic, la sélection des produits et les préférences des clients, aidant les propriétaires de magasins à s’approvisionner efficacement.

    Les rayonnages intelligents sont équipés de caméras et d’étiquettes RFID
    La solution vise à améliorer de manière significative les opérations existantes, sans effort et à faible coût. Des rayonnages intelligents utilisent la vision qui peut reconnaître les produits et le comportement en magasin, ainsi que l’intelligence artificielle.

    Les propriétaires de magasin peuvent choisir d’inclure un compteur intelligent, qui assure la reconnaissance du produit, la génération de facture et le paiement. Un écran de publicité intelligent dans le magasin exploite la reconnaissance faciale pour afficher des publicités personnalisées basées sur les habitudes d’achat et les données démographiques des utilisateurs individuels.

    #commerce #contrôle #travail #reconnaissance_faciale #RFID

  • En Chine, la reconnaissance faciale envahit le quotidien
    http://www.lemonde.fr/economie/article/2017/12/09/en-chine-la-reconnaissance-faciale-envahit-le-quotidien_5227160_3234.html

    « En Chine, les gens sont moins préoccupés par les questions de vie privée, ce qui nous permet d’aller plus vite »

    #paywall mais la simple introduction de l’article est déjà effarante...

    #vie_privée #chine #reconnaissance_faciale