• Honest passengers first ! Beijing subway to pilot credit-based fast entry system
    https://www.globaltimes.cn/page/202103/1217953.shtml

    Beijing’s subway is mulling exempting people with good credit records from mandatory security checks as part of its new smart measures to speed up city commuters’ flow of entry into the subway. Beijing subway is expected to pilot the new measure based on passengers’ credit scores, according to a municipal government report on the city’s traffic. With this system, passengers carrying small bags can enter the subway station directly without going through security checks. The Global Times found (...)

    #algorithme #CCTV #biométrie #facial #reconnaissance #vidéo-surveillance #notation #SocialCreditSystem #surveillance (...)

    ##_

  • Derrière les grilles, Barbara Cassin
    https://www.fayard.fr/1001-nuits/derriere-les-grilles-9782755506020

    Instrument indispensable à toute gouvernance, forgé sur le modèle des pratiques des agences de notation financière, l’évaluation a étendu son empire à tous les domaines, tous les métiers, tous les instants, tout, vraiment tout, de la naissance à la mort. Et elle n’a cessé de prouver, de toutes les manières possibles, son inopérante bêtise et sa dangerosité. Pourtant, elle n’est jamais démentie : elle promet encore plus, si l’on évalue encore… Pour comprendre ce qui ne va plus, ce qui ne doit pas continuer, (...)

    #algorithme #technologisme #prédiction #notation #profiling #surveillance

  • Procès Ikea : des policiers trop zélés à la barre
    https://www.lemonde.fr/societe/article/2021/03/24/proces-ikea-des-policiers-trop-zeles-a-la-barre_6074285_3224.html

    Quatre fonctionnaires sont accusés de violation du secret professionnel pour avoir, à la demande d’Ikea, consulté les antécédents judiciaires de salariés.

    Huit ans d’instruction ont permis de décortiquer le mécanisme principal de la surveillance à grande échelle qui visait salariés et candidats à l’embauche chez Ikea, en France, dans les années 2000 : les directeurs d’une grande partie des magasins du pays envoyaient des listes de noms à Jean-François Paris, responsable des questions de sécurité au sein du groupe, qui les transmettait à Jean-Pierre Fourès, ancien policier des renseignements généraux, lequel obtenait les antécédents judiciaires des personnes concernées de façon plus ou moins légale – parfois auprès de policiers, selon l’accusation, ce que l’intéressé dément.

    Les choses étaient plus simples au magasin Ikea d’Avignon, où l’on ne s’embarrassait pas de tant d’intermédiaires : le directeur du site, Patrick Soavi, passait directement commande à un policier nommé Alain Straboni, qui avait la bonne idée d’être son cousin. « Au troisième degré », précise M. Soavi à la barre : « J’ai un lien familial avec Straboni, je me suis dit : “Pourquoi passer par Jean-François Paris ?” Je reconnais que j’ai fait preuve de beaucoup de naïveté et d’un peu d’excès de zèle, mais on nous demandait de faire ces contrôles et, une fois le doigt dans l’engrenage, il était trop tard. » Au deuxième jour du procès Ikea, mardi 23 mars, le tribunal correctionnel de Versailles s’intéressait au cas d’espèce avignonnais.

    Le magasin ouvre ses portes en août 2010. En avril, Patrick Soavi envoie un premier mail à Alain Straboni : une liste de quarante-neuf noms, prénoms, dates et lieux de naissance de candidats présélectionnés, à laquelle il faudrait « jeter un œil ». Réponse cinq jours plus tard : « Sur quarante-neuf, trois sont connus : C. pour menaces, B. pour usage de stup, et M. pour outrage à agent. En gros ce n’est pas bien méchant, bonne pioche. » Mi-juin, nouveau mail de Patrick Soavi à son cousin, soixante-huit nouveaux noms à passer dans le STIC, le fichier des antécédents judiciaires, qui n’est pourtant pas censé servir à faire le tri à l’embauche. Verdict : « Patrick, pour la liste, cinq noms à proscrire. »

    Syndicats et « barbus »

    « Si la personne était défavorablement connue, on lui disait poliment que le profil ne correspondait pas », explique M. Soavi, qui se justifie : « J’avais la hantise de la drogue et de la mise en place d’un marché parallèle dans mon magasin. » Quand il était directeur du magasin de Villiers-sur-Marne, en région parisienne, il avait déjà sollicité son cousin policier, qui a donné cette autre explication aux enquêteurs : « Sa peur était que les barbus infiltrent les syndicats de son entreprise. » Soavi, gêné, à la barre : « Ce sont des termes de policiers. “Barbus”, c’est pas trop mes propos, hein. »

    M. Straboni absent, il a fallu se contenter des réponses qu’il avait fournies à l’instruction : « Je savais que je n’avais pas le droit de le faire, je l’ai fait uniquement parce qu’il s’agissait d’un cousin, un discret, qui n’ébruiterait pas notre deal. » Un service sans « aucune contrepartie », hormis un coup de pouce pour que ses enfants ou ceux de ses collègues policiers décrochent un emploi saisonnier chez Ikea. Pour M. Straboni, cette affaire est une « catastrophe personnelle et professionnelle », il se sent « honteux ».

    Le même sentiment habite visiblement Jean-Philippe Dallies-Labourdette, qui arrive à la barre. Policier à la retraite, carrière exemplaire, rescapé d’un attentat au Kurdistan en 1992, officier de l’ordre national du Mérite depuis 2010, et désormais jugé pour avoir vérifié quarante-deux identités dans le STIC à la demande de Fabrice Cadet, responsable de la sécurité du magasin Ikea d’Avignon. Le policier bredouille qu’il s’est contenté de « considérations générales », qu’il n’est « pas entré dans la vie des gens » et n’a « pas donné la nature des infractions ». C’est illégal quand même. Il regrette sa « négligence ».

    Troubles sociaux

    « Je savais qu’on n’avait pas le droit de le faire, mais je l’ai fait quand même », enchaîne son adjoint Jean-Yves Huart, l’air contrit, qui peine à expliquer pourquoi. « On avait besoin de renseignements à l’époque, explique-t-il mollement. Il y avait des troubles sociaux dans le département, on était tiraillés entre différents syndicats, les entreprises pouvaient éventuellement nous aider à anticiper ces troubles.

    – Une sorte d’échange de bons procédés, dit la présidente.

    – Oui, sauf qu’on a été un peu trop loin dans l’échange. »

    En tout, 167 identités ont été passées au STIC concernant le magasin d’Avignon, qui compte 250 salariés.

    Un quatrième policier est actuellement jugé à Versailles. Contrairement aux trois autres, Laurent Hervieu plaide non coupable. En 2010 et 2011, alors qu’il était en poste à Ermont (Val-d’Oise), il a effectué des consultations STIC concernant vingt salariés – dont des leaders syndicaux – du magasin voisin de Franconville, foyer de contestation d’où était parti, en février 2010, un vaste mouvement de grève chez les salariés du groupe.

    « Dix personnes passées au STIC avec vos codes de connexion ont ensuite été licenciées par Ikea », remarque la procureure.

    « Euh… Malheureusement, je ne peux pas vous l’expliquer, je n’y peux rien, répond M. Hervieu, qui promet n’avoir jamais fait de recherches à la demande d’Ikea. Toutes mes consultations STIC se sont faites dans le cadre de procédures judiciaires régulières », affirme-t-il, évoquant notamment des affaires de vol par du personnel au sein du magasin. Problème : en huit ans d’instruction, on n’a jamais trouvé trace de ces procédures. La peine maximale encourue par les policiers est de cinq ans de prison. Le procès se poursuit jeudi avec les interrogatoires des deux anciens PDG d’Ikea France, accusés d’avoir cautionné le système de surveillance généralisé.

    #Ikea #données #justice #notation #profiling #STIC #surveillance #travail #police

  • Google Analytics : Stop feeding the beast
    https://casparwre.de/blog/stop-using-google-analytics

    The beast that is Google There was a time when Google was a small, quirky company with a single product so awesome that it blew away the competition. That time is long gone. These days Google is a gigantic multinational mega-corp. But that’s understating it a little. Think of Google as a kind of Godzilla that slurps up data about its users at one end and craps out gold ingots at the other. It does both of these at huge scale. When thinking about Google, there are three things that are not (...)

    #Google #GoogleAnalytics #GoogleMaps #GoogleSearch #algorithme #domination #bénéfices #microtargeting #notation #profiling (...)

    ##publicité

  • Amazon Mentor app tracks and disciplines delivery drivers
    https://www.cnbc.com/2021/02/12/amazon-mentor-app-tracks-and-disciplines-delivery-drivers.html

    Key Points Amazon confirmed last week it has started putting AI-equipped cameras in some delivery vans. It already requires contracted delivery workers to use an app, called Mentor, that tracks and scores their driving behavior. Like the cameras, the app is designed to improve driver safety, but Amazon employees say the technology produces errors and, in some cases, tracks their location after they clock out from work. Last week, Amazon triggered privacy concerns when it confirmed it’s (...)

    #Amazon #algorithme #comportement #notation #surveillance #travail

  • China’s social credit system was due by 2020 but is far from ready
    https://algorithmwatch.org/en/story/chinas-social-credit-system-overdue

    Six years after the government announced plans for a national social credit score, Chinese citizens face dozens of systems that are largely incompatible with each other. The central government is planning an overhaul. Research and planning for a national credit score in China started in 1999, according to Lin Junyue, one of the most important minds behind the system. It began as a research project led by the World Economics and Politics Institute of the Chinese Academy of Social Sciences. (...)

    #Alibaba #AntFinancial #algorithme #Sésame #données #SocialCreditSystem #finance #notation #surveillance (...)

    ##AlgorithmWatch

  • État d’urgence, fichage, couvre-feu... Sommes-nous en train de renoncer à nos libertés ?
    https://www.telerama.fr/debats-reportages/etat-durgence-fichage-couvre-feu...-sommes-nous-en-train-de-renoncer-a-nos-

    La sécurité, mais à quel prix ? Partout nos libertés régressent, et l’exception devient la règle. Un avocat, une philosophe, un historien et une sociologue nous font part de leurs inquiétudes. Et nous incitent à agir.

    La dernière alerte en date a sonné mi-décembre, avec un projet de loi inattendu, instituant « un régime pérenne de gestion des urgences sanitaires ». Sur le papier, on comprend bien le principe : puisqu’une catastrophe de type Covid-19 risque fort de se reproduire à l’avenir, autant doter les pouvoirs publics d’un cadre d’action clair, pour déployer rapidement les mesures ad hoc. Mais lesquelles ? Un alinéa du texte précisait que le Premier ministre pourrait « subordonner les déplacements des personnes, leur accès aux moyens de transports ou à certains lieux, ainsi que l’exercice de certaines activités à la présentation des résultats d’un test de dépistage, […] au suivi d’un traitement préventif, y compris à l’administration d’un vaccin, ou d’un traitement curatif ». En somme, un certificat de bonne santé ou de vaccination aurait pu devenir obligatoire pour entrer dans un train ou dans un musée… Sans compter que le texte prévoyait d’autoriser le recensement des citoyens potentiellement contaminés, avec ou sans leur consentement. Un « monde d’après » guère engageant.

    Face à la levée de boucliers politique, le projet fut retiré. Pour l’instant. Reste qu’il illustre bien les pressions auxquelles nos libertés publiques, consacrées dès 1789 avec la Déclaration des droits de l’homme et du citoyen, sont soumises depuis plusieurs années. Elles reculent, indubitablement. Des dispositions sécuritaires a priori exceptionnelles ne cessent de s’insinuer dans nos quotidiens, quitte à devenir… plus exceptionnelles du tout. Fin 2017, une loi a entériné plusieurs dispositions de l’état d’urgence décrété après les terrifiants attentats de novembre 2015 — et qui ne devait pas durer. Depuis ? Un autre état d’urgence, sanitaire cette fois, nous est tombé dessus, avec ses confinements, fermetures, limitations de déplacements ou de rassemblements, obligation du port du masque ; et même couvre-feu… Les mesures ont été globalement acceptées, puisqu’il faut bien faire face à l’incertitude épidémique et à l’engorgement des hôpitaux.

    Alors que le Conseil d’État vient de valider les décrets autorisant la police à ficher nos opinions politiques, religieuses et syndicales, d’autres mesures se sont fait jour ces derniers mois qui menacent elles aussi de restreindre nos libertés : le nouveau schéma du maintien de l’ordre, qui entrave la presse dans sa couverture des manifestations ; ou, bien sûr, la proposition de loi « sécurité globale », qui prône l’usage des drones, ou l’interdiction de diffuser la vidéo d’un policier ou d’un gendarme en intervention, permettant de l’identifier. Ce texte-ci passe beaucoup moins bien dans l’opinion publique. De nouvelles manifestations sont prévues le 16 janvier.

    L’heure de la contestation est-elle venue ? Pas sûr, car, dans une époque tourmentée, les mesures sécuritaires ont souvent le don de rassurer, quelle que soit leur efficacité. C’est tout le problème. Saisis par l’inquiétude, les peuples peuvent délibérément renoncer à des libertés qui leur semblaient essentielles la veille, convaincus que nécessité fait loi. Que tout cela n’est que provisoire. Ou juste prévu « au cas où »… D’ailleurs, au cas où, demain, au sommet de l’État, des dirigeants rêveraient de piétiner l’État de droit, ne sommes-nous pas en train de leur préparer le terrain en toute légalité ? Ce sont ces enjeux, fondamentaux, qui se déploient sous nos yeux. Pour les saisir, nous avons croisé les points de vue d’un avocat, d’une philosophe, d’un historien et d’une sociologue. Ils nous expliquent en quoi la démocratie tient à un équilibre, fragile par nature, entre la sécurité et la liberté. Qui n’avait pas paru aussi précaire depuis longtemps.Retour ligne automatique
    Arié Alimi, avocat : « Les citoyens doivent se défendre »

    « Depuis les attentats du 13 novembre 2015, l’état d’urgence se substitue progressivement à l’État de droit. D’abord sécuritaire, il est devenu sanitaire avec la pandémie de Covid-19. L’état d’urgence permet de transférer un certain nombre de pouvoirs de l’autorité judiciaire vers l’autorité administrative : ce sont le ministère de l’Intérieur et le préfet de police qui ordonnent directement des mesures restrictives de liberté et non plus des juges, plus indépendants du pouvoir politique. Instaurées en 2015, les assignations à résidence ou les perquisitions ont ensuite été pérennisées dans le droit commun avec la loi Silt (Sécurité intérieure et lutte contre le terrorisme) de 2017. Tout s’organise sous le contrôle de la police. Avec l’état d’urgence sanitaire, on instaure une assignation à résidence pour l’ensemble de la population, c’est-à-dire le confinement. On inverse la règle traditionnelle de la République, qui veut que la liberté soit le principe, et sa restriction, l’exception. À chaque fois qu’une peur renvoie l’individu à son instinct de survie, l’État en profite pour étendre son pouvoir et met en place de nouveaux outils de surveillance et de répression. La “loi sécurité globale” s’inscrit dans ce cheminement. Instaurer les drones, centraliser la gestion de caméras-piétons portées par des policiers ou interdire de filmer les forces de l’ordre permet aussi de légaliser ce qui était déjà pratiqué avant de manière illégale. C’est une stratégie de l’illégalisme. Exemple : le préfet de police de Paris déploie des drones alors qu’il n’en a pas le droit, il est condamné par le Conseil d’État mais persiste, histoire de tester les contre-pouvoirs.

    L’état d’urgence permanent crée un tourbillon incessant de nouvelles lois, une espèce de trou noir qui aspire et détruit progressivement le cadre de l’État de droit, dans une logique de “toujours plus”. L’individu est placé sous surveillance constante. Si la reconnaissance faciale est encore réalisée de façon individuelle et manuelle, je pense que les pouvoirs publics ont l’objectif de l’automatiser avant 2022. Il est fondamental que les citoyens se défendent, le droit est une arme parmi d’autres, avec la politique et la médiatisation. Les plaintes contre X déposées par certains d’entre eux ou des associations pendant le confinement ont permis de rappeler que les responsables politiques encourent des responsabilités pénales quand ils touchent aux libertés publiques. »

    Membre de la Ligue des droits de l’homme (LDH), Arié Alimi publie Le Coup d’état d’urgence (Seuil, 180 p., 15 €), à paraître le 21 janvier.

    Julia Christ, philosophe : « Opposer protection et libertés est un faux débat »

    « Un constat m’a extrêmement étonnée, quand les libertés ont été restreintes par le premier confinement : personne n’a fait remarquer que l’on voyait pour la première fois le lien inextricable entre les libertés individuelles et les droits sociaux. Il est pourtant évident que les gens devaient rester chez eux parce que nos hôpitaux ne pouvaient simplement pas accueillir tous les malades, et l’explication de cette situation est que le système hospitalier a été mis en pièces par les politiques des gouvernements successifs. Les libertés individuelles ont été restreintes non pas pour assurer notre sécurité mais au contraire parce que nous ne sommes socialement pas assez en sécurité.

    Opposer, comme on l’a entendu, “la protection de la vie” et les libertés individuelles est un faux débat car la sécurité est une assurance sociale dont dépend notre liberté. Ne pas avoir peur de tomber malade, pouvoir manger à sa faim ou être éduqué sont autant de choses indispensables pour exercer sa liberté raisonnablement. Ce sont donc les droits sociaux qui fondent à la fois la sécurité et les libertés fondamentales de chacun. La sécurité qui restreint les libertés survient parce que la sécurité qui produit les libertés a été démantelée : on interdit aux gens de sortir en temps de pandémie parce que nous n’avons pas assez de lits pour soigner tous les malades, tandis qu’on augmente la présence et la contrainte policières là où les défaillances du système éducatif et social produisent de la criminalité.

    L’aspect liberticide des récents projets de lois est le propre d’un gouvernement libéral dans la mesure où le libéralisme pense que les libertés individuelles doivent être limitées pour pouvoir coexister. L’idée que l’État doit mettre de l’ordre, sans quoi les individus se permettraient n’importe quoi dans la poursuite de leurs seuls intérêts, est une tendance autoritaire intrinsèque au système libéral. Je n’y vois pas une volonté de domination mais une incompétence totale à observer que les individus font toujours partie de groupes sociaux qui se régulent d’eux-mêmes et entre eux : à l’université, en manifestation, dans les religions, il existe déjà des normes et des contraintes internes. Le gouvernement français croit ne pas avoir d’autre moyen d’obtenir la cohésion sociale qu’en imposant ses valeurs, les fameux “principes républicains”. Cela témoigne d’une mécompréhension totale de ce qu’est une société et d’un aveuglement par rapport à la réalité sociale. »Retour ligne automatique
    Pascal Ory, historien : « On ne décrète pas la liberté »

    « Dans l’Histoire, toute situation d’exception génère, mécaniquement, des restrictions aux libertés publiques. En 2021 la question essentielle n’est pas là. Elle concerne le passé proche et l’avenir (encore) lointain. Le passé proche est celui de 2020 : une situation de crise sanitaire majeure a rappelé aux démocraties libérales leur fragilité. Après tout, d’un point de vue démographique, elles ne représentent jamais qu’une minorité à la surface de la Terre. La plupart des êtres humains vivent en régime de démocratie autoritaire ou de démocratie totalitaire. Comme dans les an-nées 30 (1930, pas encore 2030) la manière dont Pékin a utilisé successivement (au début de la pandémie) la censure puis la propagande a paru montrer l’efficacité — sur le court terme — de la mobilisation dictatoriale, face aux incertitudes consubstantielles aux régimes libéraux. Mais le plus problématique n’est pas encore là. Il est dans l’avenir.

    Posons deux prémisses : premièrement, dans l’histoire de l’humanité, il n’y a pas de causes, rien que des effets ; deuxièmement, l’effet suprême, celui qui rend compte du reste (un reste qui s’appelle ici économie, là culture), est l’effet politique. On ne décrète pas la liberté. C’est affaire de conjoncture, dans l’espace et dans le temps. Et le problème principal, ici, est dans le temps. Si la présente prophétie écologiste est vérifiée, avec son mélange d’anxiété sanitaire et d’angoisse climatique, tout se ramènera, comme dans toutes les sociétés, à une course de vitesse entre les facteurs d’intégration et les facteurs de désintégration. L’hypothèse la plus probable, à ce stade, est que l’ampleur du danger (c’est-à-dire de sa perception), au lieu de conduire les so-ciétés humaines vers toujours plus d’autonomie et de “participatif”, justifiera l’instauration de régimes autoritaires. Et c’est là qu’intervient la variable géographique, autrement dit la culture nationale : le chemin à parcourir sera sans doute un peu plus long pour les Islandais que pour les Nord-Coréens. Notre avenir lointain rejoindrait alors notre passé proche : l’humanité irait “globalement” vers des formes variées de dictature, mais dans l’ordre dispersé des expériences nationales.

    Cette hypothèse aura pour beaucoup de lecteurs quelque chose d’attristant. Mais où est-il écrit que le monde aille, de soi-même, vers plus de liberté ? Dans la définition de la démocratie, la souveraineté populaire est suffisante ; la liberté n’est pas nécessaire. Bref, comme le disait Renan : “Il se pourrait que la vérité fût triste.” Évidemment, on le voit, il parlait au conditionnel… » Retour ligne automatique
    Vanessa Codaccioni, sociologue : « A la fois surveillants et surveillés »

    « Michel Foucault a montré comment, dès les années 1970, se met en place une société de sécurité qui voit se multiplier les textes et les lois sécuritaires. Dans la “société de vigilance”, qui n’émerge qu’après les attentats du 11 septembre 2001, les populations sont à la fois “chasseuses” et “proies”. Elles sont l’objet d’une surveillance massive, généralisée et de plus en plus intrusive, comme l’a révélé Edward Snowden [en montrant l’existence de plusieurs programmes de surveillance de masse américains et britanniques, ndlr]. Mais ces populations sont aussi incitées à développer une surveillance latérale, dans toutes les sphères de la vie : à l’école, au travail, dans la rue, dans les transports en commun, sur Internet et les réseaux sociaux, parfois même au sein de la famille ou du cercle amical. Il y a ainsi un double usage sécuritaire du corps. D’une part, c’est une source directe d’informations, et donc la cible de la surveillance ou de la répression étatique (ADN, empreintes digitales, vidéosurveillance, reconnaissance faciale, etc.). D’autre part, ce corps est en permanence à l’affût. Si le plus important reste de “dire quelque chose” aux autorités, c’est-à-dire de signaler et de dénoncer des risques potentiels, jamais nos sens, et en particulier l’ouïe et la vue, n’ont autant été sollicités à des fins punitives.

    Dès lors, sommes-nous à la fois surveillants et surveillés ? Possiblement. Nous pouvons encore toutes et tous être l’objet d’une double surveillance : celle des agents de l’État et celle de nos concitoyennes et concitoyens. Mais il ne faut jamais oublier qu’elle est partielle et ciblée : certaines catégories de la population, désignées comme suspectes, déviantes, dangereuses, en sont les premières victimes. Dans le cadre de l’antiterrorisme, ce sont les musulmans qui la subissent, celle-ci se rajoutant à la stigmatisation et à la répression. Il s’agit de l’un des objectifs disciplinaires de ces appels constants à la vigilance : faire de l’autre une source d’insécurité permanente pour alimenter une suspicion mutuelle, pour désolidariser, isoler et séparer, et in fine pour accroître le contrôle de l’État. »

    Maîtresse de conférences à l’université Paris-8, Vanessa Codaccioni est l’autrice de La Société de vigilance, éd. Textuel, 160 p., 15,90 €.

    #algorithme #CCTV #drone #activisme #religion #vidéo-surveillance #COVID-19 #notation #profiling #santé #surveillance (...)

    ##santé ##LDH-France

  • In Poland, a law made loan algorithms transparent. Implementation is nonexistent.
    https://algorithmwatch.org/en/story/poland-credit-loan-transparency

    Since May 2019, and as a first in the EU, Polish consumers have the right to know in detail why a bank decided to grant or refuse them a loan, even for small amounts. But in practice, banks are still reluctant to provide such information. – “Hello, I would like to buy an Xbox One S, a game console, and pay in installments”, I am asking in a large electronics store. A saleswoman guides me to the sales pit, sits in front of a computer and begins an interview. Who do I work for and how much do I (...)

    #algorithme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #données #consommation #notation (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##profiling

  • L’« écoscore », une étiquette environnementale qui pourrait favoriser la nourriture industrielle
    https://reporterre.net/L-ecoscore-une-etiquette-environnementale-qui-pourrait-favoriser-la-nour

    Les aliments pourraient bientôt avoir eux aussi une étiquette environnementale, dite « écoscore ». Mais pour l’instant, la méthode choisie a tendance à privilégier les produits issus de l’agriculture intensive, qui pourraient être ainsi mieux notés que le bio. Si on vous propose de noter le coût écologique des produits alimentaires, quelle couleur attribueriez-vous aux œufs de poule en cage, ou à une pomme bio ? Spontanément, on pourrait penser que l’étiquette des premiers serait dans le rouge, alors que (...)

    #algorithme #écologie #biais #notation

  • Should We Use Search History for Credit Scores ? IMF Says Yes
    https://gizmodo.com/your-credit-score-should-be-based-on-your-web-history-1845912592

    With more services than ever collecting your data, it’s easy to start asking why anyone should care about most of it. This is why. Because people start having ideas like this. In a new blog post for the International Monetary Fund, four researchers presented their findings from a working paper that examines the current relationship between finance and tech as well as its potential future. Gazing into their crystal ball, the researchers see the possibility of using the data from your (...)

    #Apple #Google #Facebook #algorithme #fiscalité #historique #prédiction #GAFAM #notation (...)

    ##fiscalité ##profiling

  • The coming war on the hidden algorithms that trap people in poverty | MIT Technology Review
    https://www.technologyreview.com/2020/12/04/1013068/algorithms-create-a-poverty-trap-lawyers-fight-back

    A growing group of lawyers are uncovering, navigating, and fighting the automated systems that deny the poor housing, jobs, and basic services.

    Credit-scoring algorithms are not the only ones that affect people’s economic well-being and access to basic services. Algorithms now decide which children enter foster care, which patients receive medical care, which families get access to stable housing. Those of us with means can pass our lives unaware of any of this. But for low-income individuals, the rapid growth and adoption of automated decision-making systems has created a hidden web of interlocking traps.

    Fortunately, a growing group of civil lawyers are beginning to organize around this issue. Borrowing a playbook from the criminal defense world’s pushback against risk-assessment algorithms, they’re seeking to educate themselves on these systems, build a community, and develop litigation strategies. “Basically every civil lawyer is starting to deal with this stuff, because all of our clients are in some way or another being touched by these systems,” says Michele Gilman, a clinical law professor at the University of Baltimore. “We need to wake up, get training. If we want to be really good holistic lawyers, we need to be aware of that.”

    “This is happening across the board to our clients,” she says. “They’re enmeshed in so many different algorithms that are barring them from basic services. And the clients may not be aware of that, because a lot of these systems are invisible.”

    Government agencies, on the other hand, are driven to adopt algorithms when they want to modernize their systems. The push to adopt web-based apps and digital tools began in the early 2000s and has continued with a move toward more data-driven automated systems and AI. There are good reasons to seek these changes. During the pandemic, many unemployment benefit systems struggled to handle the massive volume of new requests, leading to significant delays. Modernizing these legacy systems promises faster and more reliable results.

    But the software procurement process is rarely transparent, and thus lacks accountability. Public agencies often buy automated decision-making tools directly from private vendors. The result is that when systems go awry, the individuals affected——and their lawyers—are left in the dark. “They don’t advertise it anywhere,” says Julia Simon-Mishel, an attorney at Philadelphia Legal Assistance. “It’s often not written in any sort of policy guides or policy manuals. We’re at a disadvantage.”

    The lack of public vetting also makes the systems more prone to error. One of the most egregious malfunctions happened in Michigan in 2013. After a big effort to automate the state’s unemployment benefits system, the algorithm incorrectly flagged over 34,000 people for fraud. “It caused a massive loss of benefits,” Simon-Mishel says. “There were bankruptcies; there were unfortunately suicides. It was a whole mess.”

    Low-income individuals bear the brunt of the shift toward algorithms. They are the people most vulnerable to temporary economic hardships that get codified into consumer reports, and the ones who need and seek public benefits. Over the years, Gilman has seen more and more cases where clients risk entering a vicious cycle. “One person walks through so many systems on a day-to-day basis,” she says. “I mean, we all do. But the consequences of it are much more harsh for poor people and minorities.”

    She brings up a current case in her clinic as an example. A family member lost work because of the pandemic and was denied unemployment benefits because of an automated system failure. The family then fell behind on rent payments, which led their landlord to sue them for eviction. While the eviction won’t be legal because of the CDC’s moratorium, the lawsuit will still be logged in public records. Those records could then feed into tenant-screening algorithms, which could make it harder for the family to find stable housing in the future. Their failure to pay rent and utilities could also be a ding on their credit score, which once again has repercussions. “If they are trying to set up cell-phone service or take out a loan or buy a car or apply for a job, it just has these cascading ripple effects,” Gilman says.

    “Every case is going to turn into an algorithm case”

    In September, Gilman, who is currently a faculty fellow at the Data and Society research institute, released a report documenting all the various algorithms that poverty lawyers might encounter. Called Poverty Lawgorithms, it’s meant to be a guide for her colleagues in the field. Divided into specific practice areas like consumer law, family law, housing, and public benefits, it explains how to deal with issues raised by algorithms and other data-driven technologies within the scope of existing laws.

    Rapport : https://datasociety.net/wp-content/uploads/2020/09/Poverty-Lawgorithms-20200915.pdf

    #Algorithme #Pauvreté #Credit_score #Notation

  • Sous pression, Microsoft rétropédale sur son logiciel de surveillance des salariés
    https://korii.slate.fr/tech/microsoft-retropedale-controverse-logiciel-surveillance-espionnage-salar

    Le score de productivité ne pourra plus être utilisé de manière individuelle. À peine quelques semaines après avoir lancé son outil pour mesurer la productivité des salariés (on vous en avait parlé pas plus tard que le 1er décembre), Microsoft fait marche arrière et apporte plusieurs changements à son score de productivité intégré aux logiciels et applications Microsoft 365. Sur son site officiel, la firme américaine annonce qu’elle va procéder à des modifications concernant les données privées, premier (...)

    #Microsoft #algorithme #ProductivityScore #notation #surveillance #travail

  • Microsoft’s New ‘Productivity Score’ Lets Your Boss Monitor How Often You Use Email And Attend Video Meetings
    https://www.forbes.com/sites/rachelsandler/2020/11/25/microsofts-new-productivity-score-lets-your-boss-monitor-how-often-you-use-email-and-attend-video-meetings/?sh=2a82f4801a46

    At Microsoft’s MSFT +1% annual Ignite conference in October, the company previewed a slick new tool called Productivity Score. During the virtual presentation, a senior product manager said the feature provides “insights that transform how work gets done” by showing employers how workers use Microsoft 365 services like Outlook, Teams, SharePoint and OneDrive. Productivity Score officially launched less than a month later to little fanfare, but a closer look at what data Microsoft lets (...)

    #Microsoft #algorithme #ProductivityScore #notation #surveillance #travail #télétravail

  • Productivity Score : le logiciel Microsoft qui surveille les salariés
    https://korii.slate.fr/biz/productivity-score-logiciel-microsoft-qui-surveille-salaries-surveillanc

    Chaque activité est enregistrée et donne un certain nombre de points. Les jeux vidéo, les applications sur nos téléphones et les réseaux sociaux nous ont rendu accro aux doses de dopamine que délivrent notifications, likes et micro-accomplissements constants. Microsoft l’a bien compris, et a intégré cette mécanique dans son nouveau software d’évaluation de la productivité : le Productivity Score. Soixante-douze critères sont ainsi évalués puis compilés dans plusieurs catégories. Combien de fois (...)

    #Microsoft #algorithme #Windows #notation #surveillance #télétravail #travail

  • Faut-il se méfier du « score de productivité » proposé par Microsoft pour doper l’efficacité des entreprises ?
    https://www.franceinter.fr/faut-il-se-mefier-du-score-de-productivite-propose-par-microsoft-pour-do

    Le géant américain Microsoft propose désormais aux entreprises d’améliorer leur efficacité grâce à un « score de productivité », calculé avec les données de travail des salariés. Mais la pertinence et l’utilisation de ces données pose question, alors que le télétravail est privilégié à cause de la crise sanitaire. Le « score de productivité » est un « outil » présenté par le géant Microsoft en octobre et qui, selon le géant américain, doit permettre au manager « de comprendre comment son entreprise fonctionne », et d’ (...)

    #Microsoft #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #notation #surveillance #télétravail #travail (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##visioconférence

  • La société automatisée au risque de l’opacité
    http://www.internetactu.net/a-lire-ailleurs/la-societe-automatisee-au-risque-de-lopacite

    L’association européenne et militante Algorithm Watch (@algorithmwatch) vient de publier son rapport annuel sur la société automatisée. Son constat est sévère : les systèmes de prise de décision automatisés se généralisent dans la plus grande opacité. Fabio Chiusi (@fabiochiusi) dans son introduction revient sur le fiasco de la notation automatisée des résultats du bac 2020 britannique… Il rappelle que le choix du gouvernement pour un système automatique de production de résultats était motivé par (...)

    #algorithme #technologisme #consentement #prédiction #discrimination #enseignement #notation #santé (...)

    ##santé ##AlgorithmWatch
    /assets/images/logo_ia.png

  • Benefitting whom ? An overview of companies profiting from “digital welfare”
    https://www.privacyinternational.org/long-read/4144/benefitting-whom-overview-companies-profiting-digital-welfare

    Could private companies be the only ones really profitting from digital welfare ? This overview looks at the big players. Key findings Companies like IBM, MasterCard and credit scoring agencies are developping programmes that reshape our access to welfare. A particular example is the case of the London Counter Fraud Hub were an investigation by Privacy International revealed how several London councils (Camden, Croydon, Ealing and Islington) were exploiting data about their own residents (...)

    #IBM #MasterCard #PrivacyInternational #notation #pauvreté #profiling #fraude #BigData #SmartCity #santé #Sodexo #Visa #carte #prison (...)

    ##pauvreté ##santé ##algorithme

  • The Obama Campaign’s Digital Masterminds Cash In
    https://www.nytimes.com/2013/06/23/magazine/the-obama-campaigns-digital-masterminds-cash-in.html

    Earlier this year, senior members of President Barack Obama’s campaign team took a trip to Las Vegas. Nevada holds a special place in Obama-wonk lore as the place where his monthslong strategy of defeating Hillary Clinton by slowly and surely amassing delegates emerged. But the operatives were not there in March for any political reason. They were there to make money — specifically to land what they hoped would be the first corporate client for their new advertising business, Analytics Media (...)

    #algorithme #élections #marketing #notation #profiling #BigData

  • How Bristol assesses citizens’ risk of harm – using an algorithm
    https://www.theguardian.com/uk-news/2019/oct/15/bristol-algorithm-assess-citizens-risk-harm-guide-frontline-staff

    Almost a quarter of population of city is processed by algorithm used to guide actions of frontline staff Day and night, an IBM computer algorithm whirrs through reams of data about the lives of 170,000 citizens of Bristol. The city council’s servers teem with information from the police, NHS, Department for Work and Pensions and the local authority about these individuals’ work, alcohol, drug and mental health problems, crime, antisocial behaviour, school absences, teenage pregnancies and (...)

    #NHS #algorithme #criminalité #police #données #discrimination #notation #profiling #santé (...)

    ##criminalité ##santé ##surveillance
    https://i.guim.co.uk/img/media/3f79dd805115e74d5fe5ef542bb92e3df3354ff4/0_0_5218_3131/master/5218.jpg

  • Ant Group, la firme qui a uberisé la Chine, prête à faire sauter la bourse
    https://korii.slate.fr/biz/ant-group-ipo-bourse-record-jack-ma-uberise-chine-alipay-app-banque-assu

    Propriétaire de l’application Alipay, elle devrait lever 29,5 milliards d’euros lors de son arrivée sur les marchés. L’histoire commence en 2004 : Alibaba Group, le géant chinois du e-commerce, crée le système de paiement Alipay pour sa plateforme Taobao, le « eBay chinois » –à l’époque, celle-ci n’accepte que les paiements en liquide. En 2009, Alipay lance son application mobile et commence à utiliser les codes QR. Ant Financial (future Ant Group) lance ensuite Yu’e Bao, qui sera un temps le plus grand (...)

    #Alibaba #Taobao #Alipay #payement #QRcode #domination #bénéfices #finance #AntGroup #notation (...)

    ##SocialCreditSystem

  • ICO takes enforcement action against Experian after data broking investigation
    https://ico.org.uk/about-the-ico/news-and-events/news-and-blogs/2020/10/ico-takes-enforcement-action-against-experian-after-data-broking-investigati

    The Information Commissioner’s Office (ICO) orders the credit reference agency Experian Limited to make fundamental changes to how it handles people’s personal data within its direct marketing services. The enforcement notice follows a two-year investigation by the ICO into how Experian, Equifax and TransUnion used personal data within their data broking businesses for direct marketing purposes. A complaint from the campaign group Privacy International to the ICO also raised concerns about (...)

    #Equifax #Experian #Transunion #consentement #BigData #DataBrokers #marketing #notation #PrivacyInternational (...)

    ##ICO-UK

  • Pourquoi s’est-on mis à tout noter ? avec Vincent Coquaz
    https://www.franceinter.fr/emissions/le-code-a-change/pourquoi-s-est-on-mis-tout-noter-avec-vincent-coquaz

    Etoiles et notes sont apparues un jour sur Internet pour classer des produits. Aujourd’hui c’est nous qui sommes classés : bons payeurs, bons citoyens. Ce que ça raconte de notre monde. Comme beaucoup de gens qui ont regardé la saison 3 de Black Mirror, j’ai été horrifié par le premier épisode, “Chute libre”. Il raconte un monde où les gens se notent les uns les autres, constamment. D’un petit mouvement du pouce sur leur téléphone, ils passent leur temps à se mettre des étoiles les uns aux autres : au (...)

    #GigEconomy #notation #surveillance #travail

  • L’obsession de la notation
    https://www.franceinter.fr/emissions/grand-bien-vous-fasse/grand-bien-vous-fasse-24-septembre-2020

    Demain serons nous tous notés ? Comment vivons nous d’être noté en permanence ? Est-ce essentiel pour améliorer les services ? Et si on se notait les uns les autres, en permanence. Et si demain, on évaluait notre degré de citoyenneté face à la pandémie du coronavirus. Et si notre boulanger nous attribuait des étoiles pour mesurer notre taux de sympathie. Et si notre médecin notait notre capacité à suivre un traitement jusqu’au bout ? Et si nos enfants notaient notre parentalité, notre conjoint notre (...)

    #FoodTech #GigEconomy #notation #surveillance #travail

  • The Hottest App in China Teaches Citizens About Their Leader — and, Yes, There’s a Test
    https://www.nytimes.com/2019/04/07/world/asia/china-xi-jinping-study-the-great-nation-app.html

    CHANGSHA, China — Inside a fishing gear store on a busy city street, the owner sits behind a counter, furiously tapping a smartphone to improve his score on an app that has nothing to do with rods, reels and bait. The owner, Jiang Shuiqiu, a 35-year-old army veteran, has a different obsession : earning points on Study the Great Nation, a new app devoted to promoting President Xi Jinping and the ruling Communist Party — a kind of high-tech equivalent of Mao’s Little Red Book. Mr. Jiang spends (...)

    #Alibaba #Apple #algorithme #smartphone #manipulation #microtargeting #notation #profiling (...)

    ##surveillance

  • Suzhou introduced a new social scoring system, but it was too Orwellian, even for China
    https://algorithmwatch.org/en/story/suzhou-china-social-score

    A city of 10 million in eastern China upgraded its Covid-tracking app to introduce a new “civility” score. It had to backtrack after a public outcry. Suzhou is a city with a population of 10 million, located 100 km west of Shanghai. It is well known for its classic Chinese gardens and, since last week, one of the most Orwellian social scoring experiments to date. The municipal government launched a pilot for a new social behavior scoring system on 3 September 2020, also referred to as the (...)

    #WeChat #Weibo #algorithme #Alipay #AlipayHealthCode #consentement #COVID-19 #notation #santé #SocialCreditSystem #AlgorithmWatch (...)

    ##santé ##surveillance