• Amazon Mentor app tracks and disciplines delivery drivers
    https://www.cnbc.com/2021/02/12/amazon-mentor-app-tracks-and-disciplines-delivery-drivers.html

    Key Points Amazon confirmed last week it has started putting AI-equipped cameras in some delivery vans. It already requires contracted delivery workers to use an app, called Mentor, that tracks and scores their driving behavior. Like the cameras, the app is designed to improve driver safety, but Amazon employees say the technology produces errors and, in some cases, tracks their location after they clock out from work. Last week, Amazon triggered privacy concerns when it confirmed it’s (...)

    #Amazon #algorithme #comportement #notation #surveillance #travail

  • « Les chiffres ne mentent pas » : mythe d’objectivité et construction des données (Le travail des données 1/3)
    https://linc.cnil.fr/les-chiffres-ne-mentent-pas-mythe-dobjectivite-et-construction-des-donnees

    Les données sont souvent considérées comme le reflet autonome, neutre et objectif des réalités qu’elles décrivent. Elles sont pourtant le fruit d’un travail de construction complexe, auquel participent de nombreux professionnels. La prise en compte et l’étude de ces activités, réalisées en back-office des plateformes du web par des data scientists ou des microtravailleurs et travailleuses du clic, peut permettre de poser un regard différent sur les enjeux de protection de la vie privée des internautes. (...)

    #Spotify #algorithme #cookies #technologisme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #données #émotions #comportement #microtargeting #profiling (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##CNIL

  • Technopolice, villes et vies sous surveillance
    https://www.laquadrature.net/2021/01/03/technopolice-villes-et-vies-sous-surveillance

    Depuis plusieurs années, des projets de « Smart Cities » se développent en France, prétendant se fonder sur les nouvelles technologies du « Big Data » et de l’« Intelligence Artificielle » pour améliorer notre quotidien urbain. Derrière ce vernis de ces villes soi-disant « intelligentes », se cachent des dispositifs souvent dangereusement sécuritaires. D’une part, car l’idée de multiplier les capteurs au sein d’une ville, d’interconnecter l’ensemble de ses réseaux et d’en gérer l’entièreté depuis un centre (...)

    #Cisco #Gemalto #Huawei #Thalès #algorithme #capteur #CCTV #PARAFE #SmartCity #biométrie #facial #reconnaissance #vidéo-surveillance #comportement #surveillance #BigData #TAJ #Technopolice (...)

    ##LaQuadratureduNet

  • China : Big Data Program Targets Xinjiang’s Muslims
    https://www.hrw.org/news/2020/12/09/china-big-data-program-targets-xinjiangs-muslims

    Leaked List of Over 2,000 Detainees Demonstrates Automated Repression (New York) – A big data program for policing in China’s Xinjiang region arbitrarily selects Turkic Muslims for possible detention, Human Rights Watch said today. A leaked list of over 2,000 detainees from Aksu prefecture provided to Human Rights Watch is further evidence of China’s use of technology in its repression of the Muslim population. The big data program, the Integrated Joint Operations Platform (IJOP), apparently (...)

    #algorithme #biométrie #racisme #comportement #discrimination #HumanRightsWatch

  • « Thomas B. professeur harcèle et agresse vos élèves » : une figure de la gauche intellectuelle mise en cause à l’#Université_de_Paris

    Une dizaine d’élèves ont contacté « Le Monde » pour accuser #Thomas_Branthôme, maître de conférences en histoire du droit. Provisoirement suspendu, il dément toute forme de harcèlement ou d’#abus.

    Le collage en lettres majuscules à la peinture noire, typique des collectifs féministes, s’est étalé le 21 novembre sur les fenêtres des anciens locaux de l’Ecole nationale de la statistique et de l’administration économique (Ensae) à Malakoff (Hauts-de-Seine), en face du campus de droit de l’Université de Paris : « Thomas B. professeur harcèle et agresse vos élèves », suivi d’un « Harceler ≠ enseigner » (« harceler n’est pas enseigner »). Derrière ce prénom et cette initiale, Thomas Branthôme, maître de conférences en histoire du droit qui enseigne dans cette université depuis 2014.


    Une dizaine d’élèves du même campus ont également contacté Le Monde pour mettre en cause l’enseignant. D’autres nous ont été signalées par une association féministe du campus et le collectif de colleuses L’Amazone. Des jeunes femmes de Sciences Po Paris et de l’université d’Evry nous ont aussi confié leur récit. Toutes font état de pratiques qu’elles ont ressenties comme du harcèlement sexuel, voire, dans au moins un cas, comme une agression sexuelle. Plusieurs ont alerté les autorités universitaires, qui sont en train d’instruire le dossier en vue d’une procédure disciplinaire. Aucune n’a saisi la justice pour l’heure. L’enseignant, de son côté, dément toute forme de harcèlement ou d’abus.
    « De plus en plus vulgaire »

    A 38 ans, Thomas Branthôme est un spécialiste de l’histoire de la République, un intellectuel reconnu, régulièrement invité lors des universités d’été de La France insoumise, de la Gauche républicaine et socialiste – le parti de l’ancien membre du Parti socialiste Emmanuel Maurel. On le retrouve également dans la mouvance du média en ligne Le vent se lève et au comité scientifique du think tank Institut Rousseau. Dans toutes les universités où il a donné des cours, M. Branthôme connaît un vrai engouement de la part des jeunes, qui se pressent à ses cours.

    https://www.lemonde.fr/societe/article/2020/12/09/harcelement-sexuel-une-figure-montante-de-la-gauche-intellectuelle-mise-en-c
    #France #harcèlement_sexuel #université #facs #grands_hommes #ESR

    #paywall

    –—

    Ajouté à la métaliste dédiée à harcèlement sexuel dans les universités :
    https://seenthis.net/messages/863594

    • Les garçons innocents et l’obsédé coupable

      Les propos orduriers et les comportements graves et inadmissibles à l’égard d’étudiantes de Thomas Branthôme, MCF en histoire du droit, ont été très récemment exposés par Sylvia Zappi dans Le Monde. Ils ont suscité beaucoup de réactions. Ce qui nous inquiète, c’est à quel point les réactions se focalisent sur son #vocabulaire et ses #expressions_grossières, plus que sur son #comportement lui-même, et les conditions qui lui ont permis de se conduire ainsi dans la plus totale #impunité durant des années, entre l’#Université_d’Evry, #Science_Po et désormais Université de Paris.

      Nous craignons que ne se mette en branle un mécanisme analogue à celui que décrit si bien Valérie Rey-Robert dans son ouvrage sur la #culture_du_viol , et qui relève de la mythologie du viol que des théoriciennes et chercheuses déconstruisent depuis les années 19703 : plus on décrit le violeur comme violent, grossier, brutal, plus les hommes « normaux » se sentent dédouanés dans leurs petites manœuvres et petites pressions, leurs chantages feutrés pour extorquer des rapports sexuels—le #violeur, c’est toujours l’autre, celui qui menace d’un couteau dans une ruelle obscure ! Plus on nous décrit « l’enseignant-chercheur queutard » comme agressant verbalement des étudiantes avec des propos crus, plus les enseignants-chercheurs « ordinaires », juste modérément sexistes, avec des propos policés, s’autorisent à penser qu’eux, c’est différent : eux draguent leurs étudiantes, mais dans le respect…

      Nous comprenons pleinement la stratégie des étudiantes et de la journaliste qui rapporte leurs témoignages : ces mots crus, orduriers, sont ce qui fait réagir l’opinion, qui serait sinon prompte à normaliser le comportement de Branthôme, ou à insister sur le fait qu’après tout, les étudiantes sont majeures et en mesure de consentir à une relation entre adultes… Faisant fi de la déontologie professionnelle et du fait que non, jamais, la relation entre enseignant et étudiante, même à l’université, n’est une relation entre égaux. Elle se construit nécessairement dans une relation d’#autorité et de #domination car même si on n’est plus directement dans une relation où l’un note le travail de l’autre, on peut toujours se trouver dans une relation où l’un peut nuire à l’autre : en refusant une lettre de recommandation, en le critiquant auprès de collègues ou de partenaires professionnels, bref, en limitant par différents gestes ses opportunités académiques et professionnelles…

      Des Branthôme mais policés, amicaux, souriants, l’université en compte des dizaines sinon des milliers. Ils ne sont pas seulement ceux qui découragent et finalement expulsent de l’enseignement supérieur des milliers de jeunes femmes qui se sentent humiliées, ou auxquelles on a fait comprendre que leur seule place et leur seul rôle dans cet univers théoriquement dédié au savoir et à sa transmission était d’illuminer et de décorer, d’assurer le « repos du guerrier », et non de participer comme actrice pleine et entière de la production et aux avancées de la connaissance. Tous ces Branthôme au petit pied, en train de s’exonérer à qui mieux mieux en ce moment parce qu’eux, ils ne réclament pas de but en blanc des fellations aux étudiantes, infligent pourtant de la #violence_symbolique sans vouloir (se) l’admettre.

      Nous en avons eu un exemple aussi concret que sordide avec la tribune de #Camille_Zimmerman qui explicite en septembre 2020 pourquoi elle arrête sa thèse commencée à l’université de Lorraine : sous le titre d’« #emprise », elle décrit un processus de #prédation, qui commence pour elle en fin de licence, qui entame la confiance en elle à mesure qu’elle gravit les échelons diplômants, son malaise, son inquiétude quand elle observe que le processus est répété — et la rupture qui est moins consécutive au suicide de sa camarade doctorante que dans la prise de conscience que l’institution ne lui procurerait aucune protection — celle de l’existence d’une #mise_au_silence, d’une « #omerta ». Il faut penser que ce comportement n’est restreint ni à l’Université de Lorraine, ni à l’Université de Paris. Bien au contraire, l’étude des décisions disciplinaires d’appel au CNESER — qu’Academia publie régulièrement — manifeste combien étudiant∙es et femmes ne sont pas des sujets à part entière des universités.

      Un article a aidé l’une d’entre nous à mettre des mots sur des pensées confuses : « She Wanted to Do Her Research. He Wanted to Talk ‘Feelings” » (https://www.nytimes.com/2016/03/06/opinion/sunday/she-wanted-to-do-her-research-he-wanted-to-talk-feelings.html), texte de #Hope_Jahren paru dans le New York Times en 2016. Cette biologiste explique très clairement la façon dont nombre de ses jeunes collègues féminines sont confrontées à des #avances non pas sexuelles, mais « sentimentales » de la part de collègues masculins — ce que résume bien son titre « Elle voulait faire sa recherche, lui voulait parler de ses ‘sentiments’ ». Jahren montre très bien comment ces avances, même présentées en mots choisis, avec des #compliments délicats, des aveux d’une irrésistible attraction… Contribuent au #malaise des femmes dans cet univers de la recherche, et les font fuir. Sans doute les collègues qui ont ce genre de comportement ne pensent-ils pas qu’ils constituent du harcèlement sexuel, et pourtant : les effets sont les mêmes.

      Il semble donc important d’insister sur le fait que, quand bien même Thomas Branthôme aurait choisi un registre de langue châtié pour faire ses avances, c’est bien son comportement qui pose problème : il est celui d’un grand nombre de collègues qui ne comprennent pas qu’on ne peut en toute #déontologie_professionnelle entretenir de #relation_intime avec des étudiant∙es qui, même si on ne les a pas en cours, peuvent être à la merci du #pouvoir dont disposent inévitablement les enseignant∙es-chercheur∙ses, en termes de réseau professionnel, d’influence… En science biologique, en droit, comme dans tous les autres champs disciplinaires.

      Plus on met en avant les paroles « monstrueuses » de TB, inadmissibles dans la bouche d’un enseignant-chercheur, plus on conforte l’idée du « monstre » obsédé sexuel, de la brebis galeuse, et plus on occulte, donc, le caractère systémique, institutionnalisé et normalisé de #relations_asymétriques dont les étudiantes paient chèrement le prix, en #dépression, en #suicide, en abandon de leurs études ou de leurs recherches.

      Combien de sections disciplinaires, à l’avenir, statueront sur le fait que « ce n’est pas si grave » par rapport à l’affaire Branthôme, parce que les propos graveleux sont absents d’une attitude volontairement séductrice pourtant tout aussi répréhensible ? Et encore, seulement si les victimes ont le courage de se faire connaître et de se plaindre, si elles sont suffisamment soutenues dans cette démarche par des collectifs féministes comme le Clasches qui font un travail extraordinaire.

      https://academia.hypotheses.org/29429

      ping @_kg_

  • Town halls harvest millions of personal details including if you’re being unfaithful or in debt
    https://www.dailymail.co.uk/news/article-8994911/Town-halls-harvest-millions-personal-details-including-youre-unfaithful

    The Covid data spies paid to know ALL your secrets : Town halls harvest millions of highly personal details including if you’re being unfaithful or having unsafe sex A private firm inked deals with local authorities to gather data that can be used to predict who is likely to break lockdown, creating risk analyses for households The system, called Covid OneView, is produced by data analytics firm Xantura Councils said the aim is to help identify those most at risk from coronavirus MPs have (...)

    #consentement #données #émotions #comportement #COVID-19 #profiling #santé

    ##santé

  • « Safe City » de Marseille : on retourne à l’attaque
    https://www.laquadrature.net/2020/12/10/safe-city-de-marseille-on-retourne-a-lattaque

    Nous repartons à l’attaque contre la « Safe City » de Marseille. Le projet de vidéosurveillance automatisée, que nous avions déjà essayé d’attaquer sans succès en janvier dernier, est en effet toujours d’actualité, et ce malgré le changement de majorité à la mairie et les critiques de la CNIL. Nous déposons donc un nouveau recours devant le tribunal administratif de Marseille pour stopper ce projet dangereux et illégal – alors que la loi « Sécurité Globale » discutée au Parlement cherche justement à (...)

    #algorithme #CCTV #biométrie #facial #reconnaissance #vidéo-surveillance #comportement #surveillance #CNIL #LaQuadratureduNet #température #masque (...)

    ##SmartCity

  • Les possibilités de #fichage de la #police discrètement élargies par trois #décrets

    Trois décrets publiés vendredi au #Journal_Officiel, et passés quasiment inaperçus, créent la polémique et l’inquiétude des défenseurs des libertés. Ils vont permettre aux #forces_de_l'ordre et aux renseignements de collecter beaucoup plus d’#informations et des données très personnelles.

    Ficher les #opinions_politiques de certains Français, les #orientations_sexuelles, la #pratique_sportive, les #comportements_religieux, les activités sur les #réseaux_sociaux, c’est une nouvelle prérogative des forces de l’ordre, grâce à trois décrets parus vendredi en toute discrétion. Concrètement, avec ces décrets, l’exécutif élargit les possibilités de fichage de certains services de police et de #gendarmerie.

    Il ne s’agit pas, théoriquement, de collecter des données de tous les citoyens, mais, selon le décret, de personnes « susceptibles de porter atteinte aux #intérêts_fondamentaux_de_la_Nation, à l’#intégrité_du_territoire, ou des #institutions de la République. Ou encore de constituer une #menace_terroriste ».

    Données relatives aux #troubles_psychologiques, psychiatriques

    Ces nouvelles données, concernant de nouvelles personnes, viendront grossir trois fichiers : le fichier #Prévention_des_atteintes_à_la_sécurité_publique (#PASP), le fichier #Gestion_de_l’information_et_prévention_des_atteintes_à_la_sécurité_publique (#GIPASP) et le fichier #Enquêtes_administratives_liées_à_la_sécurité_publique (#EASP). Ce dernier fichier est utilisé pour réaliser les #enquêtes_administratives_préalables à certains recrutements dans la #fonction_publique.

    Des voix s’élèvent aujourd’hui pour s’inquiéter du périmètre - notamment - très large accordé au recueil des données, sachant que pour les terroristes potentiels, il existe d’autres fichiers. Il est question aussi de mieux surveiller les personnes morales et les groupements, autrement dit les #associations.

    Quant au contenu des données collectées : ce ne sont plus seulement les activités politiques, religieuses, syndicales, mais dorénavant également les #opinions_politiques, les #convictions_philosophiques, religieuses, ainsi que les comportements et habitudes de vie, les #pratiques_sportives... Autant de notions intrusives, sur lesquelles la CNIL a demandé des précisions. Avis non pris en compte.

    Le #renseignement_territorial pourra également enregistrer des données relatives aux troubles psychologiques ou psychiatriques qui peuvent être considérées comme des atteintes au #secret_médical.

    « Les fichiers de police dont on parle ne sont pas des #fichiers_judiciaires, ce sont des fichiers qui sont gérés par la police, seule, pour la police, explique Arthur Messaud, porte-parole de La Quadrature du Net. Ce ne sont pas non plus des fichiers de #contre-terrorisme. On est dans la lutte contre les sectes, la lutte contre les hooligans et la lutte contre les violences autour des trafics de drogue, mais aussi toutes les luttes, les #violences ou les #manifestations non déclarées autour des #mouvements_idéologiques. Il faut bien comprendre que là, quand je dis #violence, c’est tel qu’interprété par la police. »

    « Ce n’est pas un #juge qui va qualifier des #infractions_pénales. Non, c’est la police toute seule pour ces renseignements à elle, qui va surveiller des gens qu’elle considère comme dangereux pour le pouvoir en place » - Arthur Messaud

    Le décret comporte également un couplet sur les réseaux sociaux

    Surveillance actée des activités sur ces réseaux avec possibilité de recueil des #pseudonymes et #identifiant, pas les mots de passe, uniquement les informations mises en ligne volontairement en source ouverte. Mais il sera possible de capter les commentaires et surtout les #photos, #reconnaissance_faciale non exclue.

    La CNIL souligne que le résultat devra être recoupé et qu’il ne suffira en aucune manière à lui seul à fonder une décision à l’égard de la personne.

    Ces décrets apparaissent comme une nouvelle encoche dans nos #libertés. A minima une bombe à retardement si notre histoire démocratique venait à vaciller.

    Il y a 12 ans, le #fichier_Edwige prévoyait de collecter - déjà - des informations sur les opinions des personnes fichées. Des mobilisations citoyennes avaient permis de modifier la donne et le gouvernement avait autorisé le recueil de fichier uniquement sur les activités politiques des personnes et non plus leurs #opinions.

    https://www.franceinter.fr/societe/les-possibilites-de-fichage-de-la-police-discretement-elargit-par-trois-
    #décret #France #données_personnelles

    ping @etraces

  • Extraction des données par les GAFAM : aller au-delà de l’indignation - Par Evgeny Morozov
    https://lvsl.fr/extraction-des-donnees-par-les-gafam-aller-au-dela-de-lindignation-par-evgeny-m

    Chaque jour, des milliards de données sont extraites de nos outils digitaux et réutilisées par les géants du numérique à des fins de ciblage publicitaire. La critique de ce capitalisme de surveillance a été popularisé dans les médias, notamment par Shoshana Zuboff, professeur émérite à la Harvard Business School, et auteur d’un ouvrage éponyme. Elle dénonce inlassablement les dangers que font courir les GAFAM sur l’autonomie des citoyens. Mais faut-il s’indigner de la soif insatiable de Google ou d’Amazon (...)

    #Apple #Google #Amazon #Facebook #Uber #algorithme #manipulation #technologisme #bénéfices #BigData #comportement #GigEconomy #publicité (...)

    ##publicité ##surveillance

  • Students Have To Jump Through Absurd Hoops To Use Exam Monitoring Software
    https://www.vice.com/en/article/88anxg/students-have-to-jump-through-absurd-hoops-to-use-exam-monitoring-software

    Last month, as students at Wilfrid Laurier University, in Ontario, Canada, began studying for their midterm exams, many of them had to memorize not just the content on their tests, but a complex set of instructions for how to take them. The school has a student body of nearly 18,500 undergraduates, and is one of many universities that have increasingly turned to exam proctoring software to catch supposed cheaters. It has a contract with Respondus, one of the many exam proctoring companies (...)

    #biométrie #facial #reconnaissance #vidéo-surveillance #comportement #enseignement #surveillance #COVID-19 (...)

    ##santé

  • Driver-Facing Dash Cams Now Use A.I. to Catch Truckers On Their Phones
    https://onezero.medium.com/driver-facing-dash-cams-now-use-a-i-to-catch-truckers-on-their-phone

    ‘If the truck I’m in ever gets a camera installed in it facing me… I will stop the truck and quit on the spot’ Over the last three years, hundreds of thousands of freight trucks in the United States have been equipped with machine learning algorithms to analyze drivers’ behavior. They can detect how many times per trip drivers pick up their cellphone, get distracted while driving, or even just look fatigued when they’re behind the wheel. The tech is built into driver-facing dash cameras, which (...)

    #algorithme #CCTV #émotions #vidéo-surveillance #comportement #conducteur·trice·s #surveillance

  • Belgium - Automating Society Report 2020
    https://automatingsociety.algorithmwatch.org/report2020/belgium

    Contextualization As a result of the different governments, and the different levels of government, in Belgium (Federal and Regional), several different strategies dealing with digitization emerged in 2018. In Flanders, this strategy is called Vlaanderen Radicaal Digitaal, while in the Walloon region, it is known as Plan Numerique. In 2015, the federal government launched a strategy called Digital Belgium, but this covered more than just ADM. In 2018, the Flemish government launched an (...)

    #Accenture #Briefcam #algorithme #biométrie #éthique #facial #prédiction #reconnaissance #vidéo-surveillance #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #comportement (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##discrimination ##enseignement ##pauvreté ##santé ##sport ##surveillance ##_ ##APD-Belgique ##AlgorithmWatch

  • Shoshana Zuboff : « Nous avons besoin de nouveaux droits pour sortir du capitalisme de surveillance »
    https://aoc.media/entretien/2020/10/23/shoshana-zuboff-nous-avons-besoin-de-nouveaux-droits-pour-sortir-du-capitalis

    Sociologue et professeure émérite à la Harvard Business School, Shoshana Zuboff s’est intéressée à l’économie des big data. Alors que son dernier livre paraît en français, elle expose ici les rouages du « capitalisme de surveillance », dernier stade du capitalisme à l’ère numérique, marqué par la transformation de nos données personnelles en produits marchands. Un phénomène inquiétant qui devrait nous conduire à définir au plus vite un droit qui garantisse à chacun la souveraineté sur son expérience personnelle.

    Shoshana Zuboff enseigne à la Harvard Business School depuis 1981. Elle a publié en 1988 une analyse des transformations du travail dans In the Age of the Smart Machine : The Future of Work and Power. En 2019, elle fait paraître un livre déjà traduit en une vingtaine de langues, qui a d’ores et déjà un impact considérable sur les analyses de l’économie des big data et des plateformes, et qui vient de paraître en français aux éditions Zulma sous le titre L’âge du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir. Elle présente ici quelques points fondamentaux de l’appareil théorique proposé par son ouvrage, en même temps qu’elle discute des revendications politiques sur lesquelles il débouche. YC.

    Comment inscrivez-vous l’économie actuelle des big data et de la surveillance dans les développements du capitalisme ?Retour ligne automatique
    Il y a un modèle de longue durée que suit le capitalisme et qu’a décrit Karl Polanyi dans La Grande Transformation dans une analyse restée célèbre. Ce modèle est en fait très complexe. Il implique que le capitalisme évolue et se développe en prenant des objets qui existent en dehors de la dynamique du marché, et en les insérant dans cette dynamique du marché, en les transformant en objets qui peuvent être vendus et achetés. C’est ce que Polanyi appelait des marchandises fictionnelles. Le capitalisme industriel a fait cela en visant la nature, une nature qui vivait innocemment sa propre vie. Les prairies, les rivières et les forêts se sont trouvées intégrées à la dynamique du marché et transformées en sources de matières premières, en sources d’énergie, en biens fonciers et immobiliers, en choses qui pouvaient être vendues et achetées. Au cours de cette marchandisation, nous perdons la trace de la nature comme nature, et nous ne pouvons plus la percevoir que sous sa forme marchande. En parlant de « marchandises fictionnelles », Polanyi attirait l’attention sur le fait que la nature n’est pas en elle-même une marchandise, qu’elle n’est pas née marchandise : elle est devenue marchandise à cause du capitalisme.Retour ligne automatique
    Avançons maintenant, très rapidement, vers le XXIe siècle, le siècle du numérique. Nous sommes dans la Silicon Valley, parmi les start-up, en l’an 2000 ou 2001. Il s’y produit ce qu’on appelle « l’effondrement de la bulle Internet » : le marché se rend compte que toutes ces petites start-up ont été surévaluées. Les investisseurs se retirent et beaucoup de start-up font faillite. Cela s’explique en partie par le fait qu’elles n’ont pas trouvé de moyen de monétiser leurs activités. Elles sont sur Internet, elles ont des clients et elles offrent des produits et des services, mais elles ne gagnent pas d’argent : elles n’ont pas trouvé leur marchandise fictionnelle. Pendant un moment, ça a été la panique dans la Silicon Valley. Quelle sera la « marchandise fictionnelle » de la nouvelle économie, qui pourra être vendue et achetée, qui produira ex nihilo des revenus et du profit ? Personne, personne ne savait. Personne ne comprenait. Personne n’avait la réponse.

    C’est là le tournant de la nouvelle forme de capitalisme que vous appelez le « capitalisme de surveillance » ?Retour ligne automatique
    Exactement, et voilà comment s’est opéré ce tournant. La réponse – et c’est Larry Page qui l’a formulée en 2001, je crois, pour Google – c’était ce qu’on a appelé « les données personnelles ». Mais plus précisément, c’était l’expérience humaine personnelle. À un moment donné, on a compris que l’expérience humaine personnelle était le nouveau bois vierge, la nouvelle forêt, la nouvelle prairie inexploitées – pouvant être monétisée et transformée en marchandise fictionnelle. Une nouvelle source de matière première qui pouvait être revendiquée unilatéralement et qui pouvait être introduite dans la dynamique du marché. Donc, à la place de la nature, c’était la nature humaine : notre expérience personnelle. Et par là-même, ce qui s’est passé, c’est qu’on a considéré l’expérience humaine personnelle comme une matière première disponible, traduite en données comportementales par les processus informatiques de ces entreprises.Retour ligne automatique
    L’important est de comprendre que ces données comportementales étaient alors implicitement définies comme confidentielles. Elles étaient à nous sans même qu’on pense qu’elles pouvaient être appropriées par autrui. Eh bien, elles se sont trouvées transférées, déplacées dans ce que je considère comme une nouvelle « chaîne d’approvisionnement ». Chaque interface avec des entreprises comme Google, chaque interface activée par Internet s’est fait intégrer dans une chaîne d’approvisionnement. Et maintenant, on a des réseaux de chaînes d’approvisionnement complexes, qui commencent avec la recherche et la navigation en ligne, mais qui s’étendent désormais à toute activité en ligne.Retour ligne automatique
    Les données comportementales prétendument confidentielles, qui circulent dans les chaînes d’approvisionnement, où vont-elles ? Eh bien, comme toutes les matières premières, elles vont dans une usine. Mais c’est une usine de l’ère numérique, nommée « intelligence artificielle », « apprentissage machine » ou « apprentissage automatique ». Et ce qui se passe dans cette nouvelle forme d’usine, c’est la même chose que ce qui se passe dans toutes les usines : on fabrique des produits. Sauf que dans le cas présent, ce sont des produits informatiques.

    Quelle est la spécificité de ces produits mis en circulation par le capitalisme de surveillance ? Qu’est-ce donc qui s’y vend ?Retour ligne automatique
    Pendant des années, quand j’essayais de comprendre les fondements du capitalisme de surveillance, ses mécanismes fondamentaux, je regardais toute la journée des vidéos de gens comme Eric Schmidt ou Larry Page – les dirigeants de Google – en train de donner une conférence, de discuter avec des développeurs, de prononcer des discours ou de parler de leurs résultats financiers. Et cela m’a fasciné d’entendre si souvent Eric Schmidt répéter : « Vous savez, nous ne vendrons jamais vos informations personnelles ». Je m’asseyais à mon bureau et je pensais : pourquoi ne le fait-on pas arrêter, ou dénoncer, pour avoir tout simplement menti aux gens ? Je veux dire : comment peut-il affirmer « nous ne vendrons jamais vos informations personnelles », alors que c’est précisément ce qu’ils font ?Retour ligne automatique
    Mais peu à peu, je me suis plutôt efforcée de répondre à la question suivante, qui est un peu différente : comment se fait-il que ce que répétait Eric Schmidt est finalement vrai ? J’ai décidé de supposer qu’il n’a pas le culot de mentir à tout le monde encore et encore. Et c’est ainsi que j’ai pu comprendre le surplus comportemental. C’est cela que monétise le capitalisme de surveillance. Car il s’avère que ce qui se trouve dans ces chaînes d’approvisionnement ne se limite pas aux « informations personnelles », que je donne sciemment à Google, Facebook, Amazon, Microsoft, Twitter ou autre. Ces informations personnelles que je donne sciemment en échange de services gratuits ne représentent qu’une infime partie des informations qu’ils ont sur moi. Leur modèle repose sur le fait que, bien au-delà de ces seules informations personnelles, ils passent en revue chacune des empreintes que je laisse dans le monde numérique, chaque trace que je laisse de mon activité sur Internet, où que ce soit. Ils extraient toutes ces traces et les analysent pour leurs signaux prédictifs.Retour ligne automatique
    L’important est qu’ils ont découvert très tôt – et on peut le voir dans leurs demandes de brevet – qu’ils pouvaient rechercher des informations personnelles sur l’ensemble de l’Internet, où que l’on soit. Et ils pouvaient rassembler toutes ces informations, et, à partir de ces données, les scientifiques disent être capables d’induire ou de déduire des informations vous concernant et que vous n’aviez jamais eu l’intention ni la conscience de divulguer : votre orientation politique, votre personnalité, votre orientation sexuelle, etc.

    C’est tout ceci qui constitue « le surplus comportemental » qui est la nouvelle matière première exploitée par le capitalisme numérique ?Retour ligne automatique
    Oui, et un an plus tard, lorsque Facebook est apparu, la collecte d’informations ne s’est pas cantonnée à ce que vous dites dans un post. Elle s’est rapidement étendue au fait que vous y utilisez des points d’exclamation, ou des puces. Ce n’est pas seulement les photos de votre visage qui vous taguent, c’est l’analyse des muscles de votre visage pour déceler les micro-expressions, parce que celles-ci trahissent vos émotions et que vos émotions prédisent fortement votre comportement. Et puis c’est la saturation des couleurs des photos, pas seulement le contenu des photos. Toutes ces données, ce sont des surplus comportementaux, qui donnent des informations. En tant qu’utilisateurs, nous ne pouvons pas les identifier, et nous n’avons aucune idée de la manière dont ils sont extraits.Retour ligne automatique
    Je résume : ce qui entre dans les tuyaux du capitalisme de surveillance, ce qui arrive dans ses nouvelles usines, c’est en partie des informations que nous avons sciemment données (les « données personnelles »), mais ce sont surtout ces énormes flux de surplus comportementaux qu’ils nous soustraient. Cela a commencé avec nos traces laissées en ligne, mais maintenant, cela s’étend à tous nos comportements, à tous nos déplacements, c’est le fondement de la révolution de la mobilité. En effet, si le smartphone a été inventé, c’est parce que le smartphone est devenu la mule du surplus comportemental. Chaque application que l’on installe sur son téléphone transmet le surplus comportemental – en même temps que les informations que vous avez données à l’application – dans ces « agrégateurs », dans leurs chaînes d’approvisionnement : la localisation du microphone, la caméra, les contacts, tout cela.

    Vous distinguez clairement le cas restreint des « données personnelles » des masses bien plus larges de ce que vous appelez « surplus comportemental ». Je me demande si une distinction similaire pourrait se faire entre le cas restreint de ce qu’on appelle habituellement « l’attention » et ces masses bien plus importantes que vous appelez « expérience humaine personnelle ». Cela remettrait dans une perspective très différente, et très suggestive, ce qu’on appelle « l’économie de l’attention ».Retour ligne automatique
    Oui, je pense en fait que le langage de « l’économie de l’attention » a empêché le grand public de comprendre ces phénomènes, et que c’est un concept malavisé. Pour être honnête, lorsque j’écrivais ma thèse de doctorat à Harvard en psychologie sociale dans la deuxième moitié des années 1970, on faisait notre travail de recherche et puis, dans mon département, il fallait rédiger deux études d’envergure dans ce que vous aviez choisi comme domaines de spécialité – deux articles dans les domaines de spécialité. Et j’ai choisi l’histoire du travail comme l’un de mes domaines de spécialité. J’ai écrit mon mémoire sur ce que j’ai appelé L’interaction sociale et l’histoire du travail, avec pour sous-titre L’organisation sociale de l’attention. Je commençais par parler des éthologues qui étudiaient le comportement du regard, le comportement du regard des primates en petits groupes. J’ai réinvesti ces études dans mon travail sur l’invention de l’organisation de l’usine et le contrôle de l’attention.Retour ligne automatique
    Et j’ai toujours tenu à définir l’économie de l’attention comme ce que nous faisons maintenant, dans cet entretien par Zoom : c’est une affaire de regard, souvent à plusieurs. Par exemple, nous regardons l’écran, notre attention se concentre sur l’écran – notre attention visuelle. C’est bien entendu un phénomène réel, à l’évidence – et ce n’est pas une bonne chose que nous regardions des écrans toute la journée… Mais encore faut-il mettre cela en parallèle avec une logique économique. Et c’est là que l’on fait erreur. Le fait que notre attention soit sollicitée par l’écran est un effet, non une cause. Et c’est là que l’idée d’économie de l’attention s’effondre. Le fait que notre attention soit hypnotisée, les phénomènes dit d’addiction, tous ces phénomènes sont les effets d’une cause, tout comme la désinformation. Notre vulnérabilité à la désinformation est un effet d’une cause.Retour ligne automatique
    Or la cause de ces effets est la logique économique que j’appelle le capitalisme de surveillance, avec ses lois d’airain et ses impératifs économiques. Et l’effet, c’est que le surplus comportemental est maximisé par une plus grande mobilisation de l’attention. Ainsi, le surplus comportemental – la maximisation de l’extraction du surplus comportemental – est un impératif économique. Les économies d’échelle sont un impératif économique.Retour ligne automatique
    La mobilisation de l’attention est seulement un moyen d’atteindre cet objectif. Ici aussi, en réfléchissant au surplus comportemental plutôt qu’à l’économie de l’attention, on s’aperçoit que d’énormes volumes de surplus comportementaux sont extraits à notre insu, sans que nous en ayons conscience et, surtout, sans que nous y prêtions attention. Et c’est pourquoi j’appelle cela « capitalisme de surveillance » : c’est parce que cela doit se produire d’une manière qui nous est cachée pour être efficace. Si nous le savions, nous y résisterions.

    Vous venez de mentionner les « économies d’échelle » et, dans le livre, vous passez de ce concept assez familier aux « économies de gamme » (economies of scope) et aux « économies d’actions ». De quoi s’agit-il dans ces deux derniers cas ?Retour ligne automatique
    Le principe est que la dynamique du capitalisme de surveillance est orientée vers la collecte de la totalité des données, parce que la totalité des données mène à une certitude parfaite. On a vu que le capitalisme de surveillance avait mis en place des usines de calcul, traitant le surplus comportemental, pour en tirer quoi ? Des produits de prédiction (predictive products). Ces produits de prédiction sont vendus sur des marchés à terme comportementaux (behavioral futures markets). Je les ai aussi appelés « marchés à terme humains » (human futures markets) parce que ce sont des marchés qui négocient des contrats à terme humains, tout comme nous avons des marchés pour négocier des contrats à terme sur la poitrine de porc ou sur le pétrole ou sur le blé. Alors, qu’est-ce qui se vend sur ces marchés à terme humains ? Eh bien, en gros, on vend de la certitude. C’est à cela que les programmes de prédiction aspirent : des résultats fiables pour vendre de la certitude. Quelles sont donc les dynamiques concurrentielles si vous vendez de la certitude, si vous concurrencez l’incertitude ?Retour ligne automatique
    Tout d’abord, vous avez besoin de beaucoup de données, parce que l’I.A. s’améliore avec l’échelle. Plus les algorithmes ont de données, meilleurs ils sont. Ensuite, il faut de l’envergure, toute une large gamme de données diverses entre elles, parce qu’il faut du volume mais aussi de la variété. Ces deux aspects sont en fin de compte assez faciles à comprendre. C’est effrayant de comprendre ce qu’est vraiment la variété et ce qu’est le volume de tout cela, parce que c’est tellement vaste. Mais on voit quelles sont les économies d’échelles (en extension) et de gamme (en diversité).Retour ligne automatique
    Les économies d’action nous font sortir de la métaphore du web et des écrans, pour nous faire entrer dans le monde, à savoir nos maisons, nos voitures, nos villages, nos villes, nos parcs, nos restaurants, nos cafés, etc. Il est de plus en plus difficile d’y échapper à la surveillance.Retour ligne automatique
    La concurrence pour la certitude devient un domaine toujours plus intrusif. Elle apprend à influencer notre comportement, non seulement à observer mais à intervenir activement dans le cours de nos vies ordinaires et à les régler en s’y insinuant de diverses manières – indices subliminaux, nudges, dynamiques de comparaison sociale artificielles, microciblages psychologiques, gamification, récompenses et punitions en temps réel. Tout cela, ce sont des techniques, des mécanismes utilisés sur le web et en dehors du web, dans le monde physique, pour influencer notre comportement, pour pousser notre comportement dans une certaine direction. Cela maximise la certitude, cela maximise les résultats attendus des prédictions et devient donc plus lucratif dans la compétition pour la certitude. Il s’agit donc d’un tout nouveau domaine, qui relève d’économies d’actions.

    On pourrait vous objecter que ces dispositifs d’influence ne datent pas des années 2000, mais remontent à bien plus loin.Retour ligne automatique
    Les gens me disent en effet souvent : « Nous avons de la publicité persuasive depuis le milieu du XIXe siècle. Il n’y a rien de nouveau là-dedans ». Ce genre de choses me rend folle, parce que c’est la rengaine « plus ça change, plus c’est la même chose ». Mais non, ce n’est pas « la même chose » ! Il faut être attentif aux circonstances matérielles toujours changeantes dans lesquelles la vie humaine se déploie. Et ces circonstances matérielles produisent un changement qualitatif, et pas seulement quantitatif, dans les conditions d’existence. Il est très dangereux de dire « Oh, ce n’est que de la persuasion ». Nous disposons maintenant d’une infrastructure numérique ubiquitaire qui imprègne nos vies en ligne et nos vies dans le monde réel. Et cette infrastructure omniprésente peut être mobilisée pour influencer notre comportement, nos attitudes, nos pensées, nos sentiments. Et cela est absolument sans précédent.Retour ligne automatique
    C’est pourquoi je parle de la naissance d’un pouvoir instrumentarien, en essayant d’expliquer pourquoi nous ne le comprenons pas et combien il est essentiel pour nous de le comprendre. Parce que c’est une nouvelle forme de pouvoir et qu’il s’inscrit dans nos sociétés, dans nos vies et dans notre politique. En effet, ces économies d’action, la capacité à l’échelle d’utiliser ces mécanismes – indices subliminaux, dynamiques de comparaison artificielles, microciblages psychologiques, etc. –, d’utiliser ces mécanismes et de les réorienter à des fins politiques, c’est précisément ce que nous avons vu avec Cambridge Analytica. Cela a fait peur à tout le monde. C’est ce que nous avons vu se produire – nous le savons à présent – lors de la campagne de Trump en 2016, et cela a peut-être fait la différence lors de l’élection de Trump en 2016. C’est cela, les mécanismes et les méthodes inventés par le capitalisme de surveillance et la compétition pour la certitude, réquisitionnés par des agents politiques, axés sur des objectifs politiques, qui pourraient bien être responsables de la présidence de Trump.

    Outre les usages politiques des technologies de surveillance, j’aimerais revenir brièvement sur la nature du capitalisme dont il est question ici. Quel est son lien avec les développements récents de la finance, et avec ce que des analystes comme Randy Martin ont appelé « la financiarisation de la vie quotidienne ».Retour ligne automatique
    S’il n’y avait pas eu de financiarisation, je ne suis pas sûre que le capitalisme de surveillance aurait pu voir le jour. La financiarisation a grandement participé à insinuer dans la mentalité humaine l’idée selon laquelle le capitalisme tournerait moins autour de la vente de biens et de services que sur des activités complètement dérivées – sur des sortes de produits dérivés, des valeurs plus abstraites, dérivées de vrais produits et services. En effet, c’est à ce moment-là que les entreprises ont commencé à gagner de l’argent non plus sur leurs produits, mais sur le financement de leurs produits. Les entreprises ont commencé à gagner de l’argent non plus grâce à leurs services, mais grâce à leurs investissements de portefeuille dans des produits financiers – ce qu’elles pouvaient se permettre grâce au capital généré par leurs services. Voilà comment la financiarisation nous a appris à penser la capitalisation comme étant intrinsèquement parasitaire et dérivée.Retour ligne automatique
    Le capitalisme de surveillance va plus loin dans cette voie. Toute la logique d’accumulation – la richesse s’accumulant effectivement dans le capitalisme de surveillance – est entièrement dérivée, entièrement parasitaire. Cela commence par un surplus comportemental arraché à notre expérience. Notre expérience, en tant que telle, n’a aucun intérêt pour le capitalisme de surveillance. Guérir ma maladie, cela n’a aucun intérêt. Les capitalistes de surveillance veulent juste savoir ce que je cherche sur le web au jour le jour. M’aider à obtenir un prêt hypothécaire équitable, cela n’a aucun intérêt. Ils veulent seulement savoir le travail que j’ai fait pour essayer d’obtenir un prêt hypothécaire. Qu’est-ce que j’ai cherché ? Et comment cela se combine-t-il à mes données démographiques, à mon crédit et à mes achats ? Ils font tout cela en créant des profils sur moi. Mais personne ne revient en arrière pour dire : « Hé, laissez-moi vraiment vous aider à obtenir un prêt hypothécaire honnête pour vous et votre famille. » Cela n’a absolument aucun intérêt pour eux. C’est pourquoi je parle de surplus comportementaux « arrachés » : ce qui reste derrière, c’est la carcasse de nos vies présentes. C’est comme prendre l’ivoire d’un éléphant. Ce qui reste, c’est moi et ma vie avec tous mes problèmes et mes difficultés.Retour ligne automatique
    Quand Henry Ford a inventé le modèle T, il essayait en fait de résoudre des problèmes de la vie réelle de vraies personnes (des gens qui voulaient une voiture au prix qu’ils étaient en mesure de payer – des agriculteurs et des commerçants). Certes, Henry Ford était une personne horrible : il était antisémite et misogyne, et il était détestable à bien des égards. Mais le capitalisme industriel fondé sur la production de masse s’est étendu dans le monde entier parce qu’il résout les problèmes réels de gens réels. C’est ce dont Schumpeter a fait l’éloge.Retour ligne automatique
    À présent, le secteur de la Tech reprend une expression de Schumpeter, celle de « destruction créative », et s’en sert comme insigne d’honneur pour son activité parasitaire. Alors qu’en fait Schumpeter ne parlait pas seulement de « destruction créative ». Schumpeter parlait de mutations économiques qui, selon sa propre théorie, profitent à tout le monde, donc augmentent la classe moyenne, augmentent la prospérité des gens ordinaires : c’est ce qui définit la mutation économique dans son esprit. Or ce n’est pas du tout ce qu’a fait le capitalisme de surveillance – dont le modèle de profit est parasitaire en ne s’intéressant qu’aux produits dérivés de nos expériences personnelles.

    Que dites-vous aux défenseurs de Google qui pourraient dire : « OK, Google extrait mon surplus comportemental pour profiter de ses produits dérivés, mais il me rend aussi un service réel : lorsque je fais une recherche, je peux trouver quelque chose facilement. Henry Ford a produit des voitures et Google produit une capacité d’accès à des informations pertinentes sur l’énorme quantité de données sur Internet » ?Retour ligne automatique
    Henry Ford a produit des voitures – et maintenant nous avons le réchauffement climatique ! Autrement dit : nous avons des externalités. Cela aurait pu être différent, mais nous devons maintenant faire face à ces externalités. Tout ce que nous avons sera remis en question pour compenser ces externalités. Maintenant, pour être juste envers Ford, il n’avait aucune idée de tout cela, nous n’avions pas la science du climat, donc il ne l’a pas fait exprès.Retour ligne automatique
    Google nous permet de faire des recherches Internet et c’est formidable, mais cela s’accompagne aussi d’externalités. Cependant, contrairement à Henry Ford, nous savons maintenant identifier ces externalités. Nous connaissons les externalités provenant de concentrations de connaissances sans précédent, provoquant des concentrations de pouvoir sans précédent – générant un pouvoir que j’appelle « instrumentarien ». Nous connaissons les objectifs visant à remplacer la démocratie par une gouvernance informatique, par une gouvernance algorithmique. Nous avons déjà bien vu cela, dans de nombreux cas, et ce n’est qu’un début. Nous connaissons les objectifs de la modification des comportements. Nous voyons les effets de la désinformation, nous voyons les effets de l’addiction. Nous en voyons les effets chez nos enfants : diminution de l’identité, de la capacité de jugement moral indépendant. Nous sommes face à ce chaos. Dans mon pays, en ce moment, le chaos dans lequel nous nous trouvons à l’approche de cette élection très importante est dû à 100 % aux externalités du capitalisme de surveillance.Retour ligne automatique
    Ma réponse à cela est donc : faisons des recherches sur Internet, et utilisons les réseaux sociaux, faisons-le, faisons appel à la technologie numérique – mais faisons-le sans les externalités du capitalisme de surveillance. Utilisons la technologie numérique d’une manière qui réponde réellement à nos problèmes, qui subvienne aux besoins des gens et qui réponde aux véritables besoins sociaux. Pas cette activité parasitaire dans laquelle toutes ces prédictions qui sortent des usines de calcul sont centrées sur moi, mais pas pour moi. Elles sont vendues à un groupe restreint d’entreprises clientes qui parient sur mon comportement futur afin d’améliorer leurs revenus et leurs profits.Retour ligne automatique
    Vous avez donc ces marchés qui profitent de mes problèmes et qui parient sur mon avenir. Vous avez les entreprises de la Tech, les capitalistes de la surveillance qui profitent de ma vie sans y contribuer. Et vous avez les investisseurs qui bénéficient de la capitalisation boursière, la capitalisation boursière construite sur ces opérations parasitaires, fondamentalement illégitimes. Il y a donc un groupe restreint de personnes qui s’enrichissent, et le reste d’entre nous qui observe cette concentration croissante de connaissances, de richesses et de pouvoir, en se disant « Mais qu’est-ce qui se passe ici ? Et nous, alors ? »

    Comment nous émanciper de ce pouvoir instrumentarien et extractiviste, qui profite de l’exploitation de nos expériences personnelles en générant des externalités funestes ? Autrement dit, quel agenda politique émane de votre analyse du capitalisme de surveillance ?Retour ligne automatique
    Il semble parfois n’y avoir aucun espoir, mais ce n’est pas le cas. La première chose à savoir, c’est que le capitalisme de surveillance n’a que vingt ans. La démocratie est plus ancienne. La raison pour laquelle le capitalisme de surveillance a connu un tel succès depuis vingt ans est qu’il n’y a pratiquement pas eu de loi pour lui faire obstacle. À la marge, un peu ici et là, dans quelques pays, le RGPD (règlement général sur la protection des données) a pu être un vague obstacle, comme certains ont pu le penser : mais c’est juste un début, et certainement pas une fin. Nous n’avons donc pas vraiment eu de loi pour faire obstacle au capitalisme de surveillance. Si nous avions vraiment pris des mesures en ce sens ces vingt dernières années et que nous étions toujours dans cette situation, je serais beaucoup plus pessimiste. Mais ce n’est pas le cas.Retour ligne automatique
    Mon point de vue est le suivant : qu’il s’agisse de l’antitrust ou du RGPD, nous n’avons pas encore le type de lois et de paradigmes de réglementation (de chartes, des droits et de structures institutionnelles) dont nous avons besoin pour rendre cet avenir numérique compatible avec la démocratie. Et cela veut dire que nous n’avons pas les outils, les outils juridiques dont nous avons besoin pour suspendre et interdire les mécanismes clés du capitalisme de surveillance. Il est donc essentiel de comprendre ces mécanismes, car, une fois qu’on les a compris, la perspective de les suspendre et de les interdire n’est pas aussi écrasante.Retour ligne automatique
    Par exemple, j’ai soutenu que les marchés qui font le commerce de l’avenir humain (markets that trade in human futures) devraient être illégaux. Les marchés qui font le commerce d’organes humains sont illégaux. Les marchés qui font le commerce d’êtres humains sont illégaux. Et ils sont illégaux parce que nous savons qu’ils entraînent indubitablement des conséquences néfastes, dangereuses et antidémocratiques. Ils entraînent indubitablement des préjudices qui sont intolérables pour une société démocratique. Et je soutiens que les marchés, le commerce de l’avenir humain, entraînent également des dommages qui sont intolérables pour la démocratie. Nous pouvons donc rendre ces marchés illégaux.Retour ligne automatique
    Et si nous le faisons, nous supprimons complètement les incitations financières. Nous éliminons de toute cette sphère ce que j’appelle le « dividende de la surveillance », ce dividende parasitaire. Et nous disons alors : « Donnez-nous la technologie numérique, mais donnez-nous la technologie numérique sous une forme qui nous respecte, qui respecte notre droit de revendiquer la souveraineté sur notre propre expérience personnelle ».Retour ligne automatique
    Du côté de la demande, donc, nous avons ces marchés à terme où il y a des incitations financières qui créent une demande pour les produits de prédiction. Du côté de la demande, il y a donc un moyen d’intervenir et de changer réellement la dynamique. Et si nous le faisions, cela ouvrirait instantanément le paysage concurrentiel à une véritable innovation. Pour tous les gens qui sont là – car il y en a littéralement des centaines dans ma boîte de réception chaque semaine qui ont des idées sur la façon dont nous devrions faire de la recherche et sur la façon dont nous devrions utiliser la technologie numérique pour résoudre toutes sortes de problèmes sans le capitalisme de surveillance –, nous pouvons facilement imaginer le numérique sans le capitalisme de surveillance. En revanche, nous ne pouvons pas imaginer le capitalisme de surveillance sans le numérique. La suspension de ces incitations financières ouvre donc la voie à une nouvelle ère d’innovation numérique. Tant mieux.

    Voilà pour ce qui concerne le côté de la demande. Comment peut-on agir du côté de l’offre ?Retour ligne automatique
    Le côté de l’offre, c’est celui où l’expérience humaine personnelle est considérée comme matière première gratuite, dont on cherche à extraire des surplus comportementaux. Cette activité que l’on appelle capitalisme de surveillance est conçue pour être secrète, pour nous maintenir dans l’ignorance. Si vous la décrivez à n’importe quel enfant de huit ans, il répondra : « Mais c’est du vol ! » Et il aura raison. Le système actuel est un permis de voler. Les capitalistes de surveillance ont eu le droit de voler, tout l’édifice est construit sur une base illégitime, à savoir nous prendre sans demander. Donc, du côté de l’offre, nous devons définir de nouveaux droits, que j’appelle des droits épistémiques.Retour ligne automatique
    Depuis que j’ai publié le livre, j’ai beaucoup écrit sur l’égalité épistémique, sur les droits épistémiques, et sur la justice épistémique. Les questions principales sont : Qui sait ? Qui décide ? Qui décide qui sait ? Qui décide qui décide ? Ce sont des questions de connaissances, d’autorité et de pouvoir.Retour ligne automatique
    Avant le pouvoir instrumentarien, on considérait comme un droit élémentaire le fait que je sois le seul à connaître mon expérience personnelle – et peut-être que je la partage avec un ami, ou avec ma famille, ou avec mon partenaire, mais c’est moi qui décidais. Je savais et je décidais. Et il n’y avait pas vraiment matière à contestation à ce sujet, car la vie humaine était ainsi faite. Les humains ont une vie limitée dans le temps : on mourait, parfois nos vies étaient traduites en histoire ou en mythe, et puis plus tard il restait des photos et des lettres… Le fait de savoir quand décider qui sait ou ne sait pas ne devait pas être codifié en un droit juridique formel.Retour ligne automatique
    Mais maintenant, c’est le cas. Les droits sont codifiés dans l’histoire, tout comme le droit à la liberté d’expression a été codifié dans l’histoire. Je veux dire que quiconque est né sans handicap particulier peut parler. Si vous êtes en bonne santé d’un point de vue physiologique, vous pouvez parler. Vous n’avez pas besoin d’un droit à la parole, pas plus que vous n’avez besoin d’un droit de vous lever et de vous asseoir (tant que vous êtes en bonne santé). Mais à un certain moment de l’histoire de l’humanité, à cause de la pression politique, de la nature changeante de la société et nos conditions d’existence, nous avons dû codifier un droit à la liberté d’expression. Et nous l’avons fait.Retour ligne automatique
    Maintenant, au XXIe siècle, nous devons définir un droit qui garantisse à chacun la souveraineté sur son expérience personnelle – à savoir : je connais et je décide qui connaît mon expérience personnelle. Si je veux que mon expérience personnelle soit traduite en données, et si je veux donner ces données à un groupe qui travaille sur une forme particulière de cancer, ou à un groupe qui cherche à trouver des solutions contre la pauvreté dans mon quartier ou dans ma communauté, ce sont des décisions que je prends.

    C’est là, pour vous, le défi principal de notre époque ?Retour ligne automatique
    Tout à fait. Du côté de l’offre, nous avons besoin d’un nouveau droit. Du côté de la demande, nous avons besoin de nouvelles lois et de nouveaux paradigmes de réglementation. Et ces mesures ne sont pas difficiles à mettre en place. Ne pas les mettre en place, ce serait comme si nous étions arrivés à la fin du XXe siècle et qu’il n’y avait pas de lois sur le travail des enfants ; ou bien qu’il n’y avait pas de droit d’adhérer à un syndicat ou de négocier collectivement ; pas de droit de grève ; pas d’institutions qui encadrent les institutions démocratiques, qui encadrent la sécurité des salariés, leurs salaires ; pas d’institutions qui encadrent la sécurité de nos aliments, de nos médicaments, de nos bâtiments, de notre environnement ; pas de filets de sécurité en matière de santé, de retraite et de vieillissement. Imaginez que l’on ait vécu au XXe siècle sans rien de tout cela. Le XXe siècle aurait été un siècle de ténèbres, de souffrance, d’oligarchie, de servitude.Retour ligne automatique
    C’est là où nous en sommes aujourd’hui. Nous nous dirigeons vers un avenir numérique sans les protections dont nous avons besoin. Et mon argument est que, Dieu merci, ce n’est pas la fin du XXIe siècle. C’est encore le début. Nombre de ces protections dont nous disposions au XXe siècle ne sont pas apparues avant la troisième et la quatrième décennie. Je suis donc convaincue à présent que cette décennie, la troisième décennie du XXIe siècle, doit être le moment où nous nous attelons à ce travail. Parce qu’une décennie de plus sans protection et sans trouver une nouvelle voie pour l’avenir deviendra très, très difficile – et, j’en ai bien peur, beaucoup plus violente que ce à quoi nous sommes confrontés aujourd’hui.Retour ligne automatique
    Voici donc mon appel à agir pour les législateurs, pour les citoyens, pour tous ceux qui se soucient de l’avenir de la démocratie : nous devons élaborer un modèle d’avenir numérique qui soit conforme à nos aspirations en tant que démocraties libérales. Et nous n’avons pas encore fait ce travail.

    Shoshana Zuboff, L’Âge du capitalisme de surveillance, traduit de l’anglais par Bee Formentelli et Anne-Sylvie Homassel, éditions Zulma, 2020.

    Traduit de l’anglais par Clément Duclos.

    L’enregistrement audio de cet entretien en anglais est disponible en podcast sur le site de l’EUR ArTeC.

    Yves Citton

    Professeur de littérature et médias, Université Paris 8 Vincennes-Saint-Denis, co-directeur de la revue Multitudes

    #Google #Microsoft #Amazon #Facebook #Twitter #algorithme #smartphone #technologisme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #émotions #législation #addiction (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##bénéfices ##BigData ##comportement ##GAFAM ##surveillance

  • Ce que la foule dit de nous - Mehdi Moussaïd (Fouloscopie) - YouTube
    https://www.youtube.com/watch?v=r2oiCmsCDWM

    Mehdi Moussaïd est chercheur en sciences cognitives au « Max Planck Institute » de Berlin et son but est de prédire et comprendre les mouvements de foules. Son travail est unique car s’il utilise beaucoup les sciences cognitives, il met à contribution de nombreuses autres disciplines pour pratiquer ce qu’il appelle la fouloscopie.
    Qu’est-ce qui explique les bousculades meurtrières ?
    Pourquoi le comportement des piétons diffère-t-il selon les pays ?
    Peut-on comparer les Hommes à des bancs de poissons ?
    Quels enseignements tirer de Facebook et des réseaux sociaux ?

    Notre avenir est forcement collectif, en tout cas pour ce qui est des grandes questions traitées dans ce podcast. Et quand bien même nous sommes des individus apparemment libres de nos choix, nous sommes d’une part largement influencés par le comportement des autres et d’autre part, la somme de nos actions individuelles donne parfois des résultats inattendus. Mieux comprendre la foule peut donc nous aider mieux réfléchir à notre destin commun, à comment le modifier ou comment s’y préparer.

    https://www.youtube.com/watch?v=r2oiCmsCDWM

    #foule #monde #collectif #organisation #comportement #sociologie

  • We need to rethink social media before it’s too late. We’ve accepted a Faustian bargain
    https://www.theguardian.com/commentisfree/2020/sep/27/social-dilemma-media-facebook-twitter-society

    A business model that alters the way we think, act, and live our lives has us heading toward dystopia When people envision technology overtaking society, many think of The Terminator and bulletproof robots. Or Big Brother in George Orwell’s 1984, a symbol of external, omnipotent oppression. But in all likelihood, dystopian technology will not strong-arm us. Instead, we’ll unwittingly submit ourselves to a devil’s bargain : freely trade our subconscious preferences for memes, our social (...)

    #Google #Facebook #Instagram #Twitter #YouTube #algorithme #émotions #addiction #bénéfices #comportement #microtargeting #profiling #santé #SocialNetwork (...)

    ##santé ##surveillance
    https://i.guim.co.uk/img/media/9f77718e08e23282d272df642b39e17b91473bfb/0_543_5590_3354/master/5590.jpg

  • In Italy, an appetite for face recognition in football stadiums
    https://algorithmwatch.org/en/story/italy-stadium-face-recognition

    Right before the pandemic, the government and top sports authorities were planning a massive deployment of face recognition and sound surveillance technologies in all Italian football stadiums. The reason ? To help fight racism. At the beginning of 2020, just as the whole world was grappling with increasing evidence of the discriminatory and racist outcomes of face recognition technologies, Italy mulled its widespread adoption in football stadiums as an essential tool in the fight against (...)

    #algorithme #capteur #CCTV #biométrie #racisme #facial #reconnaissance #son #comportement #COVID-19 #écoutes #santé #sport (...)

    ##santé ##AlgorithmWatch

  • The long, complicated history of “people analytics”
    https://www.technologyreview.com/2020/08/19/1006365/if-then-lepore-review-simulmatics

    If you work for Bank of America, or the US Army, you might have used technology developed by Humanyze. The company grew out of research at MIT’s cross-disciplinary Media Lab and describes its products as “science-backed analytics to drive adaptability.” If that sounds vague, it might be deliberate. Among the things Humanyze sells to businesses are devices for snooping on employees, such as ID badges with embedded RFID tags, near-field-communication sensors, and built-in microphones that track (...)

    #BankofAmerica #Humanyze #USArmy #DoD #IBM #algorithme #capteur #RFID #militaire #compagnie #élections #prédiction #son #comportement #surveillance #travail (...)

    ##voix

  • Reconnaissance faciale : officiellement interdite, elle se met peu à peu en place
    https://www.franceinter.fr/reconnaissance-faciale-officiellement-interdite-elle-se-met-peu-a-peu-en

    Nice, Metz, Marseille... Toutes ces villes tentent d’expérimenter des dispositifs qui s’apparentent à de la reconnaissance faciale, toujours interdite en France. La Cnil veille au grain, mais n’exclut pas de rendre un avis favorable pour les Jeux olympiques de Paris en 2024. Imaginez : le 26 juillet 2024. Les Jeux olympiques de Paris débutent. Une foule compacte se presse devant les grilles d’entrée du Stade de France. À l’entrée sud, une file semble avancer plus vite que les autres. En effet, (...)

    #Atos #CapGemini #Cisco #Dassault #Datakalab #Europol #Idemia #RATP #Two-I #algorithme #Alicem #capteur #CCTV #QRcode #SmartCity #smartphone #biométrie #racisme #consentement #émotions #facial #reconnaissance #son (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##biais ##comportement ##discrimination ##enseignement ##masque ##sport ##TAJ ##bug ##CNIL ##LaQuadratureduNet

  • Bulle spéculative autour de l’intelligence artificielle au Japon
    https://www.courrierinternational.com/article/finance-bulle-speculative-autour-de-lintelligence-artificiell

    La start-up japonaise Neural Pocket, qui a développé un algorithme de reconnaissance d’images, vient de faire son entrée en Bourse. Elle démarre juste, elle perd de l’argent, et pourtant elle vaut déjà l’équivalent de 837 millions d’euros. Un exemple parmi d’autres. Une bulle spéculative est-elle en train de se former dans le secteur de l’intelligence artificielle (IA) ? La start-up japonaise Neural Pocket, qui vient tout juste d’être introduite en Bourse à Tokyo, a dépassé les 105 milliards de yens (...)

    #algorithme #CCTV #compagnie #reconnaissance #vidéo-surveillance #bénéfices #comportement #forme (...)

    ##surveillance

  • Japanese AI startup hits $1bn market cap on revenue of $3m
    https://asia.nikkei.com/Business/Markets/Japanese-AI-startup-hits-1bn-market-cap-on-revenue-of-3m

    TOKYO — A Japanese artificial intelligence startup that had its IPO last week has exceeded $1 billion in market capitalization, even though it has yet to build a solid earnings track record, in a sign that shows an overheating stock market. On Wednesday, Tokyo-based Neural Pocket surged 21% to its daily limit of 8,600 yen. Its share price continued to rise in late afternoon proprietary trading, hitting a high of 10,900 yen. The startup, which went public on the Mothers market less than a (...)

    #algorithme #CCTV #compagnie #reconnaissance #vidéo-surveillance #bénéfices #comportement #forme (...)

    ##surveillance
    https://www.ft.com/__origami/service/image/v2/images/raw/https%3A%2F%2Fs3-ap-northeast-1.amazonaws.com%2Fpsh-ex-ftnikkei-3937bb4%2Fimages

  • Paris
    https://technopolice.fr/paris

    Projet « Safe City » En mars 2017, il a été annoncé que la société Thalès voulait implémenter à La Défense sa solution « Safe City », également développée à Nice, pour en faire « le quartier d’affaires le plus sûr du monde ». Les technologies annoncées sont les suivantes : « caméras prédictives, détecteurs de coups de feu, capteurs de température ou encore détecteurs de présence » ainsi qu’un « logiciel de traitement intelligent de l’image qui permettra d’optimiser les bandes-vidéo captées par l’une des 1 200 (...)

    #Axone #RATP #Thalès #algorithme #capteur #CCTV #drone #smartphone #biométrie #aérien #facial #prédiction #reconnaissance #vidéo-surveillance #comportement #mouvement #surveillance #ConseilConstitutionnel-FR #LaQuadratureduNet #LDH-France (...)

    ##Technopolice

  • Vidéosurveillance et intelligence artificielle : le grand flou de la RATP
    https://www.mediapart.fr/journal/france/280720/videosurveillance-et-intelligence-artificielle-le-grand-flou-de-la-ratp

    Intéressée par la « vidéosurveillance automatisée », la régie publique multiplie les expérimentations avec des partenaires privés. Dernier en date : un laboratoire d’intelligence artificielle à la station Châtelet-Les Halles, sur lequel règne une grande opacité. Faute de réponses de la RATP, Mediapart a décidé de saisir la Cada pour faire respecter le droit de savoir des usagers. Elles ne scruteront plus les passants. Installées début mai à la station de métro et de RER Châtelet-Les Halles, à Paris, dans (...)

    #Axone #Datakalab #RATP #Thalès #algorithme #CCTV #biométrie #facial #reconnaissance #vidéo-surveillance #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #masque #surveillance (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##_ ##CNIL ##LaQuadratureduNet ##LDH-France ##Hypervision3D ##SmartCity ##Huawei ##comportement ##Deepomatic

  • EU data watchdog to ‘convince’ Commission to ban automated recognition tech
    https://www.euractiv.com/section/digital/news/eu-data-watchdog-argues-for-moratorium-on-recognition-technology

    Automated recognition technologies in public spaces should be temporarily banned, the EU’s institutional data protection watchdog has said, arguing in favour of a moratorium. Applications that should be outlawed for a limited period of time not only include facial recognition technologies but also software that captures “gait, fingerprints, DNA, voice, keystrokes and other biometric or behavioral signals,” the European Data Protection Supervisor said on Tuesday (30 June). EDPS head Wojciech (...)

    #algorithme #CCTV #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #biométrie #génétique #données #facial #reconnaissance #vidéo-surveillance #clavier #comportement #empreintes (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##marche ##surveillance ##voix

  • Why we’re concerned about profiling and micro-targeting in elections.
    https://privacyinternational.org/news-analysis/3735/why-were-concerned-about-profiling-and-micro-targeting-electio

    There is now an ecosystem that drives voter profiling and targeted messages, often known as micro-targeting, that accompany modern political campaigning globally. The targeted ad-supported internet is made up of thousands of companies that track and profile us all 24 hours a day- not just during election time. Key points While data driven political campaigns are not new, the granularity of data available and the potential power to sway or suppress voters through that data is. There is a (...)

    #CambridgeAnalytica/Emerdata #Facebook #Twitter #algorithme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #données #élections #prédiction #religion #BigData #comportement (...)

    ##CambridgeAnalytica/Emerdata ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##marketing ##microtargeting ##profiling ##publicité ##PrivacyInternational

  • Les règles de fonctionnement de reddit
    human_reddiquette - reddit.com
    https://www.reddit.com/wiki/human_reddiquette

    Reddiquette is an informal expression of the values of many redditors, as written by redditors themselves. Please abide by it the best you can. This is a shortened version that mainly focuses on civil discourse.
    Please do
    Remember the human . When you communicate online, all you see is a computer screen. When talking to someone you might want to ask yourself “Would I say it to the person’s face?” or “Would I get jumped if I said this to a buddy?”
    Adhere to the same standards of behavior online that you follow in real life.
    Read the rules of a community before making a submission . These are usually found in the sidebar.
    Moderate/Vote based on quality, not opinion . Well written and interesting content can be worthwhile, even if you disagree with it.
    Consider posting constructive criticism / an explanation when you downvote something, and do so carefully and tactfully.
    Use an “Innocent until proven guilty” mentality. Unless there is obvious proof that a submission is fake, or is whoring karma, please don’t say it is. It ruins the experience for not only you, but the millions of people that browse reddit every day.
    Please do not
    Post someone’s personal information, or post links to personal information. This includes links to public Facebook pages and screenshots of Facebook pages with the names still legible. We all get outraged by the ignorant things people say and do online, but witch hunts and vigilantism hurt innocent people too often, and such posts or comments will be removed. Users posting personal info are subject to an immediate account deletion. If you see a user posting personal info, please contact the admins. Additionally, on pages such as Facebook, where personal information is often displayed, please mask the personal information and personal photographs using a blur function, erase function, or simply block it out with color. When personal information is relevant to the post (i.e. comment wars) please use color blocking for the personal information to indicate whose comment is whose.
    Do not repost deleted/removed information. Remember that comment someone just deleted because it had personal information in it or was a picture of gore? Resist the urge to repost it. It doesn’t matter what the content was. If it was deleted/removed, it should stay deleted/removed.
    Be intentionally rude at all. By choosing not to be rude, you increase the overall civility of the community and make it better for all of us.
    Conduct personal attacks on other commenters. Ad hominem and other distracting attacks do not add anything to the conversation.
    Start a flame war. Just report and “walk away”. If you really feel you have to confront them, leave a polite message with a quote or link to the rules, and no more.
    Insult others. Insults do not contribute to a rational discussion. Constructive Criticism, however, is appropriate and encouraged.
    Troll. Trolling Does not contribute to the conversation.

    #Reddit #Comportement #Médias_sociaux