• Face à la haine en ligne, « l’État a confié la gestion de la liberté d’expression aux plateformes capitalistes »
    https://www.bastamag.net/Haine-en-ligne-plateforme-Pharos-loi-Avia-attentat-Conflans-moderation-Gaf

    Le gouvernement ressort les dispositions de la loi Avia censés renforcer la lutte contre les contenus haineux sur internet. Ces mesures ont pourtant été censurées par le Conseil constitutionnel en juin, car elles portent atteinte à la liberté d’expression. Explications avec Arthur Messaud, juriste à La Quadrature du Net. Depuis l’attentat de Conflans, le gouvernement cherche à relancer la loi « Avia » (du nom de la députée LREM auteure du projet de loi, Lætitia Avia), contre les contenus haineux et (...)

    #bot #algorithme #manipulation #technologisme #modération #LoiAvia #LaQuadratureduNet #ConseilConstitutionnel-FR #Facebook #Twitter (...)

    ##YouTube

  • Facebook’s Contracted Moderators Say They’re Paid to Follow Orders, Not Think - Will Oremus
    https://onezero.medium.com/facebooks-contracted-moderators-say-they-re-paid-to-follow-orders-no

    Workers say they were discouraged from speaking up when they found flaws in the company’s policies We know by now that moderating Facebook is a nightmare. We know that developing and enforcing a consistent set of rules across 2 billion users across nearly 200 countries is nigh impossible. We know that Facebook outsources the majority of the thankless task to ill-compensated contractors, who often work under mentally and psychologically grueling conditions. But this week, three people who (...)

    #Facebook #modération #GigEconomy #santé #surveillance #travail

    ##santé

  • La Silicon Valley, le nouveau centre du pouvoir mondial ?
    https://www.franceculture.fr/emissions/la-grande-table-idees/la-silicon-valley-le-nouveau-centre-du-pouvoir-mondial

    Avec Avec Shoshana Zuboff, professeure émérite à la Harvard Business School et professeure associée à la Harvard Law School, pour « L’Âge du capitalisme de surveillance » (Zulma, 2020). Shoshana Zuboff est professeure émérite à la Harvard Business School et professeure associée à la Harvard Law School. Elle s’intéresse aux nouvelles technologies depuis la fin des années 1980 : en outre, son livre sur les machines intelligentes (In the Age of the Smart Machine : The Future of Work and Power, 1988) est (...)

    #Google #Facebook #algorithme #domination #BigData #DataBrokers #GAFAM #microtargeting (...)

    ##publicité

    https://cdn.radiofrance.fr/s3/cruiser-production/2020/10/5359e3fa-9daa-4dea-b3ca-b20a7b3266d5/838_gettyimages-1262670427.jpg

  • Le monde selon Zuckerberg : la cité et le réseau
    https://quefaire.paris.fr/111203/rencontre-avec-o-ertzscheid-le-monde-selon-zuckerberg

    Dans le cadre de l’édition 2020 de Numok, le festival numérique des bibliothèques de la Ville de Paris, la médiathèque Jean-Pierre Melville recevra le chercheur et maître de conférence Olivier Ertzscheid pour une présentation de son livre "Le monde selon Zuckerberg - Portraits et préjudices" (C&F Éditions, septembre 2020). Rimbaud écrivait : « On n’est pas sérieux quand on a 17 ans ». Le web a trente ans, Facebook en a quinze. Les choses sérieuses commencent. Qu’a-t-il pu se passer pour que tourne au (...)

    #Facebook #technologisme #domination #BigData #GAFAM

  • #Mobilizon. Vos #événements. Vos groupes. Vos données.
    https://framablog.org/2020/10/27/mobilizon-vos-evenements-vos-groupes-vos-donnees

    Mobilizon, c’est notre outil libre et fédéré pour libérer nos événements et nos groupes des griffes de #Facebook. Après deux ans de travail, nous publions aujourd’hui la première version de ce logiciel, accompagnée de toute une série d’outils pour que … Lire la suite­­

    #Contributopia #ActivityPub #Communaute #contributopia #Degooglisons #Event #framameet #Framasoft #GAFAM #Innovation #Internet #MeetUp #Planet #RezoTIC

  • #Mobilizon. Your events. Your groups. Your data.
    https://framablog.org/2020/10/27/mobilizon-your-events-your-groups-your-data

    Mobilizon is our free-libre and federated tool to free events and groups from the clutches of #Facebook. After two years of work, today we are releasing the first version of this software, along with a whole series of tools so … Lire la suite­­

    #Contributopia #ActivityPub #Communaute #contributopia #Degooglisons #English #événements #Event #framameet #Framasoft #GAFAM #Innovation #Internet #MeetUp #Planet #RezoTIC

  • [Roman Photo] Visite guidée de #Mobilizon
    https://framablog.org/2020/10/27/roman-photo-visite-guidee-de-mobilizon

    « Concrètement, c’est quoi Mobilizon ? Comment cet outil libre et fédéré peut-il m’aider à progressivement me passer de #Facebook pour mes groupes, pages et #événements ? Et où je vais pour m’y retrouver, pour m’inscrire ? » Répondons à ces questions avec beaucoup d’images, … Lire la suite­­

    #Contributopia #ActivityPub #Communaute #contributopia #Degooglisons #Event #framameet #Framasoft #GAFAM #Innovation #Internet #MeetUp #Planet #RezoTIC

  • [Photo Novel] Guided tour of #Mobilizon
    https://framablog.org/2020/10/27/photo-novel-guided-tour-of-mobilizon

    « OK, so, what is Mobilizon ? How can this free and federated tool help me to progressively do without #Facebook for my groups, pages and events ? And where do I go to get started, where do I sign up ? » Let’s answer … Lire la suite­­

    #Contributopia #ActivityPub #Communaute #contributopia #Degooglisons #English #événements #Event #framameet #Framasoft #GAFAM #Innovation #Internet #MeetUp #Planet #RezoTIC

  • Bras de fer entre Facebook et NYU sur un projet de recherche sur le ciblage publicitaire politique
    https://www.lemonde.fr/pixels/article/2020/10/24/bras-de-fer-entre-facebook-et-nyu-sur-un-projet-de-recherche-sur-le-ciblage-

    Le réseau social demande à l’université le retrait de son extension permettant de copier dans une base de données publique les publicités vues sur la plate-forme.

    Facebook a demandé à l’université de New York (NYU) de mettre fin à un projet de recherche sur ses pratiques en termes de ciblage des publicités politiques. Le réseau social estime que ce dernier enfreint son règlement en collectant les données des utilisateurs de la plate-forme.

    « Il y a une semaine, Facebook m’a envoyé une lettre pour demander de retirer [l’extension] AdObserver et de supprimer nos données », a tweeté, vendredi 23 octobre, Laura Edelson, étudiante en thèse et chercheuse au NYU Ad Observatory (Observatoire de la publicité).

    A week ago, Facebook sent me a C&D asking us to take down AdObserver and delete our data. The public has a right to… https://t.co/fh7q5TBNNYRetour ligne automatique
    -- LauraEdelson2 (@Laura Edelson)

    A dix jours de l’élection présidentielle aux Etats-Unis, le géant des réseaux sociaux est plus que jamais scruté et critiqué pour son rôle dans la campagne, notamment la façon dont les groupes politiques se servent des outils à leur disposition sur Facebook pour influencer des électeurs.

    Ciblage publicitaire

    « Le public a le droit de savoir comment les pubs politiques sont ciblées, donc nous n’obéirons pas à cette requête », a fait valoir Laura Edelson.

    L’extension (plug-in) AdObserver peut être installée sur un navigateur Internet et copie les publicités vues sur Facebook dans une base de données publique, à des fins de transparence et de recherche sur le ciblage publicitaire, c’est-à-dire quels profils sont visés par quels types d’annonces.

    « Nous avons informé NYU il y a des mois qu’un projet de récolte des informations Facebook des gens enfreignait nos règles, a répondu Joe Osborne, un porte-parole du groupe. Notre bibliothèque publicitaire, consultée par 2 millions de personnes tous les mois, y compris NYU, fournit plus de transparence sur les publicités politiques que la télévision, la radio ou toute autre plate-forme numérique. »

    Algorithmes de transparence faillibles

    L’entreprise californienne, après s’être montrée très permissive en la matière, a largement durci ses règles en termes de publicités politiques depuis un an. Elle a notamment interdit les tentatives de sape du processus électoral, ou certaines déclarations racistes ou xénophobes.

    Par ailleurs, aucune nouvelle publicité politique ne pourra être diffusée sur ses plates-formes dans la semaine précédant l’élection, et toutes les publicités sur des sujets de société ou de politique seront interdites aux Etats-Unis à la fermeture des bureaux de vote le 3 novembre.

    Mais « nos analyses montrent que les algorithmes de transparence de Facebook sont faillibles et laissent régulièrement passer des pubs politiques, qui ne sont alors pas incluses dans les archives », a précisé Laura Edelson sur le site du projet. Facebook a donné jusqu’à fin novembre à NYU pour mettre fin à ce projet, sans préciser les conséquences dans le cas contraire.

    #Facebook #censure #données #microtargeting #publicité

    ##publicité

  • The Battle That Will Define Big Tech for Decades - Will Oremus
    https://onezero.medium.com/the-battle-that-will-define-big-tech-for-decades-141f192b86d5

    Google’s antitrust case won’t reshape the industry. But it’s the start of something that might. The Department of Justice’s antitrust lawsuit against Google got a lot of attention this week, and understandably so. It mirrors the landmark antitrust case against Microsoft two decades ago, which stands as the prototypical example of the U.S. government grappling with a big tech company’s power. But it is also, in many ways, a narrow case : It focuses exclusively on Google’s dominance of internet (...)

    #Alphabet #Google #Microsoft #DoJ #Facebook #Twitter #procès #domination #modération #BigData #GAFAM #microtargeting #surveillance (...)

    ##FTC

  • The Lawfare Podcast : Maria Ressa on the Weaponization of Social Media
    https://www.lawfareblog.com/lawfare-podcast-maria-ressa-weaponization-social-media

    On this episode of Lawfare’s Arbiters of Truth series on disinformation, Evelyn Douek spoke with Maria Ressa, a Filipino-American journalist and co-founder of Rappler, an online news site based in Manila. Maria was included in Time’s Person of the Year in 2018 for her work combating fake news, and is currently fighting a conviction for “cyberlibel” in the Philippines for her role at Rappler. Maria and her fight are the subject of the film, “A Thousand Cuts,” released in virtual cinemas this (...)

    #Facebook #manipulation #harcèlement

  • Facebook Manipulated the News You See to Appease Republicans, Insiders Say
    https://www.motherjones.com/media/2020/10/facebook-mother-jones

    Sources tell us the platform tweaked its code to help right-wing publishers and throttle sites like Mother Jones. Near the close of the first year of the Trump presidency, executives at Facebook were briefed on some major changes to its News Feed—the code that determines which of the zillions of posts on the platform any one of us is shown when we look at Facebook. The story the company has publicly told is that it was working to “bring people closer together” by showing us more posts from (...)

    #Facebook #algorithme #manipulation #élections #extrême-droite #discrimination

  • Facebook s’oppose à un projet de recherche sur le ciblage publicitaire politique
    https://www.mediapart.fr/journal/fil-dactualites/241020/facebook-s-oppose-un-projet-de-recherche-sur-le-ciblage-publicitaire-polit

    Facebook a demandé à l’université de New York (NYU) de mettre fin à un projet de recherche sur ses pratiques en termes de ciblage des publicités politiques, parce qu’il enfreint son règlement en collectant les données des utilisateurs de la plateforme.

    Facebook a demandé à l’université de New York (NYU) de mettre fin à un projet de recherche sur ses pratiques en termes de ciblage des publicités politiques, parce qu’il enfreint son règlement en collectant les données des utilisateurs de la plateforme.

    « Il y a une semaine, Facebook m’a envoyé une lettre pour nous demander de retirer (l’extension) AdObserver et de supprimer nos données », a tweeté vendredi Laura Edelson, étudiante en thèse et chercheuse du NYU Ad Observatory (« observatoire de la publicité »).

    A dix jours des élections américaines, le géant des réseaux sociaux est plus que jamais scruté et critiqué pour son rôle dans la campagne et la façon dont différents groupes politiques se servent des outils à leur diposition sur Facebook pour influencer des électeurs.

    « Le public a le droit de savoir comme les pubs politiques sont ciblées, donc nous n’obéirons pas à cette requête », poursuit Laura Edelson avant d’inviter chacun à installer AdObserver via un lien.

    L’extension (« plugin ») peut être installée sur un navigateur internet et copie les publicités vues sur Facebook dans une base de données publique, à des fins de transparence et de recherche sur le ciblage publicitaire, c’est-à-dire quels profils sont visés par quels types d’annonces.

    « Nous avons informé NYU il y a des mois qu’un projet de récolte des informations Facebook des gens enfreignait nos règles » a répondu Joe Osborne, un porte-parole du groupe.

    « Notre bibliothèque publicitaire, consultée par 2 millions de personnes tous les mois, y compris NYU, fournit plus de transparence sur les publicités politiques que la télévision, la radio ou toute autre plateforme numérique », a-t-il continué.

    L’entreprise californienne, après s’être montrée très permissive en la matière, a largement durci ses règles en matière de publicités politiques depuis un an.

    Elle a notamment interdit les tentatives de sape du processus électoral, ou certaines déclarations racistes ou xénophobes.

    Aucune nouvelle publicité politique ne pourra être diffusée sur ses plateformes dans la semaine précédant l’élection, et toutes les publicités sur des sujets de société ou de politique seront interdites aux Etats-Unis à la fermeture des bureaux de vote le 3 novembre.

    Mais « nos analyses montrent que les algorithmes de transparence de Facebook sont faillibles et laissent régulièrement passer des pubs politiques, qui ne sont alors pas inclues dans les archives », a indiqué Laura Edelson sur le site du projet.

    Facebook a donné jusqu’à fin novembre à NYU pour mettre fin à ce projet, sans préciser les conséquences dans le cas contraire.
    #Facebook #censure #données #élections #microtargeting #publicité

    ##publicité

  • Facebook Seeks Shutdown of NYU Research Project Into Political Ad Targeting
    https://www.morningstar.com/news/dow-jones/2020102311030/facebook-seeks-shutdown-of-nyu-research-project-into-political-ad-targe

    Facebook Inc. is demanding that a New York University research project cease collecting data about its political-ad targeting practices, setting up a fight with academics seeking to study the platform without the company’s permission. The dispute involves the NYU Ad Observatory, a project launched last month by the university’s engineering school that has recruited more than 6,500 volunteers to use a specially designed browser extension to collect data about the political ads Facebook shows (...)

    #Facebook #censure #élections #microtargeting #publicité

    ##publicité
    /assets/img/30241a1.png

  • Shoshana Zuboff : « Nous avons besoin de nouveaux droits pour sortir du capitalisme de surveillance »
    https://aoc.media/entretien/2020/10/23/shoshana-zuboff-nous-avons-besoin-de-nouveaux-droits-pour-sortir-du-capitalis

    Sociologue et professeure émérite à la Harvard Business School, Shoshana Zuboff s’est intéressée à l’économie des big data. Alors que son dernier livre paraît en français, elle expose ici les rouages du « capitalisme de surveillance », dernier stade du capitalisme à l’ère numérique, marqué par la transformation de nos données personnelles en produits marchands. Un phénomène inquiétant qui devrait nous conduire à définir au plus vite un droit qui garantisse à chacun la souveraineté sur son expérience personnelle.

    Shoshana Zuboff enseigne à la Harvard Business School depuis 1981. Elle a publié en 1988 une analyse des transformations du travail dans In the Age of the Smart Machine : The Future of Work and Power. En 2019, elle fait paraître un livre déjà traduit en une vingtaine de langues, qui a d’ores et déjà un impact considérable sur les analyses de l’économie des big data et des plateformes, et qui vient de paraître en français aux éditions Zulma sous le titre L’âge du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir. Elle présente ici quelques points fondamentaux de l’appareil théorique proposé par son ouvrage, en même temps qu’elle discute des revendications politiques sur lesquelles il débouche. YC.

    Comment inscrivez-vous l’économie actuelle des big data et de la surveillance dans les développements du capitalisme ?Retour ligne automatique
    Il y a un modèle de longue durée que suit le capitalisme et qu’a décrit Karl Polanyi dans La Grande Transformation dans une analyse restée célèbre. Ce modèle est en fait très complexe. Il implique que le capitalisme évolue et se développe en prenant des objets qui existent en dehors de la dynamique du marché, et en les insérant dans cette dynamique du marché, en les transformant en objets qui peuvent être vendus et achetés. C’est ce que Polanyi appelait des marchandises fictionnelles. Le capitalisme industriel a fait cela en visant la nature, une nature qui vivait innocemment sa propre vie. Les prairies, les rivières et les forêts se sont trouvées intégrées à la dynamique du marché et transformées en sources de matières premières, en sources d’énergie, en biens fonciers et immobiliers, en choses qui pouvaient être vendues et achetées. Au cours de cette marchandisation, nous perdons la trace de la nature comme nature, et nous ne pouvons plus la percevoir que sous sa forme marchande. En parlant de « marchandises fictionnelles », Polanyi attirait l’attention sur le fait que la nature n’est pas en elle-même une marchandise, qu’elle n’est pas née marchandise : elle est devenue marchandise à cause du capitalisme.Retour ligne automatique
    Avançons maintenant, très rapidement, vers le XXIe siècle, le siècle du numérique. Nous sommes dans la Silicon Valley, parmi les start-up, en l’an 2000 ou 2001. Il s’y produit ce qu’on appelle « l’effondrement de la bulle Internet » : le marché se rend compte que toutes ces petites start-up ont été surévaluées. Les investisseurs se retirent et beaucoup de start-up font faillite. Cela s’explique en partie par le fait qu’elles n’ont pas trouvé de moyen de monétiser leurs activités. Elles sont sur Internet, elles ont des clients et elles offrent des produits et des services, mais elles ne gagnent pas d’argent : elles n’ont pas trouvé leur marchandise fictionnelle. Pendant un moment, ça a été la panique dans la Silicon Valley. Quelle sera la « marchandise fictionnelle » de la nouvelle économie, qui pourra être vendue et achetée, qui produira ex nihilo des revenus et du profit ? Personne, personne ne savait. Personne ne comprenait. Personne n’avait la réponse.

    C’est là le tournant de la nouvelle forme de capitalisme que vous appelez le « capitalisme de surveillance » ?Retour ligne automatique
    Exactement, et voilà comment s’est opéré ce tournant. La réponse – et c’est Larry Page qui l’a formulée en 2001, je crois, pour Google – c’était ce qu’on a appelé « les données personnelles ». Mais plus précisément, c’était l’expérience humaine personnelle. À un moment donné, on a compris que l’expérience humaine personnelle était le nouveau bois vierge, la nouvelle forêt, la nouvelle prairie inexploitées – pouvant être monétisée et transformée en marchandise fictionnelle. Une nouvelle source de matière première qui pouvait être revendiquée unilatéralement et qui pouvait être introduite dans la dynamique du marché. Donc, à la place de la nature, c’était la nature humaine : notre expérience personnelle. Et par là-même, ce qui s’est passé, c’est qu’on a considéré l’expérience humaine personnelle comme une matière première disponible, traduite en données comportementales par les processus informatiques de ces entreprises.Retour ligne automatique
    L’important est de comprendre que ces données comportementales étaient alors implicitement définies comme confidentielles. Elles étaient à nous sans même qu’on pense qu’elles pouvaient être appropriées par autrui. Eh bien, elles se sont trouvées transférées, déplacées dans ce que je considère comme une nouvelle « chaîne d’approvisionnement ». Chaque interface avec des entreprises comme Google, chaque interface activée par Internet s’est fait intégrer dans une chaîne d’approvisionnement. Et maintenant, on a des réseaux de chaînes d’approvisionnement complexes, qui commencent avec la recherche et la navigation en ligne, mais qui s’étendent désormais à toute activité en ligne.Retour ligne automatique
    Les données comportementales prétendument confidentielles, qui circulent dans les chaînes d’approvisionnement, où vont-elles ? Eh bien, comme toutes les matières premières, elles vont dans une usine. Mais c’est une usine de l’ère numérique, nommée « intelligence artificielle », « apprentissage machine » ou « apprentissage automatique ». Et ce qui se passe dans cette nouvelle forme d’usine, c’est la même chose que ce qui se passe dans toutes les usines : on fabrique des produits. Sauf que dans le cas présent, ce sont des produits informatiques.

    Quelle est la spécificité de ces produits mis en circulation par le capitalisme de surveillance ? Qu’est-ce donc qui s’y vend ?Retour ligne automatique
    Pendant des années, quand j’essayais de comprendre les fondements du capitalisme de surveillance, ses mécanismes fondamentaux, je regardais toute la journée des vidéos de gens comme Eric Schmidt ou Larry Page – les dirigeants de Google – en train de donner une conférence, de discuter avec des développeurs, de prononcer des discours ou de parler de leurs résultats financiers. Et cela m’a fasciné d’entendre si souvent Eric Schmidt répéter : « Vous savez, nous ne vendrons jamais vos informations personnelles ». Je m’asseyais à mon bureau et je pensais : pourquoi ne le fait-on pas arrêter, ou dénoncer, pour avoir tout simplement menti aux gens ? Je veux dire : comment peut-il affirmer « nous ne vendrons jamais vos informations personnelles », alors que c’est précisément ce qu’ils font ?Retour ligne automatique
    Mais peu à peu, je me suis plutôt efforcée de répondre à la question suivante, qui est un peu différente : comment se fait-il que ce que répétait Eric Schmidt est finalement vrai ? J’ai décidé de supposer qu’il n’a pas le culot de mentir à tout le monde encore et encore. Et c’est ainsi que j’ai pu comprendre le surplus comportemental. C’est cela que monétise le capitalisme de surveillance. Car il s’avère que ce qui se trouve dans ces chaînes d’approvisionnement ne se limite pas aux « informations personnelles », que je donne sciemment à Google, Facebook, Amazon, Microsoft, Twitter ou autre. Ces informations personnelles que je donne sciemment en échange de services gratuits ne représentent qu’une infime partie des informations qu’ils ont sur moi. Leur modèle repose sur le fait que, bien au-delà de ces seules informations personnelles, ils passent en revue chacune des empreintes que je laisse dans le monde numérique, chaque trace que je laisse de mon activité sur Internet, où que ce soit. Ils extraient toutes ces traces et les analysent pour leurs signaux prédictifs.Retour ligne automatique
    L’important est qu’ils ont découvert très tôt – et on peut le voir dans leurs demandes de brevet – qu’ils pouvaient rechercher des informations personnelles sur l’ensemble de l’Internet, où que l’on soit. Et ils pouvaient rassembler toutes ces informations, et, à partir de ces données, les scientifiques disent être capables d’induire ou de déduire des informations vous concernant et que vous n’aviez jamais eu l’intention ni la conscience de divulguer : votre orientation politique, votre personnalité, votre orientation sexuelle, etc.

    C’est tout ceci qui constitue « le surplus comportemental » qui est la nouvelle matière première exploitée par le capitalisme numérique ?Retour ligne automatique
    Oui, et un an plus tard, lorsque Facebook est apparu, la collecte d’informations ne s’est pas cantonnée à ce que vous dites dans un post. Elle s’est rapidement étendue au fait que vous y utilisez des points d’exclamation, ou des puces. Ce n’est pas seulement les photos de votre visage qui vous taguent, c’est l’analyse des muscles de votre visage pour déceler les micro-expressions, parce que celles-ci trahissent vos émotions et que vos émotions prédisent fortement votre comportement. Et puis c’est la saturation des couleurs des photos, pas seulement le contenu des photos. Toutes ces données, ce sont des surplus comportementaux, qui donnent des informations. En tant qu’utilisateurs, nous ne pouvons pas les identifier, et nous n’avons aucune idée de la manière dont ils sont extraits.Retour ligne automatique
    Je résume : ce qui entre dans les tuyaux du capitalisme de surveillance, ce qui arrive dans ses nouvelles usines, c’est en partie des informations que nous avons sciemment données (les « données personnelles »), mais ce sont surtout ces énormes flux de surplus comportementaux qu’ils nous soustraient. Cela a commencé avec nos traces laissées en ligne, mais maintenant, cela s’étend à tous nos comportements, à tous nos déplacements, c’est le fondement de la révolution de la mobilité. En effet, si le smartphone a été inventé, c’est parce que le smartphone est devenu la mule du surplus comportemental. Chaque application que l’on installe sur son téléphone transmet le surplus comportemental – en même temps que les informations que vous avez données à l’application – dans ces « agrégateurs », dans leurs chaînes d’approvisionnement : la localisation du microphone, la caméra, les contacts, tout cela.

    Vous distinguez clairement le cas restreint des « données personnelles » des masses bien plus larges de ce que vous appelez « surplus comportemental ». Je me demande si une distinction similaire pourrait se faire entre le cas restreint de ce qu’on appelle habituellement « l’attention » et ces masses bien plus importantes que vous appelez « expérience humaine personnelle ». Cela remettrait dans une perspective très différente, et très suggestive, ce qu’on appelle « l’économie de l’attention ».Retour ligne automatique
    Oui, je pense en fait que le langage de « l’économie de l’attention » a empêché le grand public de comprendre ces phénomènes, et que c’est un concept malavisé. Pour être honnête, lorsque j’écrivais ma thèse de doctorat à Harvard en psychologie sociale dans la deuxième moitié des années 1970, on faisait notre travail de recherche et puis, dans mon département, il fallait rédiger deux études d’envergure dans ce que vous aviez choisi comme domaines de spécialité – deux articles dans les domaines de spécialité. Et j’ai choisi l’histoire du travail comme l’un de mes domaines de spécialité. J’ai écrit mon mémoire sur ce que j’ai appelé L’interaction sociale et l’histoire du travail, avec pour sous-titre L’organisation sociale de l’attention. Je commençais par parler des éthologues qui étudiaient le comportement du regard, le comportement du regard des primates en petits groupes. J’ai réinvesti ces études dans mon travail sur l’invention de l’organisation de l’usine et le contrôle de l’attention.Retour ligne automatique
    Et j’ai toujours tenu à définir l’économie de l’attention comme ce que nous faisons maintenant, dans cet entretien par Zoom : c’est une affaire de regard, souvent à plusieurs. Par exemple, nous regardons l’écran, notre attention se concentre sur l’écran – notre attention visuelle. C’est bien entendu un phénomène réel, à l’évidence – et ce n’est pas une bonne chose que nous regardions des écrans toute la journée… Mais encore faut-il mettre cela en parallèle avec une logique économique. Et c’est là que l’on fait erreur. Le fait que notre attention soit sollicitée par l’écran est un effet, non une cause. Et c’est là que l’idée d’économie de l’attention s’effondre. Le fait que notre attention soit hypnotisée, les phénomènes dit d’addiction, tous ces phénomènes sont les effets d’une cause, tout comme la désinformation. Notre vulnérabilité à la désinformation est un effet d’une cause.Retour ligne automatique
    Or la cause de ces effets est la logique économique que j’appelle le capitalisme de surveillance, avec ses lois d’airain et ses impératifs économiques. Et l’effet, c’est que le surplus comportemental est maximisé par une plus grande mobilisation de l’attention. Ainsi, le surplus comportemental – la maximisation de l’extraction du surplus comportemental – est un impératif économique. Les économies d’échelle sont un impératif économique.Retour ligne automatique
    La mobilisation de l’attention est seulement un moyen d’atteindre cet objectif. Ici aussi, en réfléchissant au surplus comportemental plutôt qu’à l’économie de l’attention, on s’aperçoit que d’énormes volumes de surplus comportementaux sont extraits à notre insu, sans que nous en ayons conscience et, surtout, sans que nous y prêtions attention. Et c’est pourquoi j’appelle cela « capitalisme de surveillance » : c’est parce que cela doit se produire d’une manière qui nous est cachée pour être efficace. Si nous le savions, nous y résisterions.

    Vous venez de mentionner les « économies d’échelle » et, dans le livre, vous passez de ce concept assez familier aux « économies de gamme » (economies of scope) et aux « économies d’actions ». De quoi s’agit-il dans ces deux derniers cas ?Retour ligne automatique
    Le principe est que la dynamique du capitalisme de surveillance est orientée vers la collecte de la totalité des données, parce que la totalité des données mène à une certitude parfaite. On a vu que le capitalisme de surveillance avait mis en place des usines de calcul, traitant le surplus comportemental, pour en tirer quoi ? Des produits de prédiction (predictive products). Ces produits de prédiction sont vendus sur des marchés à terme comportementaux (behavioral futures markets). Je les ai aussi appelés « marchés à terme humains » (human futures markets) parce que ce sont des marchés qui négocient des contrats à terme humains, tout comme nous avons des marchés pour négocier des contrats à terme sur la poitrine de porc ou sur le pétrole ou sur le blé. Alors, qu’est-ce qui se vend sur ces marchés à terme humains ? Eh bien, en gros, on vend de la certitude. C’est à cela que les programmes de prédiction aspirent : des résultats fiables pour vendre de la certitude. Quelles sont donc les dynamiques concurrentielles si vous vendez de la certitude, si vous concurrencez l’incertitude ?Retour ligne automatique
    Tout d’abord, vous avez besoin de beaucoup de données, parce que l’I.A. s’améliore avec l’échelle. Plus les algorithmes ont de données, meilleurs ils sont. Ensuite, il faut de l’envergure, toute une large gamme de données diverses entre elles, parce qu’il faut du volume mais aussi de la variété. Ces deux aspects sont en fin de compte assez faciles à comprendre. C’est effrayant de comprendre ce qu’est vraiment la variété et ce qu’est le volume de tout cela, parce que c’est tellement vaste. Mais on voit quelles sont les économies d’échelles (en extension) et de gamme (en diversité).Retour ligne automatique
    Les économies d’action nous font sortir de la métaphore du web et des écrans, pour nous faire entrer dans le monde, à savoir nos maisons, nos voitures, nos villages, nos villes, nos parcs, nos restaurants, nos cafés, etc. Il est de plus en plus difficile d’y échapper à la surveillance.Retour ligne automatique
    La concurrence pour la certitude devient un domaine toujours plus intrusif. Elle apprend à influencer notre comportement, non seulement à observer mais à intervenir activement dans le cours de nos vies ordinaires et à les régler en s’y insinuant de diverses manières – indices subliminaux, nudges, dynamiques de comparaison sociale artificielles, microciblages psychologiques, gamification, récompenses et punitions en temps réel. Tout cela, ce sont des techniques, des mécanismes utilisés sur le web et en dehors du web, dans le monde physique, pour influencer notre comportement, pour pousser notre comportement dans une certaine direction. Cela maximise la certitude, cela maximise les résultats attendus des prédictions et devient donc plus lucratif dans la compétition pour la certitude. Il s’agit donc d’un tout nouveau domaine, qui relève d’économies d’actions.

    On pourrait vous objecter que ces dispositifs d’influence ne datent pas des années 2000, mais remontent à bien plus loin.Retour ligne automatique
    Les gens me disent en effet souvent : « Nous avons de la publicité persuasive depuis le milieu du XIXe siècle. Il n’y a rien de nouveau là-dedans ». Ce genre de choses me rend folle, parce que c’est la rengaine « plus ça change, plus c’est la même chose ». Mais non, ce n’est pas « la même chose » ! Il faut être attentif aux circonstances matérielles toujours changeantes dans lesquelles la vie humaine se déploie. Et ces circonstances matérielles produisent un changement qualitatif, et pas seulement quantitatif, dans les conditions d’existence. Il est très dangereux de dire « Oh, ce n’est que de la persuasion ». Nous disposons maintenant d’une infrastructure numérique ubiquitaire qui imprègne nos vies en ligne et nos vies dans le monde réel. Et cette infrastructure omniprésente peut être mobilisée pour influencer notre comportement, nos attitudes, nos pensées, nos sentiments. Et cela est absolument sans précédent.Retour ligne automatique
    C’est pourquoi je parle de la naissance d’un pouvoir instrumentarien, en essayant d’expliquer pourquoi nous ne le comprenons pas et combien il est essentiel pour nous de le comprendre. Parce que c’est une nouvelle forme de pouvoir et qu’il s’inscrit dans nos sociétés, dans nos vies et dans notre politique. En effet, ces économies d’action, la capacité à l’échelle d’utiliser ces mécanismes – indices subliminaux, dynamiques de comparaison artificielles, microciblages psychologiques, etc. –, d’utiliser ces mécanismes et de les réorienter à des fins politiques, c’est précisément ce que nous avons vu avec Cambridge Analytica. Cela a fait peur à tout le monde. C’est ce que nous avons vu se produire – nous le savons à présent – lors de la campagne de Trump en 2016, et cela a peut-être fait la différence lors de l’élection de Trump en 2016. C’est cela, les mécanismes et les méthodes inventés par le capitalisme de surveillance et la compétition pour la certitude, réquisitionnés par des agents politiques, axés sur des objectifs politiques, qui pourraient bien être responsables de la présidence de Trump.

    Outre les usages politiques des technologies de surveillance, j’aimerais revenir brièvement sur la nature du capitalisme dont il est question ici. Quel est son lien avec les développements récents de la finance, et avec ce que des analystes comme Randy Martin ont appelé « la financiarisation de la vie quotidienne ».Retour ligne automatique
    S’il n’y avait pas eu de financiarisation, je ne suis pas sûre que le capitalisme de surveillance aurait pu voir le jour. La financiarisation a grandement participé à insinuer dans la mentalité humaine l’idée selon laquelle le capitalisme tournerait moins autour de la vente de biens et de services que sur des activités complètement dérivées – sur des sortes de produits dérivés, des valeurs plus abstraites, dérivées de vrais produits et services. En effet, c’est à ce moment-là que les entreprises ont commencé à gagner de l’argent non plus sur leurs produits, mais sur le financement de leurs produits. Les entreprises ont commencé à gagner de l’argent non plus grâce à leurs services, mais grâce à leurs investissements de portefeuille dans des produits financiers – ce qu’elles pouvaient se permettre grâce au capital généré par leurs services. Voilà comment la financiarisation nous a appris à penser la capitalisation comme étant intrinsèquement parasitaire et dérivée.Retour ligne automatique
    Le capitalisme de surveillance va plus loin dans cette voie. Toute la logique d’accumulation – la richesse s’accumulant effectivement dans le capitalisme de surveillance – est entièrement dérivée, entièrement parasitaire. Cela commence par un surplus comportemental arraché à notre expérience. Notre expérience, en tant que telle, n’a aucun intérêt pour le capitalisme de surveillance. Guérir ma maladie, cela n’a aucun intérêt. Les capitalistes de surveillance veulent juste savoir ce que je cherche sur le web au jour le jour. M’aider à obtenir un prêt hypothécaire équitable, cela n’a aucun intérêt. Ils veulent seulement savoir le travail que j’ai fait pour essayer d’obtenir un prêt hypothécaire. Qu’est-ce que j’ai cherché ? Et comment cela se combine-t-il à mes données démographiques, à mon crédit et à mes achats ? Ils font tout cela en créant des profils sur moi. Mais personne ne revient en arrière pour dire : « Hé, laissez-moi vraiment vous aider à obtenir un prêt hypothécaire honnête pour vous et votre famille. » Cela n’a absolument aucun intérêt pour eux. C’est pourquoi je parle de surplus comportementaux « arrachés » : ce qui reste derrière, c’est la carcasse de nos vies présentes. C’est comme prendre l’ivoire d’un éléphant. Ce qui reste, c’est moi et ma vie avec tous mes problèmes et mes difficultés.Retour ligne automatique
    Quand Henry Ford a inventé le modèle T, il essayait en fait de résoudre des problèmes de la vie réelle de vraies personnes (des gens qui voulaient une voiture au prix qu’ils étaient en mesure de payer – des agriculteurs et des commerçants). Certes, Henry Ford était une personne horrible : il était antisémite et misogyne, et il était détestable à bien des égards. Mais le capitalisme industriel fondé sur la production de masse s’est étendu dans le monde entier parce qu’il résout les problèmes réels de gens réels. C’est ce dont Schumpeter a fait l’éloge.Retour ligne automatique
    À présent, le secteur de la Tech reprend une expression de Schumpeter, celle de « destruction créative », et s’en sert comme insigne d’honneur pour son activité parasitaire. Alors qu’en fait Schumpeter ne parlait pas seulement de « destruction créative ». Schumpeter parlait de mutations économiques qui, selon sa propre théorie, profitent à tout le monde, donc augmentent la classe moyenne, augmentent la prospérité des gens ordinaires : c’est ce qui définit la mutation économique dans son esprit. Or ce n’est pas du tout ce qu’a fait le capitalisme de surveillance – dont le modèle de profit est parasitaire en ne s’intéressant qu’aux produits dérivés de nos expériences personnelles.

    Que dites-vous aux défenseurs de Google qui pourraient dire : « OK, Google extrait mon surplus comportemental pour profiter de ses produits dérivés, mais il me rend aussi un service réel : lorsque je fais une recherche, je peux trouver quelque chose facilement. Henry Ford a produit des voitures et Google produit une capacité d’accès à des informations pertinentes sur l’énorme quantité de données sur Internet » ?Retour ligne automatique
    Henry Ford a produit des voitures – et maintenant nous avons le réchauffement climatique ! Autrement dit : nous avons des externalités. Cela aurait pu être différent, mais nous devons maintenant faire face à ces externalités. Tout ce que nous avons sera remis en question pour compenser ces externalités. Maintenant, pour être juste envers Ford, il n’avait aucune idée de tout cela, nous n’avions pas la science du climat, donc il ne l’a pas fait exprès.Retour ligne automatique
    Google nous permet de faire des recherches Internet et c’est formidable, mais cela s’accompagne aussi d’externalités. Cependant, contrairement à Henry Ford, nous savons maintenant identifier ces externalités. Nous connaissons les externalités provenant de concentrations de connaissances sans précédent, provoquant des concentrations de pouvoir sans précédent – générant un pouvoir que j’appelle « instrumentarien ». Nous connaissons les objectifs visant à remplacer la démocratie par une gouvernance informatique, par une gouvernance algorithmique. Nous avons déjà bien vu cela, dans de nombreux cas, et ce n’est qu’un début. Nous connaissons les objectifs de la modification des comportements. Nous voyons les effets de la désinformation, nous voyons les effets de l’addiction. Nous en voyons les effets chez nos enfants : diminution de l’identité, de la capacité de jugement moral indépendant. Nous sommes face à ce chaos. Dans mon pays, en ce moment, le chaos dans lequel nous nous trouvons à l’approche de cette élection très importante est dû à 100 % aux externalités du capitalisme de surveillance.Retour ligne automatique
    Ma réponse à cela est donc : faisons des recherches sur Internet, et utilisons les réseaux sociaux, faisons-le, faisons appel à la technologie numérique – mais faisons-le sans les externalités du capitalisme de surveillance. Utilisons la technologie numérique d’une manière qui réponde réellement à nos problèmes, qui subvienne aux besoins des gens et qui réponde aux véritables besoins sociaux. Pas cette activité parasitaire dans laquelle toutes ces prédictions qui sortent des usines de calcul sont centrées sur moi, mais pas pour moi. Elles sont vendues à un groupe restreint d’entreprises clientes qui parient sur mon comportement futur afin d’améliorer leurs revenus et leurs profits.Retour ligne automatique
    Vous avez donc ces marchés qui profitent de mes problèmes et qui parient sur mon avenir. Vous avez les entreprises de la Tech, les capitalistes de la surveillance qui profitent de ma vie sans y contribuer. Et vous avez les investisseurs qui bénéficient de la capitalisation boursière, la capitalisation boursière construite sur ces opérations parasitaires, fondamentalement illégitimes. Il y a donc un groupe restreint de personnes qui s’enrichissent, et le reste d’entre nous qui observe cette concentration croissante de connaissances, de richesses et de pouvoir, en se disant « Mais qu’est-ce qui se passe ici ? Et nous, alors ? »

    Comment nous émanciper de ce pouvoir instrumentarien et extractiviste, qui profite de l’exploitation de nos expériences personnelles en générant des externalités funestes ? Autrement dit, quel agenda politique émane de votre analyse du capitalisme de surveillance ?Retour ligne automatique
    Il semble parfois n’y avoir aucun espoir, mais ce n’est pas le cas. La première chose à savoir, c’est que le capitalisme de surveillance n’a que vingt ans. La démocratie est plus ancienne. La raison pour laquelle le capitalisme de surveillance a connu un tel succès depuis vingt ans est qu’il n’y a pratiquement pas eu de loi pour lui faire obstacle. À la marge, un peu ici et là, dans quelques pays, le RGPD (règlement général sur la protection des données) a pu être un vague obstacle, comme certains ont pu le penser : mais c’est juste un début, et certainement pas une fin. Nous n’avons donc pas vraiment eu de loi pour faire obstacle au capitalisme de surveillance. Si nous avions vraiment pris des mesures en ce sens ces vingt dernières années et que nous étions toujours dans cette situation, je serais beaucoup plus pessimiste. Mais ce n’est pas le cas.Retour ligne automatique
    Mon point de vue est le suivant : qu’il s’agisse de l’antitrust ou du RGPD, nous n’avons pas encore le type de lois et de paradigmes de réglementation (de chartes, des droits et de structures institutionnelles) dont nous avons besoin pour rendre cet avenir numérique compatible avec la démocratie. Et cela veut dire que nous n’avons pas les outils, les outils juridiques dont nous avons besoin pour suspendre et interdire les mécanismes clés du capitalisme de surveillance. Il est donc essentiel de comprendre ces mécanismes, car, une fois qu’on les a compris, la perspective de les suspendre et de les interdire n’est pas aussi écrasante.Retour ligne automatique
    Par exemple, j’ai soutenu que les marchés qui font le commerce de l’avenir humain (markets that trade in human futures) devraient être illégaux. Les marchés qui font le commerce d’organes humains sont illégaux. Les marchés qui font le commerce d’êtres humains sont illégaux. Et ils sont illégaux parce que nous savons qu’ils entraînent indubitablement des conséquences néfastes, dangereuses et antidémocratiques. Ils entraînent indubitablement des préjudices qui sont intolérables pour une société démocratique. Et je soutiens que les marchés, le commerce de l’avenir humain, entraînent également des dommages qui sont intolérables pour la démocratie. Nous pouvons donc rendre ces marchés illégaux.Retour ligne automatique
    Et si nous le faisons, nous supprimons complètement les incitations financières. Nous éliminons de toute cette sphère ce que j’appelle le « dividende de la surveillance », ce dividende parasitaire. Et nous disons alors : « Donnez-nous la technologie numérique, mais donnez-nous la technologie numérique sous une forme qui nous respecte, qui respecte notre droit de revendiquer la souveraineté sur notre propre expérience personnelle ».Retour ligne automatique
    Du côté de la demande, donc, nous avons ces marchés à terme où il y a des incitations financières qui créent une demande pour les produits de prédiction. Du côté de la demande, il y a donc un moyen d’intervenir et de changer réellement la dynamique. Et si nous le faisions, cela ouvrirait instantanément le paysage concurrentiel à une véritable innovation. Pour tous les gens qui sont là – car il y en a littéralement des centaines dans ma boîte de réception chaque semaine qui ont des idées sur la façon dont nous devrions faire de la recherche et sur la façon dont nous devrions utiliser la technologie numérique pour résoudre toutes sortes de problèmes sans le capitalisme de surveillance –, nous pouvons facilement imaginer le numérique sans le capitalisme de surveillance. En revanche, nous ne pouvons pas imaginer le capitalisme de surveillance sans le numérique. La suspension de ces incitations financières ouvre donc la voie à une nouvelle ère d’innovation numérique. Tant mieux.

    Voilà pour ce qui concerne le côté de la demande. Comment peut-on agir du côté de l’offre ?Retour ligne automatique
    Le côté de l’offre, c’est celui où l’expérience humaine personnelle est considérée comme matière première gratuite, dont on cherche à extraire des surplus comportementaux. Cette activité que l’on appelle capitalisme de surveillance est conçue pour être secrète, pour nous maintenir dans l’ignorance. Si vous la décrivez à n’importe quel enfant de huit ans, il répondra : « Mais c’est du vol ! » Et il aura raison. Le système actuel est un permis de voler. Les capitalistes de surveillance ont eu le droit de voler, tout l’édifice est construit sur une base illégitime, à savoir nous prendre sans demander. Donc, du côté de l’offre, nous devons définir de nouveaux droits, que j’appelle des droits épistémiques.Retour ligne automatique
    Depuis que j’ai publié le livre, j’ai beaucoup écrit sur l’égalité épistémique, sur les droits épistémiques, et sur la justice épistémique. Les questions principales sont : Qui sait ? Qui décide ? Qui décide qui sait ? Qui décide qui décide ? Ce sont des questions de connaissances, d’autorité et de pouvoir.Retour ligne automatique
    Avant le pouvoir instrumentarien, on considérait comme un droit élémentaire le fait que je sois le seul à connaître mon expérience personnelle – et peut-être que je la partage avec un ami, ou avec ma famille, ou avec mon partenaire, mais c’est moi qui décidais. Je savais et je décidais. Et il n’y avait pas vraiment matière à contestation à ce sujet, car la vie humaine était ainsi faite. Les humains ont une vie limitée dans le temps : on mourait, parfois nos vies étaient traduites en histoire ou en mythe, et puis plus tard il restait des photos et des lettres… Le fait de savoir quand décider qui sait ou ne sait pas ne devait pas être codifié en un droit juridique formel.Retour ligne automatique
    Mais maintenant, c’est le cas. Les droits sont codifiés dans l’histoire, tout comme le droit à la liberté d’expression a été codifié dans l’histoire. Je veux dire que quiconque est né sans handicap particulier peut parler. Si vous êtes en bonne santé d’un point de vue physiologique, vous pouvez parler. Vous n’avez pas besoin d’un droit à la parole, pas plus que vous n’avez besoin d’un droit de vous lever et de vous asseoir (tant que vous êtes en bonne santé). Mais à un certain moment de l’histoire de l’humanité, à cause de la pression politique, de la nature changeante de la société et nos conditions d’existence, nous avons dû codifier un droit à la liberté d’expression. Et nous l’avons fait.Retour ligne automatique
    Maintenant, au XXIe siècle, nous devons définir un droit qui garantisse à chacun la souveraineté sur son expérience personnelle – à savoir : je connais et je décide qui connaît mon expérience personnelle. Si je veux que mon expérience personnelle soit traduite en données, et si je veux donner ces données à un groupe qui travaille sur une forme particulière de cancer, ou à un groupe qui cherche à trouver des solutions contre la pauvreté dans mon quartier ou dans ma communauté, ce sont des décisions que je prends.

    C’est là, pour vous, le défi principal de notre époque ?Retour ligne automatique
    Tout à fait. Du côté de l’offre, nous avons besoin d’un nouveau droit. Du côté de la demande, nous avons besoin de nouvelles lois et de nouveaux paradigmes de réglementation. Et ces mesures ne sont pas difficiles à mettre en place. Ne pas les mettre en place, ce serait comme si nous étions arrivés à la fin du XXe siècle et qu’il n’y avait pas de lois sur le travail des enfants ; ou bien qu’il n’y avait pas de droit d’adhérer à un syndicat ou de négocier collectivement ; pas de droit de grève ; pas d’institutions qui encadrent les institutions démocratiques, qui encadrent la sécurité des salariés, leurs salaires ; pas d’institutions qui encadrent la sécurité de nos aliments, de nos médicaments, de nos bâtiments, de notre environnement ; pas de filets de sécurité en matière de santé, de retraite et de vieillissement. Imaginez que l’on ait vécu au XXe siècle sans rien de tout cela. Le XXe siècle aurait été un siècle de ténèbres, de souffrance, d’oligarchie, de servitude.Retour ligne automatique
    C’est là où nous en sommes aujourd’hui. Nous nous dirigeons vers un avenir numérique sans les protections dont nous avons besoin. Et mon argument est que, Dieu merci, ce n’est pas la fin du XXIe siècle. C’est encore le début. Nombre de ces protections dont nous disposions au XXe siècle ne sont pas apparues avant la troisième et la quatrième décennie. Je suis donc convaincue à présent que cette décennie, la troisième décennie du XXIe siècle, doit être le moment où nous nous attelons à ce travail. Parce qu’une décennie de plus sans protection et sans trouver une nouvelle voie pour l’avenir deviendra très, très difficile – et, j’en ai bien peur, beaucoup plus violente que ce à quoi nous sommes confrontés aujourd’hui.Retour ligne automatique
    Voici donc mon appel à agir pour les législateurs, pour les citoyens, pour tous ceux qui se soucient de l’avenir de la démocratie : nous devons élaborer un modèle d’avenir numérique qui soit conforme à nos aspirations en tant que démocraties libérales. Et nous n’avons pas encore fait ce travail.

    Shoshana Zuboff, L’Âge du capitalisme de surveillance, traduit de l’anglais par Bee Formentelli et Anne-Sylvie Homassel, éditions Zulma, 2020.

    Traduit de l’anglais par Clément Duclos.

    L’enregistrement audio de cet entretien en anglais est disponible en podcast sur le site de l’EUR ArTeC.

    Yves Citton

    Professeur de littérature et médias, Université Paris 8 Vincennes-Saint-Denis, co-directeur de la revue Multitudes

    #Google #Microsoft #Amazon #Facebook #Twitter #algorithme #smartphone #technologisme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #émotions #législation #addiction (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##bénéfices ##BigData ##comportement ##GAFAM ##surveillance

  • affordance.info : L’homme qui a vu des données. Nuit de la publication et brouillard de l’intentionnalité.
    https://www.affordance.info/mon_weblog/2020/10/homme-qui-a-vu-des-donnees.html
    https://www.affordance.info/.a/6a00d8341c622e53ef0263e9707839200b-600wi

    Tout tient dans ces quelques lignes. Plus de quinze ans de débat sur la responsabilité éditoriale des plateformes. Tout tient dans ces quelques lignes. La solution et le problème. Zuckerberg n’a pas décidé de bannir les discours de négation ou de remise en question de l’Holocauste parce qu’ils étaient contraire à la morale ou démentis par la vérité de l’Histoire. Il l’a décidé. Seul. Parce qu’il avait vu, seul, « des données ». Tout tient dans ces quelques lignes. Le problème Mark Zuckerberg. Le problème de 2,5 milliards d’utilisateurs. Et la solution Mark Zuckerberg. La solution d’un seul.

    Quelles données ? Nul le le sait sauf Zuckerberg lui-même. Que disaient elles ces données ? Que les violences antisémites augmentaient.

    Mais ce choix de Zuckerberg est aussi et avant tout une épiphanie. Celle de ce qu’Antoinette Rouvroy nomme « gouvernementalité algorithmique » : « La gouvernementalité algorithmique est l’idée d’un gouvernement du monde social qui serait fondé sur le traitement algorithmique des données massives plutôt que sur la politique, le droit et les normes sociales. » Quelle preuve plus éclatante - et alarmante - que celle là ?

    Zuckerberg est à la responsabilité éditoriale ce que le chat de Schrödinger est à la mécanique quantique. Il est responsable et en même temps il ne l’est pas. Au nom du premier amendement et du modèle économique de sa plateforme il doit garantir que tout puisse être dit et il doit rassurer sur le fait que tout ne peut pas l’être, en tout cas publiquement. Et toute la mécanique quantique de cet équilibre tient dans ces 12 lettres. « Publiquement ».

    Au final, plus la bulle Facebook gonfle et plus celle de l’espace public authentique et sincère se dégonfle. Ce n’est pas un hasard si cette plateforme se demande en Octobre 2021 s’il faut bannir les comptes négationnistes. Pas un hasard non plus si à chaque attentat ou crime terroriste - et celui de Samuel Paty vient encore de nous le rappeler - la frénésie médiatique sombre dans la même pantomime ridicule où l’on s’écharpe sur le non problème de l’anonymat et sur la capacité de censure directe et discrétionnaire comme alpha et oméga d’un débat qui évite soigneusement de mettre en cause les fonctionnalités techniques des plateformes qui produisent des conditions d’énonciation dégradées et toxiques au même titre que les conditions de production chez Marx produisent et fabriquent et déterminent des conditions d’exploitation.

    #Olivier_Ertzscheid #Facebook #Espace_public

  • Une enquête pour percer les bulles de filtres sur les réseaux sociaux
    https://www.ladn.eu/tech-a-suivre/ia-machine-learning-iot/enquete-decrypter-algorithmes-facebook-youtube

    Pendant plusieurs mois, le site d’information The Markup va analyser les contenus proposés par les plateformes à 1 200 personnes.

    On sait que les réseaux sociaux utilisent nos informations, nos likes et nos recherches pour mieux nous cerner, nous conforter dans des bulles de filtres et nous proposer certains types de contenus et publicités. Mais malgré les nombreuses enquêtes sur le sujet, nous connaissons encore mal tous les rouages des algorithmes utilisés.
    Un navigateur fait-maison pour mener l’enquête

    Pour tenter d’y voir plus clair, The Markup, un site d’information à but non lucratif, a lancé le 16 octobre un navigateur baptisé The Citizen Browser. 1 200 personnes de différents âges, origines ethniques, genres, opinions politiques, ont été choisies (et seront payées) pour l’utiliser pendant plusieurs mois lors de leurs visites sur Facebook et YouTube. Il s’agit d’un panel représentatif de la population américaine, souligne The Markup.

    Le but est de savoir quel contenu est proposé à quelle personne. Les journalistes derrière ce projet pourront faire des connexions entre le profil démographique des participants et les contenus qui apparaissent sur leurs fils. Les données des panélistes seront anonymisées, précise le site.

    Selon Julia Angwin, rédactrice en chef de The Markup interrogée par Fast Company, cette enquête menée en partenariat avec le New York Times permettra de savoir si les plateformes proposent les même contenus à une personne noire et une personne blanche par exemple, ou si certaines informations (ou fausses informations) sont davantage mises en avant sur le fil d’un conservateur versus celui d’un libéral. On sait déjà, grâce à une récente enquête de Radio France, que Facebook ne propose pas les mêmes offres d’emplois aux hommes et aux femmes. Il est donc possible que d’autres différences existent.
    Percer les bulles de filtres

    « Les réseaux sociaux dictent les informations que le public consomme grâce à des algorithmes “boîtes noires” conçus pour maximiser les profits au détriment de la vérité et de la transparence. Le Citizen Browser Project est un puissant moyen de contrôler la responsabilité de ce système, de percer les bulles de filtres et d’orienter le public vers un discours plus libre et démocratique », expose Julia Angwin sur le site de The Markup. La vérité d’un algorithme ne réside pas tant dans la manière dont il est écrit, mais dans les résultats qu’il produit, considère la journaliste qui a mené plusieurs enquêtes sur le sujet.

    Les résultats de cette grande investigation au procédé inédit seront publiés l’année prochaine.

    #Facebook #Bulle_filtre #Algorithme #Enquête #Individualisation

  • « Les réseaux sociaux hébergent les pires immondices dont sont capables des humains »
    https://larevuedesmedias.ina.fr/reseaux-sociaux-moderateurs-web-sarah-t-roberts

    La chercheuse américaine Sarah T. Roberts signe une enquête de référence sur les modérateurs, ces milliers de travailleurs qui, dans l’ombre, sont chargés de nettoyer le web. Internet ne va pas de soi. C’est, au fond, ce que Sarah T. Roberts a voulu mettre en évidence en enquêtant pendant huit ans sur les « nettoyeurs du web ». Chercheuse et enseignante en sciences de l’information à l’université de Californie à Los Angeles (UCLA), elle a rencontré des dizaines de modérateurs. Chargés de faire le tri (...)

    #Facebook #algorithme #Twitter #manipulation #modération #violence #SocialNetwork #santé

    ##santé

  • Facebook va laisser les utilisateurs désactiver son algorithme de sélection de contenus
    https://www.bfmtv.com/tech/facebook-va-laisser-les-utilisateurs-desactiver-son-algorithme-de-selection-d

    En fait, l’important est là :

    Même si l’utilisateur opte pour un affichage chronologique, il retombera sur le fil d’actualité personnalisé à chaque nouvelle ouverture de l’application. Pour définitivement se passer de l’algorithme du réseau social, il faudra donc renouveler l’opération à chaque fois.

    Comme Twitter quoi... donc inutile.
    En design, cela s’appelle un « dark pattern » : on vous fait croire que vous avez la liberté, mais en fait vous retombez dans les rêts à chaque fois.

    Le réseau social déploie une nouvelle option dédiée au fil d’actualité, qui consiste à remplacer la sélection de Facebook par un affichage chronologique bien plus basique.

    Retour aux sources pour Facebook. Face aux nombreuses critiques liées à l’opacité de ses algorithmes de sélection de contenus sur le fil d’actualité des utilisateurs, l’entreprise californienne propose une nouvelle option de personnalisation, détaille Alexandru Voica, en charge de la communication de l’entreprise.

    Depuis quelques heures, la firme californienne déploie une fonction laissant un plus grand choix aux utilisateurs concernant l’affichage des publications sur leur fil d’actualité. Ils peuvent notamment opter pour une disposition sans sélection algorithmique, qui se contente d’afficher les publications par ordre chronologique (avec les plus récentes en haut de page). Une mise en page déjà accessible, mais sur une page différente du fil d’actualité.
    Retour aux Facebook des débuts ?

    En optant pour l’option “Récents”, les utilisateurs retomberont donc sur un fil d’actualité fonctionnant sur les mêmes bases que celui du Facebook des débuts, avant la création d’algorithmes chargés de n’afficher que les contenus les plus “pertinents”, susceptibles de maximiser le temps passé sur le réseau social - et ses revenus publicitaires.

    En choisissant cette option, qui devrait arriver dans les prochains jours en France, l’utilisateur pourrait ainsi voir apparaître des publications issues “d’amis” Facebook que l’algorithme choisissait de ne plus afficher, les jugeant trop éloignés de ses centres d’intérêts.

    La fonction "Récents" devrait être proposée dès l’ouverture de l’application ou du site du réseau social. Il sera également possible de l’activer dans l’onglet "Préférences du fil d’actualité", accessible depuis le menu "Paramètres et confidentialité".

    Pour Facebook, il n’est toutefois pas question d’abandonner sa sélection algorithmique. Même si l’utilisateur opte pour un affichage chronologique, il retombera sur le fil d’actualité personnalisé à chaque nouvelle ouverture de l’application. Pour définitivement se passer de l’algorithme du réseau social, il faudra donc renouveler l’opération à chaque fois.
    https://twitter.com/GrablyR
    Raphaël Grably

    #Facebook #Algorithme #Personnalisation #Foutaise

  • Does Facebook Have a Secret Paper Fetish? | Collectors Weekly
    https://www.collectorsweekly.com/articles/facebook-secret-paper-fetish
    /uploads/2012/02/hackposter_01%2B400x400.png

    On February 1, 2012, at exactly 5:02 p.m., the day Facebook announced it was finally going public, the company’s CEO, Mark Zuckerberg, posted a photograph of his desk on his personal Facebook page. Along with a MacBook Air, dry-erase marker, and bottle of G Series Gatorade, Zuck’s work station featured a plain white poster bearing the all-caps red message, “STAY FOCUSED & KEEP SHIPPING.”

    “Posters give us something to share back to Facebook.”

    Earlier that day, at 11:48 a.m., Ben Barry posted an image of the same poster on the Facebook Analog Research Lab’s Facebook page with this message: “New posters in the Building 16 2nd floor micro kitchen (by the bridge). Stay focused.”

    How did Barry get the jump on his boss? Well, he printed the poster. As co-founder of the Analog Research Lab, Barry is one of several people at Facebook who carve out time from their other duties to spread Facebook’s grassroots gospel around the company’s campus.

    Since the summer of 2010, when he and another Facebook designer Everett Katigbak (they were hired on the same day in 2008) began filling a Palo Alto warehouse space with printing presses, a darkroom, and even a few woodworking tools, Barry has been letterpressing and screenprinting posters with simple, propaganda-style messages like “DONE IS BETTER THAN PERFECT,” “MOVE FAST AND BREAK THINGS,” and “WHAT WOULD YOU DO IF YOU WEREN’T AFRAID?”

    #Facebook #Usage_art #Ben_Barry #Posters #Fred_Turner

  • “Trumpcare” Does Not Exist. Nevertheless Facebook and Google Cash In on Misleading Ads for “Garbage” Health Insurance.
    https://www.propublica.org/article/trumpcare-does-not-exist-nevertheless-facebook-and-google-cash-in-on-mis

    The thousands of “Trumpcare” ads Facebook and Google have published show that the shadowy “lead generation” economy has a happy home on the platforms — and even big names like UnitedHealthcare take part. “Trumpcare” insurance will “finally fix healthcare,” said an advertisement on Facebook. A Google ad urged people to “Enroll in Trumpcare plans. Healthcare changes are coming.” The problem is, there’s no such thing as “Trumpcare.” Facebook and Google have promised to crack down on lies and (...)

    #Google #Facebook #manipulation #COVID-19 #marketing #publicité #santé

    ##publicité ##santé

  • Facebook’s Little Red Book | Office of Ben Barry
    https://v1.benbarry.com/display.php?id=4

    As the company of Facebook grew, we faced a lot of challenges. One of them was explaining our company’s mission, history, and culture to new employees. Over the years, a lot of formative company discussions and debates had happened in Facebook Groups, over email, or in person. Those who had been present at the time had context, but for new employees that information was difficult to find, even if you knew what you were looking for. We wanted to try to package a lot of those stories and ideas in one place to give to all employees.

    #Facebook #Little_Red_Book #Art #Silicon_Valley #Fred_Turner

  • Présidentielle américaine : « J’ai peur que nous allions au bord d’une guerre civile à cause de Facebook »
    https://information.tv5monde.com/info/presidentielle-americaine-j-ai-peur-que-nous-allions-au-bord-d

    Tim Kendall, un ancien dirigeant de Facebook, a témoigné devant des membres du Congrès le 27 septembre 2020. Mark Zuckerberg sera entendu à son tour le 28 octobre prochain. La question posée par les sénateurs consiste à savoir si Facebook crée de la division dans la population, au point de pousser à une potentielle guerre civile. Explications et entretien avec Dominique Boullier, sociologue et spécialiste de l’économie de l’attention.

    Tim Kendall : « Les médias sociaux nous déchirent »
    Tim Kendall a travaillé pour Facebook de 2006 à 2010 en tant que responsable de « la monétisation » du réseau. Il est donc un acteur important de la mise en place des outils incitatifs publicitaires, les fameux algorithmes et interfaces qui enferment chaque membre du réseau dans une « bulle informationnelle ». Ces systèmes renforcent les opinions, modifient les émotions et forcent chacun à rester connecté le plus possible, à prendre parti, à s’indigner ou à croire en des théories radicales.

    Kendall a donc témoigné le 27 septembre dernier (vidéo complète en anglais sur le site, Tim Kendall à 48:05) pour répondre aux préoccupations des responsables politiques face aux déchainements de haine et d’agressivité, de polarisation politique — uniques dans l’histoire américaine récente — qui font rage sur les réseaux sociaux depuis le début de la campagne électorale. Le titre de cette audition était sans ambiguïté : « Extrémisme dominant : le rôle des médias sociaux dans la radicalisation de l’Amérique. »

    Lors de cette audition, l’ancien cadre dirigeant de Facebook a établi un parallèle entre les procédés de l’industrie du tabac et ceux exploités par Facebook pour rendre les gens dépendants : « Les fabricants de tabac ont ajouté de l’ammoniac aux cigarettes pour augmenter la vitesse à laquelle la nicotine parvenait au cerveau. La capacité de Facebook à fournir du contenu incendiaire à la bonne personne, au bon moment, de la bonne manière ; c’est leur ammoniac. »

    Mais Kendall a aussi mis en garde sur les effets délétères que ces outils généraient dans la société : « Les services de médias sociaux, que moi et d’autres avons construits au cours des 15 dernières années ont servi à déchirer les gens entre eux à une vitesse et une intensité alarmantes. À tout le moins, nous avons érodé notre compréhension collective — au pire, je crains que nous nous poussions au bord d’une guerre civile. »

    Dans l’une de ses interventions, Tristan Harris finit par dresser un constat terrible : « Nous sommes passés d’un environnement technologique basé sur des outils à un environnement technologique de dépendance et de manipulation. Les médias sociaux ne sont pas des outils en attente d’être utilisés. Il ont leurs propres objectifs et il ont leurs propres moyens de les poursuivre, en utilisant votre psychologie contre vous-même. »
    L’implosion de la société par les réseaux sociaux ?

    Une possible implosion de la société — par une confrontation aveugle entre des franges de populations manipulées par les algorithmes — est donc l’une des issues que Tim Kendall et Tristan Harris envisagent sérieusement en conclusion du documentaire diffusé sur Netflix, tout comme lors de leur témoignage au Congrès américain. Cette possibilité d’implosion est prise très au sérieux par la plupart des observateurs et des spécialistes des réseaux sociaux, qui estiment qu’elle est probablement déjà en cours et craignent qu’elle ne se propage à travers le monde. Le réseau est global, les algorithmes sont les mêmes partout sur la planète et leurs effets sont similaires…

    TV5MONDE : Twitter et Facebook, par exemple, génèrent des effets similaires sur leurs utilisateurs, avec une montée en puissance de l’agressivité, des discours haineux et polarisés, sans nuances et souvent partisans. Comment l’expliquez-vous ?

    D.B : La polarisation n’est pas liée à la méchanceté intrinsèque des émetteurs, elle est liée à la valorisation par ces plateformes de certaines expressions pour des raisons de réactivité. Ces réseaux ont été positionnés comme ça. Il y a la partie algorithme qui est en jeu, mais il a aussi la partie design de l’interface en valorisant votre réaction, en vous facilitant votre réactivité. Je donne une exemple simple, lié à la captologie, avec Twitter : si on vous oblige à prendre un élément d’un tweet, à en créer un nouveau dans lequel vous devez coller votre élément pour pouvoir enfin reposter, vous avez tout un temps, plusieurs activités, qui ralentissent votre réaction et qui du coup introduisent un tout petit peu de réflexion et de hiérarchisation. Là, on élimine tout ça et on crée ce bouton retweet.

    J’ai travaillé longtemps dans les années 90 sur les interfaces numériques pour les améliorer et permettre leur appropriation par les utilisateurs, et aujourd’hui on se rend compte que ça a été retourné dans l’autre sens : les nouvelles interfaces ont facilité l’appropriation du comportement des utilisateurs par les plateformes. C’est une perversion de l’activité scientifique d’une part et de la finalité de tout ça d’une autre. Au bout du compte le principe qui a été retenu est « ne vous préoccupez de rien, laissez-nous vous guider ». En réalité, on vous emmène vers la posture cognitive qui est la plus rentable pour l’entreprise puisque c’est celle-là qui va augmenter les taux d’engagement pour les plateformes publicitaires.

    On a oublié les apéros Facebook, d’avant les années 2010, avec une horizontalité, une convivialité qui a disparu. Ce modèle a dérivé largement à cause de ses motivations économiques par les placements publicitaires. Il pourrait encore favoriser ces aspects là, même s’il le fait un peu avec les groupes Facebook, qui leur permettent d’organiser leurs activités, de se coordonner, comme ça a été le cas pour les printemps arabes. Ce qu’il faut mettre à bas c’est le modèle économique puisque le design est fait en fonction de ce modèle économique. Alors que si on organisait un espace de même type mais fait pour faciliter les rencontres, permettre de la modération, valoriser ceux qui présentent des contenus enrichis, ce serait totalement différent. Ce sont donc des finalités différentes.

    TV5MONDE : Y a-t-il des solutions pour éviter cette radicalisation via les plateformes et la possible implosion des sociétés ultra-connectées ?

    D.B : Il faut casser ce qu’on appelle les chaînes de contagion de ces réseaux. Il faut conserver bien entendu ces outils d’expression, on ne peut pas l’enlever aux gens. Les utilisateurs vont s’exprimer radicalement, dire des bêtises, il y aura des fake news, des propos de haine, on est bien d’accord, mais simplement il ne faut pas que ça se propage à la vitesse à laquelle ça se propage. On est donc obligé de mettre en place des mécanismes qui ralentissent cette propagation, qui obligent les gens à hiérarchiser. Il faut arrêter les réflexes, les réactions instantanées par retweet ou partage, like, etc. On pourrait par exemple dire « vous avez droit à 10 tweets et retweets dans la journée ou 24 heures », puis un seul, pareil pour les posts et partages Facebook ou les « j’aime ».

    A ce moment là vous allez avoir des individus obligés de choisir. Et quand on choisit — les gens ne sont pas complètement idiots — on évite le plus inutile.

    #Facebook #Médias_sociaux #Démocratie #Dominique_Boullier

  • Casser « Big Tech »
    https://www.lemonde.fr/pixels/article/2020/10/13/casser-big-tech_6055799_4408996.html

    Aux Etats-Unis, le rapport de la commission antitrust de la Chambre des représentants affirme que les GAFA (Google, Amazon, Facebook et Apple) sont des monopoles qui abusent de leur position dominante. Chronique. Ebullition dans la Silicon Valley, en Californie. Après seize mois d’enquête sur les GAFA (Google, Amazon, Facebook et Apple), la sous-commission antitrust de la Chambre des représentants a rendu ses conclusions, le 6 octobre. Un rapport établi au terme de centaines d’heures (...)

    #Apple #Google #Microsoft #Amazon #Facebook #domination #GAFAM

  • Facebook moderators at Accenture are being forced back to the office, and many are scared for their safety
    https://www.theverge.com/2020/10/1/21497789/facebook-content-moderators-accenture-return-office-coronavirus

    Employees are concerned about COVID-19 now that they’re being told to return starting October 12th Facebook moderators employed by third-party contracting firm Accenture and based in Austin, Texas are being forced to return to the office on October 12th, The Verge has learned. Employees, almost all of whom are contractors, were instructed of the new policy at a company-wide town hall meeting today, say multiple people familiar with Accenture’s plans. Accenture, which has allowed its (...)

    #Accenture #Facebook #YouTube #algorithme #modération #COVID-19 #GigEconomy #santé #travail

    ##santé