• UK data regulator takes enforcement action to rein in data brokers’ use of people’s personal data
    https://privacyinternational.org/news-analysis/4257/uk-data-regulator-takes-enforcement-action-rein-data-brokers-u

    In a landmark decision that shines a light on widespread data protecton failings by the entire data broker industry, the ICO has today taken enforcement action against Experian, based in part on a complaint PI made in 2018. Achieved Result October 2020 update : Following our complaints to regulators in 2018 about the data broker industry and the ’hidden data ecosystem’, the UK regulator took enforcement action against one of the largest global companies, Experian. As a result, Experian have (...)

    #Equifax #Experian #Transunion #BigData #DataBrokers #marketing #microtargeting #profiling #publicité #surveillance #BigBrotherWatch #PrivacyInternational (...)

    ##publicité ##ICO-UK

  • ICO takes enforcement action against Experian after data broking investigation
    https://ico.org.uk/about-the-ico/news-and-events/news-and-blogs/2020/10/ico-takes-enforcement-action-against-experian-after-data-broking-investigati

    The Information Commissioner’s Office (ICO) orders the credit reference agency Experian Limited to make fundamental changes to how it handles people’s personal data within its direct marketing services. The enforcement notice follows a two-year investigation by the ICO into how Experian, Equifax and TransUnion used personal data within their data broking businesses for direct marketing purposes. A complaint from the campaign group Privacy International to the ICO also raised concerns about (...)

    #Equifax #Experian #Transunion #consentement #BigData #DataBrokers #marketing #notation #PrivacyInternational (...)

    ##ICO-UK

  • La Silicon Valley, le nouveau centre du pouvoir mondial ?
    https://www.franceculture.fr/emissions/la-grande-table-idees/la-silicon-valley-le-nouveau-centre-du-pouvoir-mondial

    Avec Avec Shoshana Zuboff, professeure émérite à la Harvard Business School et professeure associée à la Harvard Law School, pour « L’Âge du capitalisme de surveillance » (Zulma, 2020). Shoshana Zuboff est professeure émérite à la Harvard Business School et professeure associée à la Harvard Law School. Elle s’intéresse aux nouvelles technologies depuis la fin des années 1980 : en outre, son livre sur les machines intelligentes (In the Age of the Smart Machine : The Future of Work and Power, 1988) est (...)

    #Google #Facebook #algorithme #domination #BigData #DataBrokers #GAFAM #microtargeting (...)

    ##publicité

  • Le monde selon Zuckerberg : la cité et le réseau
    https://quefaire.paris.fr/111203/rencontre-avec-o-ertzscheid-le-monde-selon-zuckerberg

    Dans le cadre de l’édition 2020 de Numok, le festival numérique des bibliothèques de la Ville de Paris, la médiathèque Jean-Pierre Melville recevra le chercheur et maître de conférence Olivier Ertzscheid pour une présentation de son livre "Le monde selon Zuckerberg - Portraits et préjudices" (C&F Éditions, septembre 2020). Rimbaud écrivait : « On n’est pas sérieux quand on a 17 ans ». Le web a trente ans, Facebook en a quinze. Les choses sérieuses commencent. Qu’a-t-il pu se passer pour que tourne au (...)

    #Facebook #technologisme #domination #BigData #GAFAM

  • The internet of things - the next big challenge to our privacy
    https://www.theguardian.com/technology/2014/jul/28/internet-of-things-privacy

    Privacy is a hot-button issue in the tech world. How will it fare in the age of pervasive computing – a world of billions of connected devices, systems, and services exchanging personal data ? If there’s a depressing slogan for the early era of the commercial internet, it’s this : “Privacy is dead – get over it.” For most of us, the internet is complex and opaque. Some might be vaguely aware that their personal data are getting sucked, their search histories tracked, and their digital journeys (...)

    #domotique #InternetOfThings #BigData #surveillance

    https://i.guim.co.uk/img/static/sys-images/Guardian/Pix/pictures/2014/6/12/1402590005493/internet-of-things-010.jpg

  • Comment le capitalisme de surveillance “transforme notre intimité en matière première”
    https://www.telerama.fr/idees/comment-le-capitalisme-de-surveillance-transforme-notre-intimite-en-matiere

    … et pourquoi il faut lutter contre. Dans “L’Âge du capitalisme de surveillance”, enfin traduit, Shoshana Zuboff, professeure émérite à la Harvard Business School, sonne l’alerte contre les géants du numérique qui nous dépossèdent de nos vies pour mieux les soumettre au marché.

    Au temps du tube cathodique, Jacques Ellul, l’un des grands penseurs de l’aliénation contemporaine, se posait déjà la seule question qui vaille vraiment à propos du pouvoir de la technique : « Une des illusions qu’on cherche à développer dans l’homme moderne, c’est de lui faire croire [qu’elle] le rend plus libre. […] Libre de quoi ? » À l’heure des réseaux sociaux et de la toute-puissance technologique, Shoshana Zuboff, professeure émérite à la prestigieuse Harvard Business School, prend le relais. Et sonne l’alerte. Nous sommes dépossédés de nos propres vies dans des proportions « indéchiffrables pour le cerveau humain ». Pire, plus nos spoliateurs en savent sur nous, moins nous en savons sur eux.

    Dans L’Âge du capitalisme de surveillance, un pavé de plus de huit cents pages sorti début 2019 aux États-Unis et enfin traduit en français (aux éditions Zulma), l’universitaire décrit minutieusement une société dystopique – mais bien réelle – dans laquelle les Google, Facebook et consorts capturent sans vergogne notre « surplus comportemental », raffinant le moindre atome de nos intimités numérisées pour leur seul profit. « C’est une double agression, contre notre autonomie et contre la démocratie », s’inquiète-t-elle, en livrant ce qui s’apparente à un opportun manuel de résistance.

    Celui-ci est d’autant plus notable qu’il n’émane pas d’une dangereuse radicale, bien au contraire : à la fin des années 1990, Shoshana Zuboff, prise dans une crise identitaire, a quitté son campus pour partir vivre dans une ferme. À l’époque, persuadée de faire partie du problème plus que de la solution, elle fait face à un choix : « Trouver un nouveau champ de recherche, ou chausser de nouvelles lunettes. » Ainsi a mûri sa charge – à mort – contre les tenants de ce « capitalisme renégat » qui nous traque tous, en permanence. Vous n’avez rien à cacher ? « Alors, vous n’existez pas. »

    Vous avez popularisé le terme « capitalisme de surveillance » depuis quelques années. Comment fonctionne-t-il ?

    L’effrayante spécificité du capitalisme de surveillance, c’est qu’il capture l’expérience personnelle pour la soumettre aux impératifs du marché. On pourrait même parler d’un marché de l’avenir humain. Ce capitalisme dévoyé transforme notre intimité en matière première qui, raffinée sous la forme de données, alimente une chaîne d’approvisionnement complexe. Dans ces usines d’un nouveau genre, on ne fabrique plus des produits mais des prédictions, individuelles et collectives. Ces conjectures, tirées de nos vies, émanent de nous, mais ne nous appartiennent pas. Elles nous concernent, mais ne nous reviennent pas.

    De la même manière que Ford aurait révolutionné le capitalisme en 1913, avec sa chaîne de production, vous posez le postulat que Google a inventé le capitalisme de surveillance au tournant du millénaire. Dans quelles circonstances ?

    Je situe sa naissance dans la Silicon Valley pendant l’éclatement de la bulle Internet, entre 2000 et 2001. À l’époque, de jeunes gens très intelligents dirigent des entreprises prometteuses, à l’intérieur desquelles ils inventent toutes sortes de services en ligne. Problème : ils ne gagnent pas d’argent. Là où le capitalisme industriel a réussi à transformer les ressources naturelles en énergie, les fleurons de cette nouvelle économie se révèlent incapables de répéter l’opération. Par conséquent, les investisseurs se retirent, et ils commencent à faire faillite les uns après les autres. Dans ce tableau, Google est perçu comme une pépite, mais même chez eux, il y a urgence.

    À vous écouter, ils n’étaient pas très doués pour le capitalisme !
    Jusqu’à ce qu’ils n’aient plus le choix, Sergey Brin et Larry Page, les fondateurs de Google, étaient publiquement opposés à la publicité ciblée. Quand ils ont commencé à regarder de plus près les données stockées sur leurs serveurs, des historiques de recherche, des miettes, des restes, ils ont réalisé qu’ils avaient à disposition un gisement gigantesque. C’est à ce moment-là qu’ils ont décidé d’exploiter notre surplus comportemental, que je nomme ainsi car il dépasse largement leurs besoins réels.
    “Au lieu de l’âge de l’information dont nous rêvions, fondé sur le partage de la connaissance permis par Internet, nous sommes renvoyés à un système féodal dans lequel des entreprises gigantesques peuvent influencer et contrôler nos comportements.”

    On touche ici une différence fondamentale. Le capitalisme industriel était une division du travail ; le capitalisme de surveillance, écrivez-vous, est une division de la connaissance. C’est-à-dire ?

    Il nous a fallu des décennies pour mesurer les conséquences du capitalisme industriel, pour déterminer par exemple que la dépendance aux énergies fossiles accélérait le réchauffement climatique. Aujourd’hui, nous sommes capables d’identifier les répercussions négatives du capitalisme de surveillance, à savoir la production secrète, effroyablement asymétrique, de savoir. C’est son effet le plus profond et le plus pernicieux, et il est indissociable d’un événement : le 11 Septembre. Au Capitole, juste avant que les tours jumelles s’effondrent, les parlementaires discutaient des contours d’une législation destinée à protéger la vie privée.

    En l’espace de quelques heures, George W. Bush a déclaré la « guerre contre la terreur », nous sommes entrés dans l’ère de l’information totale et dans une quête de certitudes. « Puisque nous n’avons pas su connecter les points, nous avons besoin de tous les points de tout le monde », ont dit les services de renseignement. Le département de la Défense, la CIA ou la NSA œuvrant sous les auspices de la Constitution américaine et obéissant à l’État de droit, il a fallu trouver une solution. Puisque Google et consorts n’étaient pas soumis aux mêmes contraintes, les autorités ont décidé de les laisser amasser richesse et pouvoir, afin qu’ils se chargent de connecter les points. Ainsi s’est forgée la symbiose entre la sphère publique et la sphère privée, entre la sphère du marché et celle du gouvernement.

    Pendant vingt ans, nous avons ensuite été aveuglés par notre optimisme sur le pouvoir libérateur de la technologie. Au lieu de l’âge de l’information dont nous rêvions, fondé sur le partage de la connaissance permis par Internet, nous sommes renvoyés à un système féodal dans lequel des entreprises gigantesques peuvent influencer et contrôler nos comportements. C’est une double agression, contre notre autonomie et contre la démocratie.

    Le pouvoir que vous décrivez est aussi immense qu’effrayant. Mais est-il vraiment effectif ?
    En 2001, Larry Page, le patron de Google, se référait à la capacité de calcul de ses serveurs en parlant de « [leur] intelligence artificielle ». Aujourd’hui, quand Google utilise cette expression, il s’agit d’un pouvoir sans commune mesure avec ces premières déclarations. Avec le capital qu’elles possèdent, ces entreprises visent le long terme. Pour entraîner son intelligence artificielle, Facebook ingère des trillions (milliards de milliards) de données chaque jour, afin de produire 6 millions de prédictions sur nos comportements par seconde. C’est une échelle inimaginable, indéchiffrable pour le cerveau humain.

    Pendant très longtemps, nous n’avions pas conscience de ce qui se jouait en arrière-plan. Puis le scandale Cambridge Analytica [du nom de cette officine britannique spécialisée dans le conseil politique qui a siphonné 87 millions de comptes Facebook au profit des campagnes du Brexit et de Donald Trump, ndlr] en 2018 a ouvert les yeux de l’opinion publique.
    “En 2016, le camp républicain a eu recours au micro-ciblage psychologique pour manipuler des comportements numériques qui ont des effets dans le monde réel. C’est ça le gagne-pain du capitalisme de surveillance.”

    Un récent rapport des autorités britanniques a tout de même montré que Cambridge Analytica a très largement survendu ses compétences…
    Mais personne ne peut nier que la campagne de Trump en 2016 a utilisé la technologie publicitaire de Facebook plus efficacement que quiconque. Le camp républicain a eu recours au micro-ciblage psychologique pour manipuler des comportements numériques qui ont des effets dans le monde réel. C’est ça le gagne-pain du capitalisme de surveillance.

    Vous estimez que le capitalisme de surveillance est « tyrannique », mais qu’il ne requiert « ni le fouet du despote, ni les camps ou les goulags du totalitarisme ». Avec l’omniprésence de nos smartphones, nos applications intrusives, nos objets connectés qui mouchardent, nous sommes devenus les agents consentants de notre propre enfermement. Plus que la manipulation cognitive, n’est-ce pas la plus grande victoire du phénomène que vous décrivez ?
    Nous nous sommes enchaînés nous-mêmes et c’est une intolérable tragédie. Dans nos sociétés libérales contemporaines, nous ne sommes pas éduqués à nous opposer au progrès technologique. Face à la dictature de l’inévitabilité, nous avons pourtant cruellement besoin d’alternatives et d’apprentissage citoyen. C’est d’autant plus problématique que les réseaux sociaux ont été inventés par des adolescents. Nous savons que ce moment de la vie désigne un soi inachevé.

    On construit sa personnalité et son libre-arbitre en se confrontant à l’altérité, au questionnement, à la dissonance. Or ces plateformes ne renvoient pas à des questionnements intérieurs – « Qui suis-je ? » – mais à des logiques de groupe. Des légions de pré-adolescents et de jeunes adultes sont profondément investis dans une machinerie conçue par d’autres adolescents et sont coincés dans un monde où ils sont constamment jugés par les autres. On parle souvent d’une économie de l’attention [qui consiste, dans la surabondance d’informations, à capter l’attention du public pour la valoriser économiquement, ndlr], mais c’est une confusion trompeuse. L’attention n’est que l’effet d’une cause, et cette cause, c’est un impératif économique qui demande une implication permanente.

    Craignez-vous que la pandémie, pendant laquelle nos vies se déroulent massivement en ligne, n’accélère cette dynamique ?
    À cause du coronavirus, l’Unesco estime que près de 300 millions d’enfants n’ont pas pu aller à l’école. C’est un chiffre sans précédent. Dans le même temps, Classroom, la plateforme d’apprentissage de Google à destination des enseignants, a multiplié par deux le nombre d’utilisateurs. Contrairement à ce que pensent les dirigeants des géants du numérique, cette consolidation n’est pas liée à un soudain afflux d’amour.

    Au contraire, deux enquêtes réalisées cet été montrent un renforcement du techlash (contraction de technology et backlash, ce mot-valise désigne le retour de bâton subi par les oligopoles de la Silicon Valley depuis deux ou trois ans, NDLR). La première dévoile que 75 % des Américains accordent plus d’importance à leurs données personnelles qu’au service offert par les plateformes ; 77 % pensent que ces entreprises ont trop de pouvoir ; 84 % ne leur font pas confiance. Dans la seconde, on apprend que la seule industrie moins populaire que Mark Zuckerberg est celle du tabac. Ces chiffres démontrent une véritable rupture entre le public et les Gafam, Facebook en particulier.

    “Je suis impressionnée par notre capacité collective à nous rassembler malgré l’isolement dans lequel nous sommes maintenus. C’est un premier pas et, désormais, il faut réussir à amener cette énergie dans l’arène politique.”

    Ce qui rend le moment aussi intéressant qu’incertain : sous le règne du capitalisme traditionnel, les classes populaires ont su s’unir pour défendre leurs droits en s’organisant en syndicats, en faisant grève, etc. Et face au capitalisme de surveillance ?
    Jusqu’à présent, nous n’étions que des utilisateurs, le terme dont nous affublent les plateformes. Une terminologie qui annonce notre anonymat interchangeable. En janvier 2019, j’ai quitté mon domicile pour trois semaines de tournée promotionnelle. Au bout du compte, j’ai voyagé pendant quatorze mois. Partout où je suis allée, aux États-Unis et en Europe, j’ai demandé aux gens de résumer en un seul mot pourquoi ils venaient à ma rencontre. En les compilant, j’ai réalisé qu’ils étaient récurrents et formaient un champ lexical parfaitement cohérent : liberté, anxiété, démocratie, manipulation, contrôle, résistance, colère, rébellion, action, invasion, peur, vie privée, vol, droits, autonomie, constitution, pouvoir, justice.

    Je suis impressionnée par notre capacité collective à nous rassembler malgré l’isolement dans lequel nous sommes maintenus. C’est un premier pas et, désormais, il faut réussir à amener cette énergie dans l’arène politique. Nous allons devoir inventer de nouveaux modes d’organisation, qui seront probablement différents des institutions du XXe siècle. Je pense par exemple au Real Facebook Oversight Board, lancé au mois de septembre et dans lequel je siège avec vingt-cinq autres membres de la société civile [ce collectif a été créé afin de surveiller l’Oversight Board officiel, « cour suprême » du réseau social chargée d’arbitrer les différends liés aux contenus, ndlr].

    Des armes anciennes pourraient toutefois être efficaces, comme les lois antitrust. Pensez-vous qu’il faille démanteler Facebook ou Google ?
    Ce n’est qu’une partie de la solution. Ces lois ont été conçues pour répondre à d’autres situations. Une entreprise comme Amazon était une impitoyable capitaliste avant de devenir une impitoyable capitaliste de surveillance. Autour de 2015, son patron, Jeff Bezos, a commencé à prendre conscience des incroyables revenus générés par les dividendes de la surveillance, et il s’est mis à réfléchir à un moyen d’embrasser ce modèle, en plus des pratiques dont il était déjà coutumier, qu’il s’agisse d’exploiter sa main-d’œuvre ou d’éliminer la concurrence.

    On pourrait dire la même chose de Facebook ou de Google. Il est vital que nous mesurions l’ampleur exacte du problème que nous tentons de résoudre. Quand les dirigeants de ces entreprises sont auditionnés au Congrès américain, il est surtout question d’invasion de la vie privée, de géolocalisation clandestine, du risque de désinformation. Ces interrogations montrent bien qu’il ne s’agit pas seulement de démanteler des monopoles. En Europe, le Règlement général sur la protection des données [entré en vigueur en mai 2018, ndlr] montre à la fois la voie et qu’il est bien trop tôt pour sabrer le champagne.

    Vous parlez d’un « capitalisme renégat » comme s’il était accidentel. Cela signifie-t-il qu’il peut être réformé ?
    Le capitalisme possède cette propriété que l’historien Fernand Braudel nommait « la longue durée ». Il faut l’analyser à travers ce prisme, en prenant en compte les spécificités de son époque, en l’occurrence le numérique. Je le nomme renégat car il renie certains aspects du capitalisme de longue durée, indispensables à sa durabilité, particulièrement l’idée d’offre et de demande. Même si Marx ou Schumpeter [le théoricien de la fameuse destruction créatrice, ndlr] ne partagent évidemment pas la même vision sur ses effets, le capitalisme, aussi violent et inégalitaire soit-il, a appris à améliorer les sociétés, en renforçant par exemple les classes moyennes.
    “Le capitalisme de surveillance ne s’intéresse ni à la réciprocité de l’offre et de la demande, ni à la résolution des problèmes que rencontrent les individus. Comme la financiarisation, c’est une forme entièrement parasite, et il n’y a rien à en sauver.”

    Le capitalisme de surveillance s’éloigne de ce modèle en ce sens qu’il détourne la technologie de notre époque à des seules fins d’accumulation. Il ne s’intéresse ni à la réciprocité de l’offre et de la demande, ni à la résolution des problèmes que rencontrent les individus. Comme la financiarisation, c’est une forme entièrement parasite, et il n’y a rien à en sauver. Je ne pense pas qu’on puisse dire la même chose du capitalisme industriel, qui a su en partie épouser les formes d’une société démocratique.

    Pour conclure sur une note plus personnelle et universelle, vous militez pour un droit au sanctuaire. Que répondez-vous à ceux, nombreux, qui prétendent qu’ils n’ont rien à cacher ?

    Si vous n’avez rien à cacher, vous n’existez pas. C’est une intoxication dangereuse. Cela revient à vous laisser détrousser de votre vie privée, à abandonner toute solitude et à ouvrir votre intimité à n’importe laquelle de ces entreprises. Dire que vous n’avez rien à cacher, c’est accepter votre condition d’utilisateur vide, uniquement défini par le rapport qu’il entretient avec les technologies qu’il utilise.

    #Alphabet #Google #DoD #NSA #CIA #algorithme #bénéfices #BigData #surveillance #microtargeting

  • The Battle That Will Define Big Tech for Decades - Will Oremus
    https://onezero.medium.com/the-battle-that-will-define-big-tech-for-decades-141f192b86d5

    Google’s antitrust case won’t reshape the industry. But it’s the start of something that might. The Department of Justice’s antitrust lawsuit against Google got a lot of attention this week, and understandably so. It mirrors the landmark antitrust case against Microsoft two decades ago, which stands as the prototypical example of the U.S. government grappling with a big tech company’s power. But it is also, in many ways, a narrow case : It focuses exclusively on Google’s dominance of internet (...)

    #Alphabet #Google #Microsoft #DoJ #Facebook #Twitter #procès #domination #modération #BigData #GAFAM #microtargeting #surveillance (...)

    ##FTC

  • Shoshana Zuboff : « Nous avons besoin de nouveaux droits pour sortir du capitalisme de surveillance »
    https://aoc.media/entretien/2020/10/23/shoshana-zuboff-nous-avons-besoin-de-nouveaux-droits-pour-sortir-du-capitalis

    Sociologue et professeure émérite à la Harvard Business School, Shoshana Zuboff s’est intéressée à l’économie des big data. Alors que son dernier livre paraît en français, elle expose ici les rouages du « capitalisme de surveillance », dernier stade du capitalisme à l’ère numérique, marqué par la transformation de nos données personnelles en produits marchands. Un phénomène inquiétant qui devrait nous conduire à définir au plus vite un droit qui garantisse à chacun la souveraineté sur son expérience personnelle.

    Shoshana Zuboff enseigne à la Harvard Business School depuis 1981. Elle a publié en 1988 une analyse des transformations du travail dans In the Age of the Smart Machine : The Future of Work and Power. En 2019, elle fait paraître un livre déjà traduit en une vingtaine de langues, qui a d’ores et déjà un impact considérable sur les analyses de l’économie des big data et des plateformes, et qui vient de paraître en français aux éditions Zulma sous le titre L’âge du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir. Elle présente ici quelques points fondamentaux de l’appareil théorique proposé par son ouvrage, en même temps qu’elle discute des revendications politiques sur lesquelles il débouche. YC.

    Comment inscrivez-vous l’économie actuelle des big data et de la surveillance dans les développements du capitalisme ?Retour ligne automatique
    Il y a un modèle de longue durée que suit le capitalisme et qu’a décrit Karl Polanyi dans La Grande Transformation dans une analyse restée célèbre. Ce modèle est en fait très complexe. Il implique que le capitalisme évolue et se développe en prenant des objets qui existent en dehors de la dynamique du marché, et en les insérant dans cette dynamique du marché, en les transformant en objets qui peuvent être vendus et achetés. C’est ce que Polanyi appelait des marchandises fictionnelles. Le capitalisme industriel a fait cela en visant la nature, une nature qui vivait innocemment sa propre vie. Les prairies, les rivières et les forêts se sont trouvées intégrées à la dynamique du marché et transformées en sources de matières premières, en sources d’énergie, en biens fonciers et immobiliers, en choses qui pouvaient être vendues et achetées. Au cours de cette marchandisation, nous perdons la trace de la nature comme nature, et nous ne pouvons plus la percevoir que sous sa forme marchande. En parlant de « marchandises fictionnelles », Polanyi attirait l’attention sur le fait que la nature n’est pas en elle-même une marchandise, qu’elle n’est pas née marchandise : elle est devenue marchandise à cause du capitalisme.Retour ligne automatique
    Avançons maintenant, très rapidement, vers le XXIe siècle, le siècle du numérique. Nous sommes dans la Silicon Valley, parmi les start-up, en l’an 2000 ou 2001. Il s’y produit ce qu’on appelle « l’effondrement de la bulle Internet » : le marché se rend compte que toutes ces petites start-up ont été surévaluées. Les investisseurs se retirent et beaucoup de start-up font faillite. Cela s’explique en partie par le fait qu’elles n’ont pas trouvé de moyen de monétiser leurs activités. Elles sont sur Internet, elles ont des clients et elles offrent des produits et des services, mais elles ne gagnent pas d’argent : elles n’ont pas trouvé leur marchandise fictionnelle. Pendant un moment, ça a été la panique dans la Silicon Valley. Quelle sera la « marchandise fictionnelle » de la nouvelle économie, qui pourra être vendue et achetée, qui produira ex nihilo des revenus et du profit ? Personne, personne ne savait. Personne ne comprenait. Personne n’avait la réponse.

    C’est là le tournant de la nouvelle forme de capitalisme que vous appelez le « capitalisme de surveillance » ?Retour ligne automatique
    Exactement, et voilà comment s’est opéré ce tournant. La réponse – et c’est Larry Page qui l’a formulée en 2001, je crois, pour Google – c’était ce qu’on a appelé « les données personnelles ». Mais plus précisément, c’était l’expérience humaine personnelle. À un moment donné, on a compris que l’expérience humaine personnelle était le nouveau bois vierge, la nouvelle forêt, la nouvelle prairie inexploitées – pouvant être monétisée et transformée en marchandise fictionnelle. Une nouvelle source de matière première qui pouvait être revendiquée unilatéralement et qui pouvait être introduite dans la dynamique du marché. Donc, à la place de la nature, c’était la nature humaine : notre expérience personnelle. Et par là-même, ce qui s’est passé, c’est qu’on a considéré l’expérience humaine personnelle comme une matière première disponible, traduite en données comportementales par les processus informatiques de ces entreprises.Retour ligne automatique
    L’important est de comprendre que ces données comportementales étaient alors implicitement définies comme confidentielles. Elles étaient à nous sans même qu’on pense qu’elles pouvaient être appropriées par autrui. Eh bien, elles se sont trouvées transférées, déplacées dans ce que je considère comme une nouvelle « chaîne d’approvisionnement ». Chaque interface avec des entreprises comme Google, chaque interface activée par Internet s’est fait intégrer dans une chaîne d’approvisionnement. Et maintenant, on a des réseaux de chaînes d’approvisionnement complexes, qui commencent avec la recherche et la navigation en ligne, mais qui s’étendent désormais à toute activité en ligne.Retour ligne automatique
    Les données comportementales prétendument confidentielles, qui circulent dans les chaînes d’approvisionnement, où vont-elles ? Eh bien, comme toutes les matières premières, elles vont dans une usine. Mais c’est une usine de l’ère numérique, nommée « intelligence artificielle », « apprentissage machine » ou « apprentissage automatique ». Et ce qui se passe dans cette nouvelle forme d’usine, c’est la même chose que ce qui se passe dans toutes les usines : on fabrique des produits. Sauf que dans le cas présent, ce sont des produits informatiques.

    Quelle est la spécificité de ces produits mis en circulation par le capitalisme de surveillance ? Qu’est-ce donc qui s’y vend ?Retour ligne automatique
    Pendant des années, quand j’essayais de comprendre les fondements du capitalisme de surveillance, ses mécanismes fondamentaux, je regardais toute la journée des vidéos de gens comme Eric Schmidt ou Larry Page – les dirigeants de Google – en train de donner une conférence, de discuter avec des développeurs, de prononcer des discours ou de parler de leurs résultats financiers. Et cela m’a fasciné d’entendre si souvent Eric Schmidt répéter : « Vous savez, nous ne vendrons jamais vos informations personnelles ». Je m’asseyais à mon bureau et je pensais : pourquoi ne le fait-on pas arrêter, ou dénoncer, pour avoir tout simplement menti aux gens ? Je veux dire : comment peut-il affirmer « nous ne vendrons jamais vos informations personnelles », alors que c’est précisément ce qu’ils font ?Retour ligne automatique
    Mais peu à peu, je me suis plutôt efforcée de répondre à la question suivante, qui est un peu différente : comment se fait-il que ce que répétait Eric Schmidt est finalement vrai ? J’ai décidé de supposer qu’il n’a pas le culot de mentir à tout le monde encore et encore. Et c’est ainsi que j’ai pu comprendre le surplus comportemental. C’est cela que monétise le capitalisme de surveillance. Car il s’avère que ce qui se trouve dans ces chaînes d’approvisionnement ne se limite pas aux « informations personnelles », que je donne sciemment à Google, Facebook, Amazon, Microsoft, Twitter ou autre. Ces informations personnelles que je donne sciemment en échange de services gratuits ne représentent qu’une infime partie des informations qu’ils ont sur moi. Leur modèle repose sur le fait que, bien au-delà de ces seules informations personnelles, ils passent en revue chacune des empreintes que je laisse dans le monde numérique, chaque trace que je laisse de mon activité sur Internet, où que ce soit. Ils extraient toutes ces traces et les analysent pour leurs signaux prédictifs.Retour ligne automatique
    L’important est qu’ils ont découvert très tôt – et on peut le voir dans leurs demandes de brevet – qu’ils pouvaient rechercher des informations personnelles sur l’ensemble de l’Internet, où que l’on soit. Et ils pouvaient rassembler toutes ces informations, et, à partir de ces données, les scientifiques disent être capables d’induire ou de déduire des informations vous concernant et que vous n’aviez jamais eu l’intention ni la conscience de divulguer : votre orientation politique, votre personnalité, votre orientation sexuelle, etc.

    C’est tout ceci qui constitue « le surplus comportemental » qui est la nouvelle matière première exploitée par le capitalisme numérique ?Retour ligne automatique
    Oui, et un an plus tard, lorsque Facebook est apparu, la collecte d’informations ne s’est pas cantonnée à ce que vous dites dans un post. Elle s’est rapidement étendue au fait que vous y utilisez des points d’exclamation, ou des puces. Ce n’est pas seulement les photos de votre visage qui vous taguent, c’est l’analyse des muscles de votre visage pour déceler les micro-expressions, parce que celles-ci trahissent vos émotions et que vos émotions prédisent fortement votre comportement. Et puis c’est la saturation des couleurs des photos, pas seulement le contenu des photos. Toutes ces données, ce sont des surplus comportementaux, qui donnent des informations. En tant qu’utilisateurs, nous ne pouvons pas les identifier, et nous n’avons aucune idée de la manière dont ils sont extraits.Retour ligne automatique
    Je résume : ce qui entre dans les tuyaux du capitalisme de surveillance, ce qui arrive dans ses nouvelles usines, c’est en partie des informations que nous avons sciemment données (les « données personnelles »), mais ce sont surtout ces énormes flux de surplus comportementaux qu’ils nous soustraient. Cela a commencé avec nos traces laissées en ligne, mais maintenant, cela s’étend à tous nos comportements, à tous nos déplacements, c’est le fondement de la révolution de la mobilité. En effet, si le smartphone a été inventé, c’est parce que le smartphone est devenu la mule du surplus comportemental. Chaque application que l’on installe sur son téléphone transmet le surplus comportemental – en même temps que les informations que vous avez données à l’application – dans ces « agrégateurs », dans leurs chaînes d’approvisionnement : la localisation du microphone, la caméra, les contacts, tout cela.

    Vous distinguez clairement le cas restreint des « données personnelles » des masses bien plus larges de ce que vous appelez « surplus comportemental ». Je me demande si une distinction similaire pourrait se faire entre le cas restreint de ce qu’on appelle habituellement « l’attention » et ces masses bien plus importantes que vous appelez « expérience humaine personnelle ». Cela remettrait dans une perspective très différente, et très suggestive, ce qu’on appelle « l’économie de l’attention ».Retour ligne automatique
    Oui, je pense en fait que le langage de « l’économie de l’attention » a empêché le grand public de comprendre ces phénomènes, et que c’est un concept malavisé. Pour être honnête, lorsque j’écrivais ma thèse de doctorat à Harvard en psychologie sociale dans la deuxième moitié des années 1970, on faisait notre travail de recherche et puis, dans mon département, il fallait rédiger deux études d’envergure dans ce que vous aviez choisi comme domaines de spécialité – deux articles dans les domaines de spécialité. Et j’ai choisi l’histoire du travail comme l’un de mes domaines de spécialité. J’ai écrit mon mémoire sur ce que j’ai appelé L’interaction sociale et l’histoire du travail, avec pour sous-titre L’organisation sociale de l’attention. Je commençais par parler des éthologues qui étudiaient le comportement du regard, le comportement du regard des primates en petits groupes. J’ai réinvesti ces études dans mon travail sur l’invention de l’organisation de l’usine et le contrôle de l’attention.Retour ligne automatique
    Et j’ai toujours tenu à définir l’économie de l’attention comme ce que nous faisons maintenant, dans cet entretien par Zoom : c’est une affaire de regard, souvent à plusieurs. Par exemple, nous regardons l’écran, notre attention se concentre sur l’écran – notre attention visuelle. C’est bien entendu un phénomène réel, à l’évidence – et ce n’est pas une bonne chose que nous regardions des écrans toute la journée… Mais encore faut-il mettre cela en parallèle avec une logique économique. Et c’est là que l’on fait erreur. Le fait que notre attention soit sollicitée par l’écran est un effet, non une cause. Et c’est là que l’idée d’économie de l’attention s’effondre. Le fait que notre attention soit hypnotisée, les phénomènes dit d’addiction, tous ces phénomènes sont les effets d’une cause, tout comme la désinformation. Notre vulnérabilité à la désinformation est un effet d’une cause.Retour ligne automatique
    Or la cause de ces effets est la logique économique que j’appelle le capitalisme de surveillance, avec ses lois d’airain et ses impératifs économiques. Et l’effet, c’est que le surplus comportemental est maximisé par une plus grande mobilisation de l’attention. Ainsi, le surplus comportemental – la maximisation de l’extraction du surplus comportemental – est un impératif économique. Les économies d’échelle sont un impératif économique.Retour ligne automatique
    La mobilisation de l’attention est seulement un moyen d’atteindre cet objectif. Ici aussi, en réfléchissant au surplus comportemental plutôt qu’à l’économie de l’attention, on s’aperçoit que d’énormes volumes de surplus comportementaux sont extraits à notre insu, sans que nous en ayons conscience et, surtout, sans que nous y prêtions attention. Et c’est pourquoi j’appelle cela « capitalisme de surveillance » : c’est parce que cela doit se produire d’une manière qui nous est cachée pour être efficace. Si nous le savions, nous y résisterions.

    Vous venez de mentionner les « économies d’échelle » et, dans le livre, vous passez de ce concept assez familier aux « économies de gamme » (economies of scope) et aux « économies d’actions ». De quoi s’agit-il dans ces deux derniers cas ?Retour ligne automatique
    Le principe est que la dynamique du capitalisme de surveillance est orientée vers la collecte de la totalité des données, parce que la totalité des données mène à une certitude parfaite. On a vu que le capitalisme de surveillance avait mis en place des usines de calcul, traitant le surplus comportemental, pour en tirer quoi ? Des produits de prédiction (predictive products). Ces produits de prédiction sont vendus sur des marchés à terme comportementaux (behavioral futures markets). Je les ai aussi appelés « marchés à terme humains » (human futures markets) parce que ce sont des marchés qui négocient des contrats à terme humains, tout comme nous avons des marchés pour négocier des contrats à terme sur la poitrine de porc ou sur le pétrole ou sur le blé. Alors, qu’est-ce qui se vend sur ces marchés à terme humains ? Eh bien, en gros, on vend de la certitude. C’est à cela que les programmes de prédiction aspirent : des résultats fiables pour vendre de la certitude. Quelles sont donc les dynamiques concurrentielles si vous vendez de la certitude, si vous concurrencez l’incertitude ?Retour ligne automatique
    Tout d’abord, vous avez besoin de beaucoup de données, parce que l’I.A. s’améliore avec l’échelle. Plus les algorithmes ont de données, meilleurs ils sont. Ensuite, il faut de l’envergure, toute une large gamme de données diverses entre elles, parce qu’il faut du volume mais aussi de la variété. Ces deux aspects sont en fin de compte assez faciles à comprendre. C’est effrayant de comprendre ce qu’est vraiment la variété et ce qu’est le volume de tout cela, parce que c’est tellement vaste. Mais on voit quelles sont les économies d’échelles (en extension) et de gamme (en diversité).Retour ligne automatique
    Les économies d’action nous font sortir de la métaphore du web et des écrans, pour nous faire entrer dans le monde, à savoir nos maisons, nos voitures, nos villages, nos villes, nos parcs, nos restaurants, nos cafés, etc. Il est de plus en plus difficile d’y échapper à la surveillance.Retour ligne automatique
    La concurrence pour la certitude devient un domaine toujours plus intrusif. Elle apprend à influencer notre comportement, non seulement à observer mais à intervenir activement dans le cours de nos vies ordinaires et à les régler en s’y insinuant de diverses manières – indices subliminaux, nudges, dynamiques de comparaison sociale artificielles, microciblages psychologiques, gamification, récompenses et punitions en temps réel. Tout cela, ce sont des techniques, des mécanismes utilisés sur le web et en dehors du web, dans le monde physique, pour influencer notre comportement, pour pousser notre comportement dans une certaine direction. Cela maximise la certitude, cela maximise les résultats attendus des prédictions et devient donc plus lucratif dans la compétition pour la certitude. Il s’agit donc d’un tout nouveau domaine, qui relève d’économies d’actions.

    On pourrait vous objecter que ces dispositifs d’influence ne datent pas des années 2000, mais remontent à bien plus loin.Retour ligne automatique
    Les gens me disent en effet souvent : « Nous avons de la publicité persuasive depuis le milieu du XIXe siècle. Il n’y a rien de nouveau là-dedans ». Ce genre de choses me rend folle, parce que c’est la rengaine « plus ça change, plus c’est la même chose ». Mais non, ce n’est pas « la même chose » ! Il faut être attentif aux circonstances matérielles toujours changeantes dans lesquelles la vie humaine se déploie. Et ces circonstances matérielles produisent un changement qualitatif, et pas seulement quantitatif, dans les conditions d’existence. Il est très dangereux de dire « Oh, ce n’est que de la persuasion ». Nous disposons maintenant d’une infrastructure numérique ubiquitaire qui imprègne nos vies en ligne et nos vies dans le monde réel. Et cette infrastructure omniprésente peut être mobilisée pour influencer notre comportement, nos attitudes, nos pensées, nos sentiments. Et cela est absolument sans précédent.Retour ligne automatique
    C’est pourquoi je parle de la naissance d’un pouvoir instrumentarien, en essayant d’expliquer pourquoi nous ne le comprenons pas et combien il est essentiel pour nous de le comprendre. Parce que c’est une nouvelle forme de pouvoir et qu’il s’inscrit dans nos sociétés, dans nos vies et dans notre politique. En effet, ces économies d’action, la capacité à l’échelle d’utiliser ces mécanismes – indices subliminaux, dynamiques de comparaison artificielles, microciblages psychologiques, etc. –, d’utiliser ces mécanismes et de les réorienter à des fins politiques, c’est précisément ce que nous avons vu avec Cambridge Analytica. Cela a fait peur à tout le monde. C’est ce que nous avons vu se produire – nous le savons à présent – lors de la campagne de Trump en 2016, et cela a peut-être fait la différence lors de l’élection de Trump en 2016. C’est cela, les mécanismes et les méthodes inventés par le capitalisme de surveillance et la compétition pour la certitude, réquisitionnés par des agents politiques, axés sur des objectifs politiques, qui pourraient bien être responsables de la présidence de Trump.

    Outre les usages politiques des technologies de surveillance, j’aimerais revenir brièvement sur la nature du capitalisme dont il est question ici. Quel est son lien avec les développements récents de la finance, et avec ce que des analystes comme Randy Martin ont appelé « la financiarisation de la vie quotidienne ».Retour ligne automatique
    S’il n’y avait pas eu de financiarisation, je ne suis pas sûre que le capitalisme de surveillance aurait pu voir le jour. La financiarisation a grandement participé à insinuer dans la mentalité humaine l’idée selon laquelle le capitalisme tournerait moins autour de la vente de biens et de services que sur des activités complètement dérivées – sur des sortes de produits dérivés, des valeurs plus abstraites, dérivées de vrais produits et services. En effet, c’est à ce moment-là que les entreprises ont commencé à gagner de l’argent non plus sur leurs produits, mais sur le financement de leurs produits. Les entreprises ont commencé à gagner de l’argent non plus grâce à leurs services, mais grâce à leurs investissements de portefeuille dans des produits financiers – ce qu’elles pouvaient se permettre grâce au capital généré par leurs services. Voilà comment la financiarisation nous a appris à penser la capitalisation comme étant intrinsèquement parasitaire et dérivée.Retour ligne automatique
    Le capitalisme de surveillance va plus loin dans cette voie. Toute la logique d’accumulation – la richesse s’accumulant effectivement dans le capitalisme de surveillance – est entièrement dérivée, entièrement parasitaire. Cela commence par un surplus comportemental arraché à notre expérience. Notre expérience, en tant que telle, n’a aucun intérêt pour le capitalisme de surveillance. Guérir ma maladie, cela n’a aucun intérêt. Les capitalistes de surveillance veulent juste savoir ce que je cherche sur le web au jour le jour. M’aider à obtenir un prêt hypothécaire équitable, cela n’a aucun intérêt. Ils veulent seulement savoir le travail que j’ai fait pour essayer d’obtenir un prêt hypothécaire. Qu’est-ce que j’ai cherché ? Et comment cela se combine-t-il à mes données démographiques, à mon crédit et à mes achats ? Ils font tout cela en créant des profils sur moi. Mais personne ne revient en arrière pour dire : « Hé, laissez-moi vraiment vous aider à obtenir un prêt hypothécaire honnête pour vous et votre famille. » Cela n’a absolument aucun intérêt pour eux. C’est pourquoi je parle de surplus comportementaux « arrachés » : ce qui reste derrière, c’est la carcasse de nos vies présentes. C’est comme prendre l’ivoire d’un éléphant. Ce qui reste, c’est moi et ma vie avec tous mes problèmes et mes difficultés.Retour ligne automatique
    Quand Henry Ford a inventé le modèle T, il essayait en fait de résoudre des problèmes de la vie réelle de vraies personnes (des gens qui voulaient une voiture au prix qu’ils étaient en mesure de payer – des agriculteurs et des commerçants). Certes, Henry Ford était une personne horrible : il était antisémite et misogyne, et il était détestable à bien des égards. Mais le capitalisme industriel fondé sur la production de masse s’est étendu dans le monde entier parce qu’il résout les problèmes réels de gens réels. C’est ce dont Schumpeter a fait l’éloge.Retour ligne automatique
    À présent, le secteur de la Tech reprend une expression de Schumpeter, celle de « destruction créative », et s’en sert comme insigne d’honneur pour son activité parasitaire. Alors qu’en fait Schumpeter ne parlait pas seulement de « destruction créative ». Schumpeter parlait de mutations économiques qui, selon sa propre théorie, profitent à tout le monde, donc augmentent la classe moyenne, augmentent la prospérité des gens ordinaires : c’est ce qui définit la mutation économique dans son esprit. Or ce n’est pas du tout ce qu’a fait le capitalisme de surveillance – dont le modèle de profit est parasitaire en ne s’intéressant qu’aux produits dérivés de nos expériences personnelles.

    Que dites-vous aux défenseurs de Google qui pourraient dire : « OK, Google extrait mon surplus comportemental pour profiter de ses produits dérivés, mais il me rend aussi un service réel : lorsque je fais une recherche, je peux trouver quelque chose facilement. Henry Ford a produit des voitures et Google produit une capacité d’accès à des informations pertinentes sur l’énorme quantité de données sur Internet » ?Retour ligne automatique
    Henry Ford a produit des voitures – et maintenant nous avons le réchauffement climatique ! Autrement dit : nous avons des externalités. Cela aurait pu être différent, mais nous devons maintenant faire face à ces externalités. Tout ce que nous avons sera remis en question pour compenser ces externalités. Maintenant, pour être juste envers Ford, il n’avait aucune idée de tout cela, nous n’avions pas la science du climat, donc il ne l’a pas fait exprès.Retour ligne automatique
    Google nous permet de faire des recherches Internet et c’est formidable, mais cela s’accompagne aussi d’externalités. Cependant, contrairement à Henry Ford, nous savons maintenant identifier ces externalités. Nous connaissons les externalités provenant de concentrations de connaissances sans précédent, provoquant des concentrations de pouvoir sans précédent – générant un pouvoir que j’appelle « instrumentarien ». Nous connaissons les objectifs visant à remplacer la démocratie par une gouvernance informatique, par une gouvernance algorithmique. Nous avons déjà bien vu cela, dans de nombreux cas, et ce n’est qu’un début. Nous connaissons les objectifs de la modification des comportements. Nous voyons les effets de la désinformation, nous voyons les effets de l’addiction. Nous en voyons les effets chez nos enfants : diminution de l’identité, de la capacité de jugement moral indépendant. Nous sommes face à ce chaos. Dans mon pays, en ce moment, le chaos dans lequel nous nous trouvons à l’approche de cette élection très importante est dû à 100 % aux externalités du capitalisme de surveillance.Retour ligne automatique
    Ma réponse à cela est donc : faisons des recherches sur Internet, et utilisons les réseaux sociaux, faisons-le, faisons appel à la technologie numérique – mais faisons-le sans les externalités du capitalisme de surveillance. Utilisons la technologie numérique d’une manière qui réponde réellement à nos problèmes, qui subvienne aux besoins des gens et qui réponde aux véritables besoins sociaux. Pas cette activité parasitaire dans laquelle toutes ces prédictions qui sortent des usines de calcul sont centrées sur moi, mais pas pour moi. Elles sont vendues à un groupe restreint d’entreprises clientes qui parient sur mon comportement futur afin d’améliorer leurs revenus et leurs profits.Retour ligne automatique
    Vous avez donc ces marchés qui profitent de mes problèmes et qui parient sur mon avenir. Vous avez les entreprises de la Tech, les capitalistes de la surveillance qui profitent de ma vie sans y contribuer. Et vous avez les investisseurs qui bénéficient de la capitalisation boursière, la capitalisation boursière construite sur ces opérations parasitaires, fondamentalement illégitimes. Il y a donc un groupe restreint de personnes qui s’enrichissent, et le reste d’entre nous qui observe cette concentration croissante de connaissances, de richesses et de pouvoir, en se disant « Mais qu’est-ce qui se passe ici ? Et nous, alors ? »

    Comment nous émanciper de ce pouvoir instrumentarien et extractiviste, qui profite de l’exploitation de nos expériences personnelles en générant des externalités funestes ? Autrement dit, quel agenda politique émane de votre analyse du capitalisme de surveillance ?Retour ligne automatique
    Il semble parfois n’y avoir aucun espoir, mais ce n’est pas le cas. La première chose à savoir, c’est que le capitalisme de surveillance n’a que vingt ans. La démocratie est plus ancienne. La raison pour laquelle le capitalisme de surveillance a connu un tel succès depuis vingt ans est qu’il n’y a pratiquement pas eu de loi pour lui faire obstacle. À la marge, un peu ici et là, dans quelques pays, le RGPD (règlement général sur la protection des données) a pu être un vague obstacle, comme certains ont pu le penser : mais c’est juste un début, et certainement pas une fin. Nous n’avons donc pas vraiment eu de loi pour faire obstacle au capitalisme de surveillance. Si nous avions vraiment pris des mesures en ce sens ces vingt dernières années et que nous étions toujours dans cette situation, je serais beaucoup plus pessimiste. Mais ce n’est pas le cas.Retour ligne automatique
    Mon point de vue est le suivant : qu’il s’agisse de l’antitrust ou du RGPD, nous n’avons pas encore le type de lois et de paradigmes de réglementation (de chartes, des droits et de structures institutionnelles) dont nous avons besoin pour rendre cet avenir numérique compatible avec la démocratie. Et cela veut dire que nous n’avons pas les outils, les outils juridiques dont nous avons besoin pour suspendre et interdire les mécanismes clés du capitalisme de surveillance. Il est donc essentiel de comprendre ces mécanismes, car, une fois qu’on les a compris, la perspective de les suspendre et de les interdire n’est pas aussi écrasante.Retour ligne automatique
    Par exemple, j’ai soutenu que les marchés qui font le commerce de l’avenir humain (markets that trade in human futures) devraient être illégaux. Les marchés qui font le commerce d’organes humains sont illégaux. Les marchés qui font le commerce d’êtres humains sont illégaux. Et ils sont illégaux parce que nous savons qu’ils entraînent indubitablement des conséquences néfastes, dangereuses et antidémocratiques. Ils entraînent indubitablement des préjudices qui sont intolérables pour une société démocratique. Et je soutiens que les marchés, le commerce de l’avenir humain, entraînent également des dommages qui sont intolérables pour la démocratie. Nous pouvons donc rendre ces marchés illégaux.Retour ligne automatique
    Et si nous le faisons, nous supprimons complètement les incitations financières. Nous éliminons de toute cette sphère ce que j’appelle le « dividende de la surveillance », ce dividende parasitaire. Et nous disons alors : « Donnez-nous la technologie numérique, mais donnez-nous la technologie numérique sous une forme qui nous respecte, qui respecte notre droit de revendiquer la souveraineté sur notre propre expérience personnelle ».Retour ligne automatique
    Du côté de la demande, donc, nous avons ces marchés à terme où il y a des incitations financières qui créent une demande pour les produits de prédiction. Du côté de la demande, il y a donc un moyen d’intervenir et de changer réellement la dynamique. Et si nous le faisions, cela ouvrirait instantanément le paysage concurrentiel à une véritable innovation. Pour tous les gens qui sont là – car il y en a littéralement des centaines dans ma boîte de réception chaque semaine qui ont des idées sur la façon dont nous devrions faire de la recherche et sur la façon dont nous devrions utiliser la technologie numérique pour résoudre toutes sortes de problèmes sans le capitalisme de surveillance –, nous pouvons facilement imaginer le numérique sans le capitalisme de surveillance. En revanche, nous ne pouvons pas imaginer le capitalisme de surveillance sans le numérique. La suspension de ces incitations financières ouvre donc la voie à une nouvelle ère d’innovation numérique. Tant mieux.

    Voilà pour ce qui concerne le côté de la demande. Comment peut-on agir du côté de l’offre ?Retour ligne automatique
    Le côté de l’offre, c’est celui où l’expérience humaine personnelle est considérée comme matière première gratuite, dont on cherche à extraire des surplus comportementaux. Cette activité que l’on appelle capitalisme de surveillance est conçue pour être secrète, pour nous maintenir dans l’ignorance. Si vous la décrivez à n’importe quel enfant de huit ans, il répondra : « Mais c’est du vol ! » Et il aura raison. Le système actuel est un permis de voler. Les capitalistes de surveillance ont eu le droit de voler, tout l’édifice est construit sur une base illégitime, à savoir nous prendre sans demander. Donc, du côté de l’offre, nous devons définir de nouveaux droits, que j’appelle des droits épistémiques.Retour ligne automatique
    Depuis que j’ai publié le livre, j’ai beaucoup écrit sur l’égalité épistémique, sur les droits épistémiques, et sur la justice épistémique. Les questions principales sont : Qui sait ? Qui décide ? Qui décide qui sait ? Qui décide qui décide ? Ce sont des questions de connaissances, d’autorité et de pouvoir.Retour ligne automatique
    Avant le pouvoir instrumentarien, on considérait comme un droit élémentaire le fait que je sois le seul à connaître mon expérience personnelle – et peut-être que je la partage avec un ami, ou avec ma famille, ou avec mon partenaire, mais c’est moi qui décidais. Je savais et je décidais. Et il n’y avait pas vraiment matière à contestation à ce sujet, car la vie humaine était ainsi faite. Les humains ont une vie limitée dans le temps : on mourait, parfois nos vies étaient traduites en histoire ou en mythe, et puis plus tard il restait des photos et des lettres… Le fait de savoir quand décider qui sait ou ne sait pas ne devait pas être codifié en un droit juridique formel.Retour ligne automatique
    Mais maintenant, c’est le cas. Les droits sont codifiés dans l’histoire, tout comme le droit à la liberté d’expression a été codifié dans l’histoire. Je veux dire que quiconque est né sans handicap particulier peut parler. Si vous êtes en bonne santé d’un point de vue physiologique, vous pouvez parler. Vous n’avez pas besoin d’un droit à la parole, pas plus que vous n’avez besoin d’un droit de vous lever et de vous asseoir (tant que vous êtes en bonne santé). Mais à un certain moment de l’histoire de l’humanité, à cause de la pression politique, de la nature changeante de la société et nos conditions d’existence, nous avons dû codifier un droit à la liberté d’expression. Et nous l’avons fait.Retour ligne automatique
    Maintenant, au XXIe siècle, nous devons définir un droit qui garantisse à chacun la souveraineté sur son expérience personnelle – à savoir : je connais et je décide qui connaît mon expérience personnelle. Si je veux que mon expérience personnelle soit traduite en données, et si je veux donner ces données à un groupe qui travaille sur une forme particulière de cancer, ou à un groupe qui cherche à trouver des solutions contre la pauvreté dans mon quartier ou dans ma communauté, ce sont des décisions que je prends.

    C’est là, pour vous, le défi principal de notre époque ?Retour ligne automatique
    Tout à fait. Du côté de l’offre, nous avons besoin d’un nouveau droit. Du côté de la demande, nous avons besoin de nouvelles lois et de nouveaux paradigmes de réglementation. Et ces mesures ne sont pas difficiles à mettre en place. Ne pas les mettre en place, ce serait comme si nous étions arrivés à la fin du XXe siècle et qu’il n’y avait pas de lois sur le travail des enfants ; ou bien qu’il n’y avait pas de droit d’adhérer à un syndicat ou de négocier collectivement ; pas de droit de grève ; pas d’institutions qui encadrent les institutions démocratiques, qui encadrent la sécurité des salariés, leurs salaires ; pas d’institutions qui encadrent la sécurité de nos aliments, de nos médicaments, de nos bâtiments, de notre environnement ; pas de filets de sécurité en matière de santé, de retraite et de vieillissement. Imaginez que l’on ait vécu au XXe siècle sans rien de tout cela. Le XXe siècle aurait été un siècle de ténèbres, de souffrance, d’oligarchie, de servitude.Retour ligne automatique
    C’est là où nous en sommes aujourd’hui. Nous nous dirigeons vers un avenir numérique sans les protections dont nous avons besoin. Et mon argument est que, Dieu merci, ce n’est pas la fin du XXIe siècle. C’est encore le début. Nombre de ces protections dont nous disposions au XXe siècle ne sont pas apparues avant la troisième et la quatrième décennie. Je suis donc convaincue à présent que cette décennie, la troisième décennie du XXIe siècle, doit être le moment où nous nous attelons à ce travail. Parce qu’une décennie de plus sans protection et sans trouver une nouvelle voie pour l’avenir deviendra très, très difficile – et, j’en ai bien peur, beaucoup plus violente que ce à quoi nous sommes confrontés aujourd’hui.Retour ligne automatique
    Voici donc mon appel à agir pour les législateurs, pour les citoyens, pour tous ceux qui se soucient de l’avenir de la démocratie : nous devons élaborer un modèle d’avenir numérique qui soit conforme à nos aspirations en tant que démocraties libérales. Et nous n’avons pas encore fait ce travail.

    Shoshana Zuboff, L’Âge du capitalisme de surveillance, traduit de l’anglais par Bee Formentelli et Anne-Sylvie Homassel, éditions Zulma, 2020.

    Traduit de l’anglais par Clément Duclos.

    L’enregistrement audio de cet entretien en anglais est disponible en podcast sur le site de l’EUR ArTeC.

    Yves Citton

    Professeur de littérature et médias, Université Paris 8 Vincennes-Saint-Denis, co-directeur de la revue Multitudes

    #Google #Microsoft #Amazon #Facebook #Twitter #algorithme #smartphone #technologisme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #émotions #législation #addiction (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##bénéfices ##BigData ##comportement ##GAFAM ##surveillance

  • China : Police ‘Big Data’ Systems Violate Privacy, Target Dissent
    https://www.hrw.org/news/2017/11/19/china-police-big-data-systems-violate-privacy-target-dissent

    Automated Systems Track People Authorities Claim ‘Threatening’ (New York) – The Chinese government should stop building big data policing platforms that aggregate and analyze massive amounts of citizens’ personal information, Human Rights Watch said today. This abusive “Police Cloud” system is designed to track and predict the activities of activists, dissidents, and ethnic minorities, including those authorities say have “extreme thoughts,” among other functions. China has no enforceable (...)

    #algorithme #CCTV #technologisme #BigData #données #surveillance #HumanRightsWatch

  • How the U.S. Uses Technology to Mine More Data More Quickly
    https://www.nytimes.com/2013/06/09/us/revelations-give-look-at-spy-agencys-wider-reach.html

    WASHINGTON — When American analysts hunting terrorists sought new ways to comb through the troves of phone records, e-mails and other data piling up as digital communications exploded over the past decade, they turned to Silicon Valley computer experts who had developed complex equations to thwart Russian mobsters intent on credit card fraud. The partnership between the intelligence community and Palantir Technologies, a Palo Alto, Calif., company founded by a group of inventors from (...)

    #NSA #Paypal #BigData #Anduril #Palantir #PRISM #Maven #payement #scraping #câble

  • Dictature 2.0
    https://www.tallandier.com/livre/dictature-2-0

    Quand la Chine surveille son peuple (et demain le monde) Aujourd’hui naît en Chine un régime comme le monde n’en a jamais vu. Une néo-dictature entièrement remodelée par les armes du XXIe siècle, les nouvelles technologies. Il est temps de nous en inquiéter. « Au-dessus de lui, il n’y a plus que le ciel » : Xi Jinping concentre aujourd’hui un pouvoir plus important que Mao lui-même. À l’intérieur du pays, la Chine est en train d’arriver à un État de surveillance numérique parfait. Les technologies les (...)

    #algorithme #CCTV #domination #vidéo-surveillance #BigData #surveillance #TheGreatFirewallofChina

  • « La ville numérique a besoin d’une gouvernance publique des données, qui implique la population »
    https://www.lemonde.fr/economie/article/2020/10/13/la-ville-numerique-a-besoin-d-une-gouvernance-publique-des-donnees-qui-impli

    Teresa Scassa, spécialiste de la protection de la vie privée à l’université d’Ottawa (Canada), s’inquiète des risques que présente la ville numérique pour la gouvernance urbaine et la protection des libertés. Elle faisait partie du groupe d’experts chargé de conseiller Waterfront Toronto (l’autorité publique qui réunit le gouvernement canadien, la province de l’Ontario et la ville de Toronto) lors du projet controversé d’écoquartier mené par Sidewalk Labs, filiale de la maison mère de Google, Alphabet, (...)

    #Alphabet #Google #SidewalkLabs #législation #BigData #urbanisme

  • ‘Social Dilemma’ Star Tristan Harris Responds to Criticisms of the Film, Netflix’s Algorithm, and More
    https://onezero.medium.com/social-dilemma-star-tristan-harris-responds-to-criticisms-of-the-fil

    In a new interview, the former Google design ethicist weighs in on the backlash to the popular Netflix doc OneZero is partnering with the Big Technology Podcast from Alex Kantrowitz to bring readers exclusive access to interview transcripts with notable figures in and around the tech industry. This week, Kantrowitz sits down Tristan Harris, the star of the Social Dilemma film on Netflix. This interview has been edited for length and clarity. To subscribe to the podcast and hear the (...)

    #Netflix #algorithme #BigData #bénéfices #profiling #publicité #surveillance

    ##publicité

  • Inside Palantir, Silicon Valley’s Most Secretive Unicorn
    https://nymag.com/intelligencer/2020/09/inside-palantir-technologies-peter-thiel-alex-karp.html

    Techie Software Soldier Spy Palantir, Big Data’s scariest, most secretive unicorn, is going public. But is its crystal ball just smoke and mirrors ? Back in 2003, John Poindexter got a call from Richard Perle, an old friend from their days serving together in the Reagan administration. Perle, one of the architects of the Iraq War, which started that year, wanted to introduce Poindexter to a couple of Silicon Valley entrepreneurs who were starting a software company. The firm, Palantir (...)

    #Palantir #In-Q-Tel #algorithme #migration #militaire #BigData #surveillance

  • Google and Palantir Are Two Sides of the Same Coin
    https://onezero.medium.com/what-you-need-to-know-about-the-google-for-spies-a1a472f5d3c5

    Both companies leverage vast amounts of data for unprecedented surveillance If you know the name Palantir, you probably know that it’s associated with Peter Thiel, that it contracts with defense and law enforcement agencies, and that it works with data somehow, including data from surveillance systems. You might get that it’s named, creepily enough, after the magical “seeing-stones” in Lord of the Rings. But what exactly it is that Palantir does has not always been clear from media coverage. (...)

    #Google #In-Q-Tel #Palantir #CIA #ICE #algorithme #migration #militaire #BigData #Maven (...)

    ##surveillance

  • Alex Karp, unconventional purveyor of powerful surveillance tools
    https://www.ft.com/content/8ea36422-2f65-4a14-93be-b7b4d38362e3

    Trained philosopher has brought controversial Silicon Valley firm Palantir to market There is little of the conventional about Alex Karp, chief executive of Palantir, the Big Data company that has become a bête noire of privacy and civil liberties activists for its work for the national security establishment. A former investor who trained in philosophy under renowned German philosopher Jürgen Habermas, he now runs a tech company on the cutting edge of data analytics and artificial (...)

    #Palantir #Paypal #algorithme #migration #BigData #surveillance

  • « Avec la cotation en Bourse de Palantir, c’est la science-fiction qui entre à Wall Street »
    https://www.lemonde.fr/economie/article/2020/09/30/avec-la-cotation-en-bourse-de-palantir-c-est-la-science-fiction-qui-entre-a-

    Du fait de ses performances financières, de son éthique et de sa gouvernance, le spécialiste américain de l’analyse de données ne devrait pas se retrouver sur un marché public, estime Philippe Escande, éditorialiste économique du « Monde ». Pertes & profits. Dans le monde magique du Seigneur des anneaux, le palantir est un cristal qui permet de communiquer et de voir tous les événements, passés et futurs. La promesse de la société Palantir est la même : échanger, analyser et prévoir. Ses logiciels (...)

    #DGSI #In-Q-Tel #Palantir #CIA #ICE #GPS #géolocalisation #migration #fiscalité #écoutes #santé #SocialNetwork #surveillance #BigData #algorithme (...)

    ##fiscalité ##santé ##bénéfices

  • Dark Data
    https://press.princeton.edu/books/ebook/9780691198859/dark-data

    A practical guide to making good decisions in a world of missing data In the era of big data, it is easy to imagine that we have all the information we need to make good decisions. But in fact the data we have are never complete, and may be only the tip of the iceberg. Just as much of the universe is composed of dark matter, invisible to us but nonetheless present, the universe of information is full of dark data that we overlook at our peril. In Dark Data, data expert David Hand takes us (...)

    #technologisme #BigData

  • Palantir Expected to Be Valued at Nearly $22 Billion in Trading Debut
    https://www.wsj.com/articles/palantir-expected-to-be-valued-at-nearly-22-billion-in-trading-debut-1160099073

    Bankers have told investors stock could start trading at around $10, sources say Palantir Technologies Inc. is expected to fetch a lofty valuation in its transition to a public company despite an unusually aggressive governance structure, in the latest sign of investors’ voracious appetite for new shares. The data-mining-software specialist is eschewing the traditional IPO route and going public through a direct listing, in which a company floats its existing shares on a public exchange (...)

    #Palantir #migration #BigData #surveillance #bénéfices

    https://images.wsj.net/im-231822/social

  • The Social Dilemma
    https://www.thesocialdilemma.com

    The world has long recognized the positive applications of social media, from its role in empowering protesters to speak out against oppression during the Arab Spring uprisings almost a decade ago, to serving an instrumental role in fighting for equity and justice today. And in 2020, during an astonishing global pandemic, social media has become our lifeline to stay in touch with loved ones, as well as proving to be an asset for mobilizing civil rights protests. However, the system that (...)

    #Google #Amazon #Facebook #YouTube #algorithme #addiction #bénéfices #profiling #marketing #surveillance #publicité (...)

    ##publicité ##BigData

  • « Derrière nos écrans de fumée » : repenser le modèle économique des GAFAM
    https://blogs.mediapart.fr/amnesty-international/blog/250920/derriere-nos-ecrans-de-fumee-repenser-le-modele-economique-des-gafam

    Le documentaire « Derrière nos écrans de fumée » décrypte la façon dont nos vies sont constamment surveillées et contrôlées par les géants de la technologie. Le modèle économique fondé sur la surveillance mis en place par Facebook et Google est par nature incompatible avec le droit à la vie privée et représente une menace structurelle pour toute une série d’autres droits fondamentaux. S’il y a bien une chose que l’année 2020 a mise en avant, c’est notre dépendance à Internet pour établir nos relations et (...)

    #Google #Amazon #Facebook #YouTube #algorithme #manipulation #domination #addiction #bénéfices #BigData #marketing #profiling #publicité (...)

    ##publicité ##surveillance

  • Big Data has allowed ICE to dramatically expand its deportation efforts.
    https://slate.com/technology/2020/09/palantir-ice-deportation-immigrant-surveillance-big-data.html

    A New Mexico man gets a call from federal child welfare officials. His teenage brother has arrived alone at the border after traveling 2,000 miles to escape a violent uncle in Guatemala. The officials ask him to take custody of the boy. He hesitates ; he is himself undocumented. The officials say not to worry. He agrees and gives the officials his information. Seven months later, ICE agents arrest him at his house and start deportation proceedings. A family in suburban Maryland gets a (...)

    #Palantir #CBP #ICE #algorithme #biométrie #migration #facial #reconnaissance #BigData #conducteur·trice·s #empreintes (...)

    ##surveillance

  • Internet : de la Pangée à la balkanisation - Ép. 4/4 - La gouvernance mondiale dans la tourmente
    https://www.franceculture.fr/emissions/cultures-monde/la-gouvernance-mondiale-dans-la-tourmente-44-internet-de-la-pangee-a-l

    Pourquoi la régulation internationale d’Internet est-elle si diluée ? Qu’est-ce qui distingue les conceptions américaine et chinoise du réseau ? Sont-elles si diamétralement opposées ? Comment l’Europe peut-elle trouver sa place dans cette fragmentation ? La souveraineté numérique. Cette expression, employée par Bruno Le Maire en février dernier à l’issue d’une rencontre avec le Commissaire européen Thierry Breton, est sur toutes les lèvres, de Bruxelles à Pékin en passant par Washington et Moscou. (...)

    #TikTok #domination #BigData #GAFAM #législation #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##bénéfices

  • Facebook says it may quit Europe over ban on sharing data with US
    https://www.theguardian.com/technology/2020/sep/22/facebook-says-it-may-quit-europe-over-ban-on-sharing-data-with-us

    EU court in July ruled there were insufficient safeguards against snooping by US intelligence agencies Facebook has warned that it may pull out of Europe if the Irish data protection commissioner enforces a ban on sharing data with the US, after a landmark ruling by the European court of justice found in July that there were insufficient safeguards against snooping by US intelligence agencies. In a court filing in Dublin, Facebook’s associate general counsel wrote that enforcing the ban (...)

    #NSA #Facebook #domination #BigData #lutte #PrivacyShield #PRISM #CJUE #DPC-Ireland

    https://i.guim.co.uk/img/media/c09ed5a62f9673a41d65acbffbb20ee1b1d364f9/0_147_3500_2100/master/3500.jpg

  • Facebook Says it Will Stop Operating in Europe If Regulators Don’t Back Down
    https://www.vice.com/en_us/article/889pk3/facebook-threatens-to-pull-out-of-europe-if-it-doesnt-get-its-way

    European regulators are cracking down on Facebook’s ability to transfer data across the Atlantic. Now the tech giant is threatening to pull its services from more than 400 million European users. Facebook has threatened to pack up its toys and go home if European regulators don’t back down and let the social network get its own way. In a court filing in Dublin, Facebook said that a decision by Ireland’s Data Protection Commission (DPC) would force the company to pull up stakes and leave the (...)

    #Facebook #domination #données #BigData #PrivacyShield #DPC-Ireland