• Why Mark Zuckerberg’s 14-Year Apology Tour Hasn’t Fixed Facebook | WIRED
    https://www.wired.com/story/why-zuckerberg-15-year-apology-tour-hasnt-fixed-facebook

    In 2003, one year before Facebook was founded, a website called Facemash began nonconsensually scraping pictures of students at Harvard from the school’s intranet and asking users to rate their hotness. Obviously, it caused an outcry. The website’s developer quickly proffered an apology. "I hope you understand, this is not how I meant for things to go, and I apologize for any harm done as a result of my neglect to consider how quickly the site would spread and its consequences thereafter,” wrote a young #Mark_Zuckerberg.

    #timeline #excuses #facebook #asshole #lock_him_up #surveillance

  • #Facebook, emblème du « capitalisme de surveillance »
    https://www.mediapart.fr/journal/international/070418/facebook-embleme-du-capitalisme-de-surveillance

    Le détournement de 87 millions de profils Facebook par #Cambridge_Analytica afin d’influer sur la campagne présidentielle américaine a Mark Zuckerberg lors du Mobile World Congress en février 2016 à Barcelone © Facebook plongé la société de Mark Zuckerberg dans une crise sans précédent en la mettant face à un dilemme en apparence insoluble : comment rassurer investisseurs et utilisateurs alors que son modèle économique repose par définition sur la collecte massive des données personnelles ?

    #International #capitalisme_de_surveillance #GAFAM

    • Même si Cambridge Analytica a bien dérobé quelque 87 millions de profils, c’est en fait quasiment toute l’économie du numérique qui repose sur une collecte massive des données des utilisateurs. Avant l’explosion du scandale, la société se vantait d’ailleurs de posséder des profils sur 220 millions d’Américains, des données obtenues légalement auprès des multiples « data brokers » ou vendeurs de données du pays. Ce modèle économique auquel sont irrémédiablement liés Facebook mais également Google ou Twitter a été théorisé sous l’expression de « capitalisme de surveillance ».

      Le concept a fait l’objet d’une première définition dans un article des universitaires John Bellamy Foster et Robert W. McChesney, publié en juillet 2014 sur le site Monthly Review. Dans celui-ci, les auteurs font du capitalisme de surveillance l’évolution naturelle du complexe militaro-industriel dénoncé par les président Dwight Eisenhower dans son célèbre discours de janvier 1961. Ils rappellent les origines militaires du Net et les efforts constants déployés par l’armée pour contrôler la recherche et les industries de pointe.

      L’article du Monthly Review en question, que j’avais pas vu passer : ▻https://seenthis.net/messages/328312

    • Avec aussi le concept de #surplus_comportemental développé par https://twitter.com/shoshanazuboff
      « [...] les utilisateurs ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont une source de matériaux bruts gratuits [...] »

      Dans un article publié en 2016 dans la Frankfurter Allgemeine Zeitung, elle explique comment « le capitalisme a été détourné par un projet de surveillance lucratif ». Ce détournement a eu lieu, raconte Shoshana Zuboff, lorsque Google a pris conscience du profit qu’il pouvait tirer des données comportementales de ses utilisateurs, données qu’elle désigne sous le terme de « surplus comportemental ».

      « Le succès dramatique de Google dans le “matching” des publicités et des pages a révélé la valeur transformationnelle de ce surplus comportemental comme moyen de générer des revenus et, finalement, de transformer les investissements en capital », écrit Shoshana Zuboff. « Dans ce contexte, les utilisateurs ne sont plus une fin en eux-mêmes. À la place, ils sont devenus un moyen de faire des profits dans un nouveau type de marché dans lequel les utilisateurs ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont une source de matériaux bruts gratuits qui nourrit un nouveau type de processus de fabrication », poursuit la professeure. « Le jeu ne consiste plus à vous envoyer un catalogue de vente par correspondance ou même à cibler la publicité en ligne. Le jeu consiste à vendre l’accès au flux en temps réel de votre vie quotidienne – votre réalité – afin de l’influencer directement et de modifier votre comportement pour faire des profits. »

    • Les références de l’article sont plus qu’intéressantes :
      – John Bellamy Foster et Robert W. McChesney sur le site Monthly Review sur le complexe militaro-industriel et le #capitalisme_de_surveillance
      https://monthlyreview.org/2014/07/01/surveillance-capitalism

      – Nicholas Confessore et Matthew Rosendbergmarch dans le NY Times sur le lien entre #Cambrige_Analytica et #Palantir
      https://www.nytimes.com/2018/03/27/us/cambridge-analytica-palantir.html

      – Shoshana Zuboff dans la Frankfurter Allgemeine Zeitung sur le #capitalisme_de_surveillance
      http://www.faz.net/aktuell/feuilleton/debatten/the-digital-debate/shoshana-zuboff-secrets-of-surveillance-capitalism-14103616.html
      => Article récemment traduit par l’équipe #Framalang
      https://framablog.org/2017/03/28/google-nouvel-avatar-du-capitalisme-celui-de-la-surveillance

  • “Le scandale Cambridge Analytica n’est pas une faille technique mais un problème politique” - Idées - Télérama.fr
    http://www.telerama.fr/idees/le-scandale-cambridge-analytica-nest-pas-une-faille-technique-mais-un-probl

    Interview de Zeynep Tufekci

    Cet incident, écriviez-vous dans le New York Times, est « une conséquence naturelle du modèle économique de Facebook »…

    Facebook comme Google attirent l’essentiel de l’attention car ce sont des mastodontes, mais n’oublions pas que tout le modèle de la publicité en ligne – et celui d’une majorité de médias – repose sur les mêmes fondations. Partout, le principe est identique : où que vous cliquiez, vous êtes suivi, ciblé, monétisé et vendu au plus offrant. Les pages que vous consultez, les contenus que vous publiez, toutes vos traces numériques sont utilisées à des fins commerciales. Qu’il s’agisse de Cambridge Analytica, d’un dictateur en herbe ou d’une marque d’aspirateurs importe peu, puisque c’est un système totalement asymétrique dans lequel vous ne connaissez pas l’identité des passeurs d’ordre. C’est le problème majeur d’Internet aujourd’hui. Dans cette « économie de l’attention », Facebook peut compter sur une infrastructure sans équivalent. Grâce à elle, la plateforme peut toucher deux milliards d’utilisateurs, écran par écran, sans même qu’ils s’en rendent compte.

    Faut-il craindre la multiplication d’épisodes de ce genre ?

    De toute évidence. Il est mécaniquement impossible de prédire l’utilisation qui sera faite de nos données dans les années à venir. C’est un puits sans fond ! Même si vous n’êtes pas sur Facebook, une quantité gigantesque d’informations à votre sujet circulent et permettent de vous profiler. Grâce aux progrès de l’intelligence artificielle, des algorithmes sont capables d’analyser vos amitiés, votre activité, vos modes de consommation. Nous figurons probablement tous dans des bases de données commerciales dont nous ignorons l’existence, mises en relation et croisées avec d’autres bases de données que nous ne connaissons pas davantage. Dans le cas de Cambridge Analytica, l’immense majorité des personnes siphonnées ignoraient tout de ce qui était en train de se passer.

    Réagissons-nous si tardivement à cause de cette opacité ?

    Pour une personne ordinaire, il est extrêmement difficile de réagir, car cette collecte est invisible, inodore et incolore. En tant qu’internaute, vous ne voyez rien d’autre que les contenus qui s’affichent sur votre écran.

    A ce titre, que pensez-vous de la réaction de Mark Zuckerberg ?

    Il s’est mollement excusé parce qu’il n’avait pas le choix. Mais il s’est quand même posé en victime, comme s’il avait été dupé par un tiers renégat ne respectant pas les règles d’un jeu qu’il a lui-même créé. Je pense que nous ne devrions croire aucune entreprise sur parole. Nous avons besoin de contrôle et de mécanismes de protection. Prenons l’exemple des voitures. Elles peuvent avoir des accidents ou présenter des risques pour l’environnement. Pour lutter contre ces facteurs négatifs, les gouvernements ont imposé des limitations de vitesse, le port de la ceinture de sécurité ou des normes environnementales. Ces changements ne sont pas intervenus par l’opération du Saint-Esprit : il a fallu les imposer. Et quand une entreprise ne respecte pas ces règles, elle est sanctionnée. L’économie liée à l’exploitation des données est encore un Far West à civiliser.

    Ces dernières semaines, les appels à la déconnexion de Facebook se sont multipliés. Est-ce une option viable ?

    Ça ne peut être qu’une décision individuelle. C’est le droit le plus strict de chacun, mais c’est un luxe qui ne résoudra pas le problème : dans de nombreux pays, Facebook est le seul moyen pour communiquer avec sa famille ou ses amis, et c’est un vecteur important d’organisation sociale. Il vaudrait mieux réfléchir au démantèlement de Facebook tout en réfléchissant à ses conséquences possibles : si nous ne réformons pas en profondeur le modèle économique du Web, des légions de petits Facebook pourraient en effet se montrer encore plus nocifs qu’une plateforme centralisée…

    #Zeynep_Tufekci #Facebook #Cambridge_analytica #Vie_privée #Données_personnelles

  • affordance.info: I’m a digital worker, killing an arab. Chronique de la guerre algorithmique.
    http://affordance.typepad.com/mon_weblog/2018/03/im-a-digital-worker-killing-an-arab.html

    Les Captcha font depuis longtemps partie intégrante de notre « expérience utilisateur ». Parfois amusants lorsqu’ils sont détournés, souvent énervants, ils sont omniprésents. On sait depuis longtemps que ces Captcha, loin de leur finalité initiale (distinguer utilisateurs humains de robots malveillants), sont aussi et surtout un moyen d’entraîner des technologies ... diverses. Technologies linguistiques principalement où, reconvertis en travailleurs numériques bénévoles, nous « aidons » à affiner d’immenses corpus, nous permettons aux technologies de reconnaissance optique de caractère (OCR) de progresser et donc aux acteurs économiques disposant desdites technologies d’être plus performants.

    Nous « aidons » et « entraînons » aussi en permanence les technologies de reconnaissance d’images. Car c’est compliqué pour un algorithme de reconnaître une image, ou de différencier deux images présentant de très fortes similarités. Alors nous aidons et nous entraînons tout cela. En permanence. Au détour d’un nombre toujours plus grand de services. Toujours gratuitement. Sans jamais avoir le choix.

    Il y a quelques années de cela, de nouvelles « Captcha » sont arrivées. Sous forme de tableau découpé en 9 ou 12 cases, on y voit des paysages, des immeubles d’habitation, des panneaux de signalisation, et l’on nous demande de « cliquer » sur les cases qui comportent ou ne comportent pas tel ou tel élément.

  • Why the Cambridge Analytica Scandal Is a Watershed Moment for Social Media - Knowledge Wharton
    http://knowledge.wharton.upenn.edu/article/fallout-cambridge-analytica

    “We’re experiencing a watershed moment with regard to social media,” said Aral. “People are now beginning to realize that social media is not just either a fun plaything or a nuisance. It can have potentially real consequences in society.”

    The Cambridge Analytica scandal underscores how little consumers know about the potential uses of their data, according to Berman. He recalled a scene in the film Minority Report where Tom Cruise enters a mall and sees holograms of personally targeted ads. “Online advertising today has reached about the same level of sophistication, in terms of targeting, and also some level of prediction,” he said. “It’s not only that the advertiser can tell what you bought in the past, but also what you may be looking to buy.”

    Consumers are partially aware of that because they often see ads that show them products they have browsed, or websites they have visited, and these ads “chase them,” Berman said. “What consumers may be unaware of is how the advertiser determines what they’re looking to buy, and the Cambridge Analytica exposé shows a tiny part of this world.”

    A research paper that Nave recently co-authored captures the potential impact of the kind of work Cambridge Analytica did for the Trump campaign. “On the one hand, this form of psychological mass persuasion could be used to help people make better decisions and lead healthier and happier lives,” it stated. “On the other hand, it could be used to covertly exploit weaknesses in their character and persuade them to take action against their own best interest, highlighting the potential need for policy interventions.”

    Nave said the Cambridge Analytica scandal exposes exactly those types of risks, even as they existed before the internet era. “Propaganda is not a new invention, and neither is targeted messaging in marketing,” he said. “What this scandal demonstrates, however, is that our online behavior exposes a lot about our personality, fears and weaknesses – and that this information can be used for influencing our behavior.”

    In Golbeck’s research projects involving the use of algorithms, she found that people “are really shocked that we’re able to get these insights like what your personality traits are, what your political preferences are, how influenced you can be, and how much of that data we’re able to harvest.”

    Even more shocking, perhaps, is how easy it is to find the data. “Any app on Facebook can pull the kind of data that Cambridge Analytica did – they can [do so] for all of your data and the data of all your friends,” said Golbeck. “Even if you don’t install any apps, if your friends use apps, those apps can pull your data, and then once they have that [information] they can get these extremely deep, intimate insights using artificial intelligence, about how to influence you, how to change your behavior.” But she draws a line there: “It’s one thing if that’s to get you to buy a pair of shoes; it’s another thing if it’s to change the outcome of an election.”

    “Facebook has tried to play both sides of [the issue],” said Golbeck. She recalled a study by scientists from Facebook and the University of California, San Diego, that claimed social media networks could have “a measurable if limited influence on voter turnout,” as The New York Times reported. “On one hand, they claim that they can have a big influence; on the other hand they want to say ‘No, no, we haven’t had any impact on this.’ So they are going to have a really tough act to play here, to actually justify what they’re claiming on both sides.”

    Golbeck called for ways to codify how researchers could ethically go about their work using social media data, “and give people some of those rights in a broader space that they don’t have now.” Aral expected the solution to emerge in the form of “a middle ground where we learn to use these technologies ethically in order to enhance our society, our access to information, our ability to cooperate and coordinate with one another, and our ability to spread positive social change in the world.” At the same time, he advocated tightening use requirements for the data, and bringing back “the notion of informed consent and consent in a meaningful way, so that we can realize the promise of social media while avoiding the peril.”

    Historically, marketers could collect individual data, but with social platforms, they can now also collect data about a user’s social contacts, said Berman. “These social contacts never gave permission explicitly for this information to be collected,” he added. “Consumers need to realize that by following someone or connecting to someone on social media, they also expose themselves to marketers who target the followed individual.”

    In terms of safeguards, Berman said it is hard to know in advance what a company will do with the data it collects. “If they use it for normal advertising, say toothpaste, that may be legitimate, and if they use it for political advertising, as in elections, that may be illegitimate. But the data itself is the same data.”

    According to Berman, most consumers, for example, don’t know that loyalty cards are used to track their behavior and that the data is sold to marketers. Would they stop using these cards if they knew? “I am not sure,” he said. “Research shows that people in surveys say they want to maintain their privacy rights, but when asked how much they’re willing to give up in customer experience – or to pay for it – the result is not too much. In other words, there’s a difference between how we care about privacy as an idea, and how much we’re willing to give up to maintain it.”

    Golbeck said tools exist for users to limit the amount of data they let reside on social media platforms, including one called Facebook Timeline Cleaner, and a “tweet delete” feature on Twitter. _ “One way that you can make yourself less susceptible to some of this kind of targeting is to keep less data there, delete stuff more regularly, and treat it as an ephemeral platform, _ ” she said.

    Mais est-ce crédible ? Les médias sociaux sont aussi des formes d’archives personnelles.

    #Facebook #Cambridge_analytica

  • Procés de #Tarnac, les réquisitions du parquet relatées par #LesJours
    dans https://twitter.com/Lesjoursfr par https://twitter.com/CamillePolloni

    « Le groupe de Tarnac n’existe pas »

    Prenant la suite, Olivier Christen commence par concéder que « le “groupe de Tarnac” n’existe pas, c’est une construction policière ». Le public, étonné, rit sous cape. Le procureur, qui anticipe dans son argumentation les plaidoiries de la défense, défend tout de même son dossier tricoté et détricoté au fil des années.

    Les prélèvement ADN de militants pour garantir l’efficacité des fichiers de police

    Quant aux six prévenus jugés pour refus de prélèvement ADN, le ministère public ne peut pas laisser tomber. Ce serait « une forme d’incitation » à ce que les fichiers de police perdent de leur efficacité.

    https://lesjours.fr/obsessions/proces-tarnac/ep11-onzieme-jour