• Facebook , gangster aux 55 milliards de dollars Pia de Quatrebarbes - 21 Juin 2019 - Solidaire
    https://www.solidaire.org/articles/facebook-gangster-aux-55-milliards-de-dollars

    Un chiffre d’affaire de plus de 55 milliards de dollars en 2018 : en quinze ans, le réseau aux 2,2 milliards « d’amis » a engrangé un paquet de fric sur nos informations, quitte à s’asseoir sur quelques lois. Un « #gangster_numérique », a tranché le parlement britannique dans un rapport au vitriol... Comment le réseau social qui voulait « rendre le monde meilleur » en est-il arrivé la ?


    Photo Wachiwit /iStock

    En 2008, quand Facebook débarque en France, c’est la ruée sur les « murs ». On y voit alors un formidable moyen de communiquer, partager des photos, personne ne s’y informe encore, mais on y dissémine naïvement des informations aux quatre vents : scolarité, opinion, statut amoureux....et déjà on #like. Rien de grave a priori, #Mark_Zuckerberg, le concepteur du réseau souhaite alors « rendre le monde meilleur ». Pas « le conquérir, seulement rendre les gens plus ouverts et connectés ».

    L’histoire est typique des innovations du web. 4 ans auparavant, dans sa chambre de Harvard, à Boston, le petit génie veut rencontrer des filles, il crée alors avec des camarades un #trombinoscope des étudiants, « The Facebook ». Les universités américaines s’y branchent, puis les lycées et collèges – Il suffit d’avoir 13 ans et une adresse mail. Et bientôt le monde entier : 2,2 milliards d’utilisateurs, un chiffre d’affaires de 55 milliards de dollars, et le 3e site internet le plus visité.

    De ses utilisateurs, il sait à peu près tout !
    Mais 15 ans après, sa firme est devenue un « gangster numérique au dessus des lois ». La sentence est venue mi-février de la Commission du numérique, de la culture et des médias du #Parlement_britannique. Pendant 18 mois, elle a planché sur le scandale #Cambridge_Analytica. Une centaine de témoins ont été auditionnés, mais le PDG de Facebook, lui, a refusé... A la lecture des 110 pages, on comprend pourquoi et comment #Mark_Zuckerberg a choisi « le profit avant la vie privée ».

    Comprenons bien : Que Facebook sait-il de ses utilisateurs ? A peu près tout ! « La pratique la plus problématique, c’est la captation systématique de nos données personnelles », explique Sylvain Steer, enseignant en droit et membre de l’association la Quadrature du Net. Pour les « amis », ce sont donc les contenus publics, les messages privés sur #Messenger, la listes des personnes, pages et groupes suivis, la façon dont on utilise le service et accède aux contenus et les informations sur l’appareil (adresse IP, fichiers présents, mouvements de la souris, accès au GPS et à l’appareil photo).

    Pour ceux qui n’ont pas de compte, la firme de Palo Alto a la solution : le « profil fantôme ». Les #cookies, les boutons « J’aime » et « Partager » affichés sur de nombreux sites, transmettent à Facebook les informations de navigation... En bref, Facebook s’accorde un pouvoir de surveillance de masse.

    Et quand Mark Zuckerberg répète à tout va, « Facebook ne vend pas les données », le parlement Britannique répond : il ment. En cause, le modèle économique : « la gratuité » pour l’utilisateur contre la monétisation de ses données. « Facebook vend aux annonceurs des catégories de publicité. Ce sont l’ensemble des caractéristiques sociales, économiques et comportementales que le réseau associe à chaque utilisateur afin de mieux le cibler », explique Sylvain Steer. « Avec l’argument fallacieux que c’est pour nous proposer des contenus de la façon la plus adaptée : sous entendu la plus subtile ». Facebook est donc avant tout « une #régie_publicitaire », analyse Yann Le Pollotech, chargé des questions numériques au PCF. 98 % de son chiffre d’affaires mondial provient de la publicité ciblée.

    L’accès aux données des téléphones
    Le réseau ouvre aussi ses données à des développeurs tiers contre rémunération « 250 000 dollars de publicités par an », écrivait le PDG dans un mail obtenu par les parlementaires britanniques. Facebook nie, explique que l’idée n’avait jamais été appliquée. En 2015, pourtant il restreint l’accès sauf pour une liste de 150 entreprises, dont Apple, Amazon, Netflix, ou Airbnb ou encore le site de rencontre #Tinder. Et là, c’est open bar ! Et Zuckerberg écrivait : « je ne vois pas de cas où des données ont été diffusées de développeurs à développeurs et ont causé un réel problème pour nous »... Raté ! 3 ans après, Cambridge Analytica allait prouver le contraire. La société, basée à Londres, a siphonné les données de 87 millions de comptes. La cheville ouvrière de la campagne numérique de Donald Trump en 2016, a réalisé un micro ciblage des électeurs.

    Parmi les autres pépites du rapport : l’accès aux données des téléphones. En 2015, la nouvelle version de l’application sur mobiles #Android pouvait avoir accès au journal des appels téléphoniques. Un cadre de Facebook s’inquiète dans un mail interne que les utilisateurs s’en rendent compte. « Ça serait très risqué : des journalistes (..) qui écrivent des articles sur “Facebook qui utilise sa mise à jour pour espionner votre vie privée” », écrit le cadre. Car le but de la firme, est bel et bien de tout savoir.... Pour cela, il faut capturer l’utilisateur et faire en sorte qu’il y reste. Et le pousser à partager toujours plus d’informations.

    Les #Fake_News rentrent dans cette catégorie. C’est parce qu’elles sont beaucoup plus partagées que Facebook les laisse se propager... Le sociologue Dominique Cardon limite leur portée dans un livre salvateur (1). Pendant la campagne américaine, ces « fake news » ont été le plus consultées par les 10% des électeurs les plus convaincus, y écrit-il. Pour Yann Le Pollotech aussi, « il faut se méfier de ce concept. Depuis que les hommes communiquent, il y a de la #désinformation. Mais ici, il y a aussi une sorte de racisme social : les fake news ne concerneraient que les moins diplômés.. et les gilets jaunes ! A chacun ses Fakes news ; celle des #CSP_+ [cadres supérieurs, NdlR], c’est que les cheminots partent à la retraite à 50 ans avec un pont d’or. Mais ce n’est pas à Facebook de décider ce qui est de l’ordre du complot ou de la #vérité. La seule manière de les éviter : c’est la délibération, le débat démocratique ».

    Mais ce n’est pas le programme du géant. Lui, il a un autre objectif : « enfermer les internautes dans son monde, son univers. Plus que du gangster, cela relève de la #mafia, au sens où c’est aussi une organisation sociale », continue Yann Le Pollotech. Dans ce système, Facebook compte aussi la messagerie #Whatsapp (1,5 milliard d’utilisateurs) et le site de partage de photos et vidéos #Instagram (1 milliard). Et avec elles, toutes leurs données ! En 2014, au moment du rachat de Whatsapp pour 19 milliards de dollars, Zuckerberg promettait « de ne pas combiner les données des comptes Facebook et Whatsapp. Bien sûr, il l’a fait deux ans après », continue Sylvain Steer.

    Depuis les scandales continuent : le 20 mars, Facebook reconnaissait ne pas protéger les #mots_de_passe de centaines de millions de comptes. En février, d’autres applications donnaient accès à Facebook à leurs données : une application pour suivre son cycle menstruel, de sport, de santé... En septembre, 50 millions de comptes étaient piratées.

    Un modèle basé sur l’illégalité
    Que font les législateurs ? En Europe, ils ont franchi une première étape avec le Règlement général pour la protection des données ( #RGPD ), entré en vigueur le 28 mai dernier. Ce dernier impose des formes de consentement éclairé et libre. Mais « Facebook continue de violer les textes, car tout son modèle économique est illégal », rappelle Sylvain Steer. Une plainte collective a été déposée, la CNIL Irlandaise – là où est le siège social de Facebook en Europe- l’examine. Sauf qu’elle prend son temps. « Bien sûr, Facebook comme les autres, fait un lobbying pour retarder sa mise en conformité et prolonger son business », continue-t-il.

    Le Parlement britannique veut la fin du far west... Sauf que Facebook, comme #Google « à force de ne pas être réglementés, se sont imposés comme des autorités centralisatrices sur internet. Les États au lieu de le limiter, continuent à lui déléguer des pouvoirs ». La France en tête, « les gouvernements, demandent à ces plateformes géantes de devenir juges et modérateurs des contenus en ligne. Ce qui devrait être de l’ordre de la justice ou du service public », poursuit Sylvain Steer ... Ou comment les gouvernements donnent à Facebook les clés de la censure. Zuckerberg, lui, s’excuse, encore une fois, et promet « de changer ». En attendant, le nombre d’utilisateurs recule, les jeunes désertent la plateforme... Mais pour Instagram. Et restent ainsi dans le monde clos de Facebook.

    Culture numérique, Dominique Cardon, Les presses de Sciences Po, sorti en février, 19 euros, 428 pages
    (Article paru dans le journal L’Humanité -Dimanche du 28 mars 2019)

    #facebook #surveillance #internet #algorithme #censure #réseaux_sociaux #publicité #données #bigdata #profiling #manipulation #marketing #domination #web #voleur de vies #escroc #gangster #fric

    • Lorsque Jessie Battaglia a commencé à rechercher une nouvelle nounou pour son fils âgé d’un an, elle a voulu avoir plus d’informations que celles que l’on obtient par la vérification du casier judiciaire, les avis de parents et l’entretien face-à-face.

      Elle a donc fait appel à Predictim, un service en ligne utilisant une « intelligence artificielle avancée » pour évaluer la personnalité des baby-sitters, et a fait examiner par les scanners de l’agence les milliers de publications Facebook, Twitter et Instagram d’une candidate.

      Le système a présenté une note d’évaluation automatisée pour cette femme de 24 ans, expliquant que le risque qu’elle soit toxicomane était très faible, mais lui donnant toutefois un risque légèrement plus élevé – 2 sur 5 – quant aux possibilités d’intimidation, de harcèlement, de manque de respect et de mauvaise conduite.

      Le système n’expliquait pas comment il était arrivé à cette note, mais Mme Battaglia, qui avait crû que la nounou était digne de confiance, se sentit soudain assaillie de doutes.

      « Les réseaux sociaux révèlent le caractère d’une personne », affirme Mme Battaglia, âgée de 29 ans, qui vit dans la banlieue de Los Angeles. « Alors pourquoi obtient-elle un 2 et pas un 1 ? »

      Predictim offre aux parents le même modèle que des douzaines d’autres entreprises informatiques vendent aux patrons d’entreprises à travers le monde : des systèmes d’intelligence artificielle qui analysent la façon de parler d’une personne, ses expressions faciales et son historique en ligne, avec la promesse de révéler les aspects cachés de sa vie privée.

      Cette technologie est en train de remodeler les méthodes de recrutement, d’embauche et d’évaluation des salariés par les entreprises, en proposant à ces dernières un regard sans pareil sur les candidats à l’embauche grâce à l’arrivée de nouveaux systèmes de surveillance et d’évaluation psychologique intrusive.

      La société de services informatiques Fama indique qu’elle utilise l’intelligence artificielle pour surveiller les « comportements indésirables » des employés sur les réseaux sociaux et en alerter leur hiérarchie. De même, la société de recrutement informatique HireVue, qui travaille avec de grands groupes comme Geico, Hilton et Unilever, propose un système qui analyse automatiquement les intonations de voix des candidats, leurs choix de mots et les mouvements de leur visage lors d’entretiens vidéo afin de prédire quelles seront leurs compétences et leur attitude une fois en poste (les candidats sont encouragés à sourire pour obtenir la meilleure notation possible).
      . . . . . .
      Les balayages numériques de Predictim analysent l’intégralité de l’historique d’une baby-sitter sur les réseaux sociaux, ce qui, pour beaucoup de jeunes nounous, peut couvrir presque toute leur vie. On informe les candidates qu’elles seront extrêmement désavantagées sur ces emplois à forte concurrence si elles refusent cet examen.
      . . . . . .
      Un scan Predictim est facturé à partir de 24,99 $, et requiert le nom de la baby-sitter, son adresse e-mail et son accord pour l’accès à ses comptes sur les réseaux sociaux. Elle peut refuser, mais le parent sera informé de son refus et elle recevra par e-mail une note, lui indiquant que le parent intéressé ne sera pas en mesure de l’embaucher tant qu’elle n’aura pas complété cette demande.
      . . . . . . .
      La notation des risques est divisée en plusieurs catégories incluant les contenus douteux et l’usage de drogue. La jeune entreprise a également vanté la capacité de son système à évaluer les baby-sitters sur d’autres aspects de leur personnalité, tels que la politesse, l’aptitude à travailler avec d’autres et leur « positivité ».

      Les responsables de l’entreprise espèrent prendre la tête du secteur multimillionnaire de la « sous-traitance parentale » et ont commencé à faire de la publicité à travers le parrainage rémunéré de blogs d’éducation des enfants et de blogs de mamans. Le marketing est fortement axé sur la capacité de la société à mettre au jour les secrets cachés et éviter « le cauchemar de tout parent », citant des affaires criminelles comme celle de cette baby-sitter du Kentucky inculpée plus tôt dans l’année, pour avoir gravement blessé une enfant de huit mois.
      . . . . . . . . .
      Ainsi, lorsque les résultats d’une requête sur une baby-sitter ont signalé la possibilité d’une attitude brutale, une maman, décontenancée, a expliqué qu’elle n’était pas en mesure de savoir si le logiciel était tombé sur une citation de vieux film, des paroles de chanson ou une autre expression, ou bien sur des propos réellement intimidants.

      . . . . . . . . .
      Jamie L. William, avocat des libertés civiles pour la Electronic Frontier Fondation, note que la plupart des algorithmes utilisés aujourd’hui pour accéder aux sens des mots et des images publiés en ligne, sont largement connus pour manquer du bon sens et de la mise en contexte qu’apporte une lecture humaine. Même des géants technologiques, comme Facebook, ont eu du mal à construire des algorithmes qui puissent faire la différence entre un commentaire inoffensif et une incitation à la haine.

      « Quant à utiliser ces systèmes sur des gamins ; soyons sérieux, ce sont des gamins ! », nous dit William. « Les gamins ont des blagues d’initiés. Ils font un usage notoire du sarcasme. Ce qui pourrait ressembler à une “mauvaise attitude” pour un algorithme, ne serait pour une personne qu’un point de vue politique ou une critique fondée. »
      . . . . . . . . .
      La baby-sitter de Madame Battaglia, Malissa Nielsen, 24 ans, a récemment donné son accord à deux familles différentes qui lui ont demandé de remettre à Predictim ses accès aux réseaux sociaux. Elle a expliqué qu’elle a toujours été prudente sur les réseaux et s’est dit que partager un peu plus ne pouvait pas faire de mal ; elle va à l’église une fois par semaine, ne jure pas et elle termine sa formation en éducation de la petite enfance, grâce à laquelle elle espère ouvrir une garderie.

      Mais en apprenant que le système lui avait attribué une mauvaise note pour harcèlement et manque de respect, elle a été stupéfaite. Elle avait cru qu’il s’agissait de permettre aux parents d’examiner ses comptes sur les réseaux sociaux, et non pas de consentir à ce qu’un algorithme dissèque sa personnalité. Elle n’avait pas été informée non plus des résultats d’un test qui pourrait mettre à mal sa seule source de revenu.
      . . . . . . . . .
      Les Américains cultivent une méfiance persistante à l’égard des algorithmes dont les décisions pourraient affecter leur vie quotidienne. Dans une étude du Pew Research Center, 57 % des personnes interrogées pensent que l’examen automatisé des CV de candidats à l’embauche est « inacceptable ».

      Néanmoins, les responsables de Predictim confirment qu’ils se préparent à déployer leurs services à l’échelle nationale. Chez #Sittercity, une plateforme de recrutement de baby-sitters en ligne, visitée par des millions de parents, la direction va lancer, en début d’année prochaine, un programme pilote qui intégrera les notations de Predictim aux tests et vérifications d’antécédents actuellement en place.
      . . . . . . . . .
      Le travail d’extraction de données de #Predictim sur les réseaux sociaux et son intérêt pour l’analyse psychologique de masse n’est pas sans rappeler les ambitions de #Cambridge_Analytica , le cabinet en conseil politique qui a travaillé sur la campagne de Trump et entraîné Facebook dans un scandale mondial relatif à la protection de la vie privée. Mais les dirigeants de l’entreprise affirment qu’ils ont mis en place des gardes-fous internes et travaillent sur la protection des données personnelles des baby-sitters. « Si nous laissions fuiter les infos d’une baby-sitter, ce ne serait vraiment pas cool », a relevé Simonoff.

      Les experts craignent que les notations des systèmes d’intelligence artificielle, comme celles de Predictim, annoncent un futur dans lequel l’attribution de tout emploi, pas seulement de garde d’enfants, sera décidée par une machine. De nombreuses entreprises de recrutement à l’embauche construisent déjà ou investissent dans des systèmes qui peuvent analyser les CV de candidats à très grande échelle et obtenir une évaluation automatisée de la manière dont chacun d’eux pourraient travailler une fois en poste. Des systèmes d’intelligence artificielle de même type – comme #Jigsaw, une jeune entreprise d’informatique créée par Google – sont utilisés pour patrouiller sur Internet et débusquer dans les commentaires, le harcèlement, les menaces et la violence en ligne.
      . . . . . . . . .
      Mais il a été démontré régulièrement que les algorithmes de recrutement ne font pas apparaître le genre de préjugés subtils qui pourraient faire dérailler la carrière d’une personne. Ainsi, des sources ont confié à l’agence Reuters qu’Amazon avait arrêté le développement d’un algorithme de recrutement lorsqu’elle s’était aperçue que celui-ci avait injustement pénalisé les femmes – l’historique du recrutement de la société, dans un secteur informatique dominé par les hommes, avait appris au système que les caractéristiques masculines étaient préférables. La société a affirmé que l’outil n’avait jamais servi à évaluer les candidats (le fondateur et dirigeant d’Amazon est propriétaire du Washington Post).

      Certains experts pensent que de tels systèmes ont le pouvoir d’exacerber les préjugés liés à l’âge et aux origines raciales, y compris en signalant les mots ou les images issus de certains groupes plus que ceux issus d’autres groupes. Ils craignent également que Predictim puisse forcer de jeunes nounous à remettre des données personnelles uniquement en vue d’obtenir un boulot.
      . . . . . . . . .

      Source : The Washington Post, Drew Harwell, https://www.washingtonpost.com/gdpr-consent/?destination=%2ftechnology%2f2018%2f11%2f16%2fwanted-perfect-babysit - 23-11-2018
      Traduit par les lecteurs du site www.les-crises.fr. Traduction librement reproductible en intégralité, en citant la source.

      Drew Harwell est reporter national sur la technologie pour le compte du Washington Post, spécialisé en intelligence artificielle. Il a couvert par le passé les questions de commerce national et les entreprises de Trump.

      algorithme #intelligence_artificielle #prédiction #surveillance #facebook #santé #bigdata #google #big_data #prédictif #profiling #innovation #baby-sitters

  • Fuites de données à répétition : comment les applis tierces nous fragilisent
    https://www.latribune.fr/technos-medias/fuites-de-donnees-a-repetition-comment-les-applis-tierces-nous-fragilisent

    Les applications tierces, qui permettent de partager des données avec d’autres services, sont régulièrement à l’origine de piratages massifs. Explications sur le fonctionnement de ces applis, et leur détournement redoutable par les pirates informatiques.

    Elles sont souvent discrètes mais elles se cachent derrière des piratages massifs de données... Ce sont les applications tierces, là pour enrichir l’expérience utilisateur et collecter des données, qui gravitent autour des plateformes populaires comme Facebook, Twitter ou encore Google. Pour limiter les dérives observées, Mark Zuckerberg, Pdg et co-fondateur de Facebook, s’est dit "potentiellement intéressé" par l’utilisation de la #Blockchain sur son réseau social, dans une interview publiée mercredi sur sa page Facebook. Cette technologie de chaînes de blocs (lire une définition ici) serait utilisée pour stocker les données personnelles des utilisateurs, qui pourraient ensuite décider quelles données partager et avec qui. En parallèle, Uber a annoncé jeudi avoir détecté un bug dans le code de son appli, permettant aux pirates informatiques d’accéder aux données des applications tierces. Explications.

    ■ Pourquoi les applis tierces sont à l’origine de fuite de données ?
    Les applications tierces permettent d’apporter des services additionnels aux plateformes et réseaux sociaux pour enrichir l’expérience utilisateur : jeux, gifs, photos, vidéos... Ces applis tierces, difficilement quantifiables, forment de véritables galaxies autour des plateformes populaires. Prenons l’exemple de Twitter. L’application Thinglink permet de raccourcir les liens à publier sur le site de micro-blogging, quand Tweetdeck permet de faire de la veille et TheCounter propose des statistiques pour mesurer la popularité de ses messages... C’est d’ailleurs cette dernière application qui a été à l’origine du piratage massif de Twitter en 2017.

    En France, le petit oiseau bleu a vu plusieurs milliers de comptes hackés - dont des ministères, des médias ou encore des hommes politiques. Pour proposer ses statistiques, TheCounter - comme toutes les applis tierces - réclame l’autorisation d’accès aux comptes. Ces applis sont donc semblables à des « portes d’entrée » pour les pirates informatiques.

    ■ Comment les applis tierces se connectent entre elles ?
    Grâce à leurs utilisateurs. L’approbation de partager des données entre un réseau social et une appli tierce se fait en un clic, lors du téléchargement de l’appli en acceptant les fameuses conditions générales d’utilisation, ou en se connectant à un service avec la fonction « se connecter avec son compte Facebook », par exemple.

    Ce partage extensif de données est à l’origine du scandale Cambridge Analytica. Le cabinet d’analyse #Cambridge_Analytica est critiqué pour avoir capté de manière détournée, et sans consentement, les données personnelles de 87 millions d’utilisateurs Facebook à des fins politiques. Il a pu s’accaparer les précieuses données via l’application « thisisyourdigitallife », créée en 2013 par un universitaire de Cambridge. Lors du téléchargement de l’application, les utilisateurs concédaient un droit d’accès à leurs données personnelles Facebook - comme leur ville d’origine et leurs centres d’intérêt. Ce n’est pas tout : l’application pouvait également avoir accès aux « amis » des utilisateurs l’ayant téléchargée, sans leur consentement non plus.

    Deux mois après le scandale, Facebook avait annoncé avoir supprimé « environ 200 applications tierces », suspectées d’avoir détourné des données. Bien souvent, même lorsque l’application est supprimée, elle garde un accès aux données. « Difficile pour l’utilisateur d’en savoir plus sur l’utilisation réelle de ses données même après désinstallation », écrit la Cnil (Commission nationale de l’informatique et des libertés) dans une note de prévention sur son site.

    ■ Comment se protéger des fuites de données potentielles ?
    Mieux vaut prévenir que guérir. Le meilleur moyen pour éviter de voir ses données personnelles fuiter est encore de limiter leur accès à votre profil. Il est ainsi possible sur certaines plateformes, comme Facebook, de limiter les informations partagées avec les applications tierces.

    « Sur Facebook, vous pouvez personnaliser les informations complémentaires que vous souhaitez communiquer à l’application (comme l’adresse mail), limiter l’envoi de notifications, et faire en sorte qu’aucun de vos amis ne sache que vous l’utilisiez », détaille la Cnil dans une note explicative.

    "Il existe une option "Applications que d’autres utilisent" qui vous permet de limiter l’accès de vos amis à des informations vous concernant, notamment lorsqu’ils utilisent une application", poursuit le gendarme des données. Sur Twitter, il est possible de découvrir l’ensemble des applications tierces utilisées et d’en "révoquer l’accès" si besoin depuis l’onglet « Paramètres et confidentialité ».

    Dès lors qu’une application n’est plus utilisée, il est fortement recommandé de la supprimer. « Même si l’application est supprimée, il se peut qu’elle utilise toujours vos données ! », met en garde la Cnil. « Pour demander la suppression de ces données, contactez directement l’application, ou consultez sa politique de confidentialité. »

  • Reporter Shows The Links Between The Men Behind Brexit And The Trump Campaign : NPR
    https://www.npr.org/2018/07/19/630443485/reporter-shows-the-links-between-the-men-behind-brexit-and-the-trump-campaign

    The Guardian’s #Carole_Cadwalladr's investigation into #Cambridge_Analytica's role in #Brexit has led her to Russian connections and the #Trump campaign. She says British investigators are now “working very closely with the #FBI.”

    #Russie #NPR #Fresh_Air #investigation

  • Après le scandale Facebook, Cambridge Analytica met la clé sous la porte
    http://abonnes.lemonde.fr/pixels/article/2018/05/02/apres-le-scandale-facebook-cambridge-analytica-met-la-cle-sous-la-po

    Ben tiens.....

    « Accusations infondées »

    « Au cours des derniers mois, Cambridge Analytica a fait l’objet de nombreuses accusations infondées et, malgré les efforts de l’entreprise pour rectifier les faits, elle a été calomniée pour des activités qui non seulement sont légales, mais aussi largement acceptées comme faisant partie intégrante de la publicité en ligne dans les domaines politique comme commercial », a dénoncé la firme.

    « Le siège mené par la couverture médiatique a éloigné presque tous les clients et fournisseurs [de CA] », a-t-elle également déploré. Elle cite une enquête indépendante menée à sa demande, selon laquelle « rien » de ce que ses employés ont entendu ou vu dans les médias « ne reflète ce qu’ils font réellement pour vivre ».

    Dénonçant « un abus de confiance », Facebook a de son côté toujours farouchement démenti avoir laissé faire, affirmant ignorer que les données récoltées par CA via une application de tests psychologiques développée par un chercheur universitaire étaient utilisées à des fins politiques.

    #Cambridge_analytica #Facebook

  • Inside Cambridge Analytica’s Virtual Currency Plans - The New York Times
    https://www.nytimes.com/2018/04/17/technology/cambridge-analytica-initial-coin-offering.html

    SAN FRANCISCO — The embattled political data firm Cambridge Analytica quietly sought to develop its own virtual currency in recent months through a so-called initial coin offering, a novel fund-raising method that has come under growing scrutiny by financial regulators around the world.

    The offering was part of a broader, but still very private push that the firm was making into the nascent world of cryptocurrencies over the last year.

    Much like its acquisition of Facebook data to build psychological profiles of voters, the new business line pushed the firm into murky ethical and legal situations. Documents and emails obtained by The New York Times show that Cambridge Analytica’s efforts to help promote another group’s digital token, the Dragon Coin, associated the firm with a famous gangster in Macau who has gone by the nickname Broken Tooth.

    The goal of Cambridge Analytica’s own coin offering? Raise money that would pay for the creation of a system to help people store and sell their online personal data to advertisers, Brittany Kaiser, a former Cambridge Analytica employee, said in an interview. The idea was to protect information from more or less what the firm did when it obtained the personal data of up to 87 million Facebook users.

    “Who knows more about the usage of personal data than Cambridge Analytica?” Ms. Kaiser said. “So why not build a platform that reconstructs the way that works?”

    Mais Cambridge Analytica ne perd pas ses bonnes habitudes

    She also remembers they spoke about an array of potential campaigns. The most unusual idea involved sending virtual currencies to people in far-flung regions of Mexico. The payments would give people incentive to fill out surveys and get data that could then be used to help design campaigns for Mexican political candidates .

    #Cambridge_analytica #Cryptomonnaies #ICO #Données_personnelles

  • Cette fois il semblerait qu’on y soit : la #RNT (#radio_numérique_terrestre) débarque bien réellement en France, visant, à terme, à remplacer la #FM. Jusqu’à maintenant, il y avait des expérimentations locales (notamment en Provence), mais on passe au déploiement pérenne. Et pour faire passer la pilule, le #CSA communique plutôt sur la norme choisie : le #DAB+
    https://www.lalettre.pro/Derniere-etape-avant-le-lancement-du-DAB_a16065.html

    Le lancement du déploiement du DAB+ est prévu le 19 juin 2018 dans les Hauts-de-France. Dans ce but et conformément à son calendrier, le Conseil supérieur de l’audiovisuel donne aujourd’hui son agrément à 7 sites de diffusion DAB+.

    Cette première phase de déploiement du DAB + permettra aux auditeurs de capter le 19 juin prochain 39 radios en qualité numérique sur l’agglomération lilloise et entre 9 et 13 radios dans les autres bassins de vie de la région.

    #Radio_France, elle, préfère insister sur le fait que c’est pour mieux protéger vos données personnelles, si si :
    https://www.lalettre.pro/Cambridge-Analytica-sera-t-il-le-sauveur-de-la-RNT_a16072.html

    #Facebook permettra-t-il indirectement le développement de la technologie DAB ? Une question qui semblerait incongrue si #Cambridge_Analytica et Facebook n’avaient pas été, soit cités directement, soit évoqués lors d’allusions lors des auditions des six candidats à la présidence de Radio France devant les Conseillers du CSA.

    Tous ou presque ont donc évoqué les déboires de Cambridge Analytica et de Facebook pour aborder la problématique de la confidentialité des données que seule une diffusion hertzienne peut préserver. Dans leur ensemble, les candidats estiment qu’il ne faut pas que les #GAFA sachent qui écoute quoi et quand. Pour eux, il ne faut pas non plus que les radios dépendent systématiquement des GAFA pour assurer leur diffusion. Seule la diffusion hertzienne apporte une indépendance nécessaire aux opérateurs radio. Quand une radio passe par internet et par des diffuseurs externes, tels que les agrégateurs de radios, elle ne maitrise plus ses données. Ces données sont pourtant indispensables pour maîtriser un développement.

    Ce qui est d’autant plus comique que, pour ne parler que de lui, le deuxième A de GAFA correspond à #Amazon, à qui la radio publique ne cesse de faire des yeux doux, tantôt à travers #Alexa
    https://seenthis.net/messages/677962
    tantôt à travers #Audible
    https://seenthis.net/messages/676886
    Et que, par ailleurs, Radio France ne jure depuis des années plus que par les statistiques de #podcasts. Contre la captation des données d’écoute, donc, mais seulement par les autres.

  • « Désolé », Zuckerberg peine à convaincre devant le Sénat américain
    https://www.mediapart.fr/journal/international/110418/desole-zuckerberg-peine-convaincre-devant-le-senat-americain

    Mark Zuckerberg devant le Sénat américain, le 10 avril. © Mediapart Lors d’une audition devant le Sénat américain consacrée au scandale #Cambridge_Analytica, #Mark_Zuckerberg a multiplié les mea culpa et les actes de contrition. « C’était ma faute, et je suis désolé. J’ai lancé #Facebook, je le dirige, et je suis responsable de ce qui s’y passe », a déclaré le fondateur du réseau social.

    #International #Cnil

  • « Désolé », #Mark_Zuckerberg peine à convaincre devant le Sénat américain
    https://www.mediapart.fr/journal/international/110418/desole-mark-zuckerberg-peine-convaincre-devant-le-senat-americain

    Mark Zuckerberg devant le Sénat américain, le 10 avril. © Mediapart « C’était ma faute, et je suis désolé. J’ai lancé #Facebook, je le dirige, et je suis responsable de ce qui s’y passe », a déclaré mardi Mark Zuckerberg. Lors d’une audition devant le Sénat américain consacrée au scandale #Cambridge_Analytica, le fondateur du réseau social a multiplié les mea culpa et les actes de contrition.

    #International #Cnil

  • Au-delà de l’affaire Facebook. Pour un service public des données, par Evgeny Morozov (Les blogs du Diplo, 10 avril 2018)
    https://blog.mondediplo.net/2018-04-10-Pour-un-service-public-des-donnees

    Bonne nouvelle pour ceux d’entre nous qui mettent en garde contre les dangers de « l’extractivisme des données » depuis des années : la méfiance envers Facebook est de plus en plus vive.

    Enfin une preuve incontestable que sous la rhétorique grandiloquente de #Facebook, qui prétend « construire une communauté mondiale qui œuvre pour tous », se cache un projet agressif et cynique qui nous vampirise, dans le but de construire un aspirateur de données mondial. Comme d’autres dans ce secteur, Facebook se fait de l’argent en puisant nos #données_personnelles — qu’il fait émerger grâce à nos pokes et nos likes, à l’image des grands groupes du secteur énergétique qui forent des puits de pétrole : les profits avant tout, les conséquences sociales et individuelles attendront.

    En outre, plus grand monde ne croit en l’avenir numérique idéal où des publicités sur-mesure financeraient ce que Mark Zuckerberg appelle « l’infrastructure sociale ». Si cette dernière ne coûte rien financièrement, aux contribuables du moins, elle aurait un prix social et politique peut-être plus lourd encore que le pétrole bon marché des années 1970.

    Cette prise de conscience, aussi soudaine et brutale soit-elle, ne suffit pas. Facebook n’est que l’un des symptômes, non la cause de nos problèmes. À long terme, fustiger sa culture d’entreprise pourrait s’avérer aussi vain que de s’en prendre à soi-même.

    #Cambridge_Analytica

  • #Facebook : Personne ne parle du véritable coupable : #Cambridge_Analytica - La société britannique aurait récupéré les données de 50 millions d’utilisateurs pour élaborer un logiciel permettant de prédire le vote des électeurs - Les données pourraient être conservées en #Russie.
    https://fr.wikipedia.org/wiki/Cambridge_Analytica
    http://www.lepoint.fr/high-tech-internet/facebook-polemique-autour-de-l-utilisation-de-donnees-personnelles-19-03-201
    http://www.01net.com/actualites/cambridge-analytica-nouveaux-rebondissements-dans-l-affaire-qui-ebranle-faceb

  • #Facebook commence à informer les utilisateurs touchés par l’affaire #Cambridge_Analytica
    http://www.lemonde.fr/pixels/article/2018/04/10/facebook-commence-a-informer-les-utilisateurs-touches-par-l-affaire-cambridg

    « Nous avons banni le site This is Your Digital Life (…), car il a utilisé à mauvais escient certaines de vos informations Facebook en les partageant avec une entreprise nommée Cambridge Analytica. » Voilà le message que les millions d’utilisateurs de Facebook dont les données ont pu être aspirées indirectement par Cambridge Analytica découvrent depuis lundi 9 avril en se connectant au réseau social. L’entreprise reconnaît qu’il reste « beaucoup de travail à faire » et assure que ses employés s’engagent « à lutter contre les abus et à donner [à ses utilisateurs] le contrôle de [leur] vie privée ».

    Les autres utilisateurs, ceux dont les données n’ont, selon Facebook, pas été récupérées dans cette affaire, peuvent quant à eux voir apparaître un message les invitant à se rendre dans la section « Apps et sites Web » de leurs paramètres pour faire le tri dans les applications dont ils ne se servent plus.

  • “Le scandale Cambridge Analytica n’est pas une faille technique mais un problème politique” - Idées - Télérama.fr
    http://www.telerama.fr/idees/le-scandale-cambridge-analytica-nest-pas-une-faille-technique-mais-un-probl

    Interview de Zeynep Tufekci

    Cet incident, écriviez-vous dans le New York Times, est « une conséquence naturelle du modèle économique de Facebook »…

    Facebook comme Google attirent l’essentiel de l’attention car ce sont des mastodontes, mais n’oublions pas que tout le modèle de la publicité en ligne – et celui d’une majorité de médias – repose sur les mêmes fondations. Partout, le principe est identique : où que vous cliquiez, vous êtes suivi, ciblé, monétisé et vendu au plus offrant. Les pages que vous consultez, les contenus que vous publiez, toutes vos traces numériques sont utilisées à des fins commerciales. Qu’il s’agisse de Cambridge Analytica, d’un dictateur en herbe ou d’une marque d’aspirateurs importe peu, puisque c’est un système totalement asymétrique dans lequel vous ne connaissez pas l’identité des passeurs d’ordre. C’est le problème majeur d’Internet aujourd’hui. Dans cette « économie de l’attention », Facebook peut compter sur une infrastructure sans équivalent. Grâce à elle, la plateforme peut toucher deux milliards d’utilisateurs, écran par écran, sans même qu’ils s’en rendent compte.

    Faut-il craindre la multiplication d’épisodes de ce genre ?

    De toute évidence. Il est mécaniquement impossible de prédire l’utilisation qui sera faite de nos données dans les années à venir. C’est un puits sans fond ! Même si vous n’êtes pas sur Facebook, une quantité gigantesque d’informations à votre sujet circulent et permettent de vous profiler. Grâce aux progrès de l’intelligence artificielle, des algorithmes sont capables d’analyser vos amitiés, votre activité, vos modes de consommation. Nous figurons probablement tous dans des bases de données commerciales dont nous ignorons l’existence, mises en relation et croisées avec d’autres bases de données que nous ne connaissons pas davantage. Dans le cas de Cambridge Analytica, l’immense majorité des personnes siphonnées ignoraient tout de ce qui était en train de se passer.

    Réagissons-nous si tardivement à cause de cette opacité ?

    Pour une personne ordinaire, il est extrêmement difficile de réagir, car cette collecte est invisible, inodore et incolore. En tant qu’internaute, vous ne voyez rien d’autre que les contenus qui s’affichent sur votre écran.

    A ce titre, que pensez-vous de la réaction de Mark Zuckerberg ?

    Il s’est mollement excusé parce qu’il n’avait pas le choix. Mais il s’est quand même posé en victime, comme s’il avait été dupé par un tiers renégat ne respectant pas les règles d’un jeu qu’il a lui-même créé. Je pense que nous ne devrions croire aucune entreprise sur parole. Nous avons besoin de contrôle et de mécanismes de protection. Prenons l’exemple des voitures. Elles peuvent avoir des accidents ou présenter des risques pour l’environnement. Pour lutter contre ces facteurs négatifs, les gouvernements ont imposé des limitations de vitesse, le port de la ceinture de sécurité ou des normes environnementales. Ces changements ne sont pas intervenus par l’opération du Saint-Esprit : il a fallu les imposer. Et quand une entreprise ne respecte pas ces règles, elle est sanctionnée. L’économie liée à l’exploitation des données est encore un Far West à civiliser.

    Ces dernières semaines, les appels à la déconnexion de Facebook se sont multipliés. Est-ce une option viable ?

    Ça ne peut être qu’une décision individuelle. C’est le droit le plus strict de chacun, mais c’est un luxe qui ne résoudra pas le problème : dans de nombreux pays, Facebook est le seul moyen pour communiquer avec sa famille ou ses amis, et c’est un vecteur important d’organisation sociale. Il vaudrait mieux réfléchir au démantèlement de Facebook tout en réfléchissant à ses conséquences possibles : si nous ne réformons pas en profondeur le modèle économique du Web, des légions de petits Facebook pourraient en effet se montrer encore plus nocifs qu’une plateforme centralisée…

    #Zeynep_Tufekci #Facebook #Cambridge_analytica #Vie_privée #Données_personnelles

  • #Facebook, emblème du « capitalisme de surveillance »
    https://www.mediapart.fr/journal/international/070418/facebook-embleme-du-capitalisme-de-surveillance

    Le détournement de 87 millions de profils Facebook par #Cambridge_Analytica afin d’influer sur la campagne présidentielle américaine a Mark Zuckerberg lors du Mobile World Congress en février 2016 à Barcelone © Facebook plongé la société de Mark Zuckerberg dans une crise sans précédent en la mettant face à un dilemme en apparence insoluble : comment rassurer investisseurs et utilisateurs alors que son modèle économique repose par définition sur la collecte massive des données personnelles ?

    #International #capitalisme_de_surveillance #GAFAM

    • Même si Cambridge Analytica a bien dérobé quelque 87 millions de profils, c’est en fait quasiment toute l’économie du numérique qui repose sur une collecte massive des données des utilisateurs. Avant l’explosion du scandale, la société se vantait d’ailleurs de posséder des profils sur 220 millions d’Américains, des données obtenues légalement auprès des multiples « data brokers » ou vendeurs de données du pays. Ce modèle économique auquel sont irrémédiablement liés Facebook mais également Google ou Twitter a été théorisé sous l’expression de « capitalisme de surveillance ».

      Le concept a fait l’objet d’une première définition dans un article des universitaires John Bellamy Foster et Robert W. McChesney, publié en juillet 2014 sur le site Monthly Review. Dans celui-ci, les auteurs font du capitalisme de surveillance l’évolution naturelle du complexe militaro-industriel dénoncé par les président Dwight Eisenhower dans son célèbre discours de janvier 1961. Ils rappellent les origines militaires du Net et les efforts constants déployés par l’armée pour contrôler la recherche et les industries de pointe.

      L’article du Monthly Review en question, que j’avais pas vu passer : ▻https://seenthis.net/messages/328312

    • Avec aussi le concept de #surplus_comportemental développé par https://twitter.com/shoshanazuboff
      « [...] les utilisateurs ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont une source de matériaux bruts gratuits [...] »

      Dans un article publié en 2016 dans la Frankfurter Allgemeine Zeitung, elle explique comment « le capitalisme a été détourné par un projet de surveillance lucratif ». Ce détournement a eu lieu, raconte Shoshana Zuboff, lorsque Google a pris conscience du profit qu’il pouvait tirer des données comportementales de ses utilisateurs, données qu’elle désigne sous le terme de « surplus comportemental ».

      « Le succès dramatique de Google dans le “matching” des publicités et des pages a révélé la valeur transformationnelle de ce surplus comportemental comme moyen de générer des revenus et, finalement, de transformer les investissements en capital », écrit Shoshana Zuboff. « Dans ce contexte, les utilisateurs ne sont plus une fin en eux-mêmes. À la place, ils sont devenus un moyen de faire des profits dans un nouveau type de marché dans lequel les utilisateurs ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont une source de matériaux bruts gratuits qui nourrit un nouveau type de processus de fabrication », poursuit la professeure. « Le jeu ne consiste plus à vous envoyer un catalogue de vente par correspondance ou même à cibler la publicité en ligne. Le jeu consiste à vendre l’accès au flux en temps réel de votre vie quotidienne – votre réalité – afin de l’influencer directement et de modifier votre comportement pour faire des profits. »

    • Les références de l’article sont plus qu’intéressantes :
      – John Bellamy Foster et Robert W. McChesney sur le site Monthly Review sur le complexe militaro-industriel et le #capitalisme_de_surveillance
      https://monthlyreview.org/2014/07/01/surveillance-capitalism

      – Nicholas Confessore et Matthew Rosendbergmarch dans le NY Times sur le lien entre #Cambrige_Analytica et #Palantir
      https://www.nytimes.com/2018/03/27/us/cambridge-analytica-palantir.html

      – Shoshana Zuboff dans la Frankfurter Allgemeine Zeitung sur le #capitalisme_de_surveillance
      http://www.faz.net/aktuell/feuilleton/debatten/the-digital-debate/shoshana-zuboff-secrets-of-surveillance-capitalism-14103616.html
      => Article récemment traduit par l’équipe #Framalang
      https://framablog.org/2017/03/28/google-nouvel-avatar-du-capitalisme-celui-de-la-surveillance

  • Why (almost) everything reported about the Cambridge Analytica Facebook ‘hacking’ controversy is wrong
    https://medium.com/@CKava/why-almost-everything-reported-about-the-cambridge-analytica-facebook-hackin

    First, There was no hack.

    The data collected was scraped from #Facebook user profiles, after users granted permission for a third party app to access their data. You know those little confirmation windows that pop up when someone wants to play Candy Crush or use Facebook to log in, rather than make a new password, for a random site? Yeah those.

    A Cambridge academic called Aleksandr Kogan — NOT Cambridge Analytica and NOT the whistleblower Christopher Wylie — made a ‘Test Your Personality’ app, helped to promote it by paying people $2–4 to install it on Amazon’s Mechanical Turk crowdsourcing site, and used the permissions granted to harvest profile data. 270,000 users installed the app, so you might expect that 270,000 profiles were collected but the app actually collected data from 50 million profiles.

    50 million?!?

    Yes. You see back in the heady days of 2014, Facebook had a feature called ‘friends permission’ that allowed developers to access the profiles of not only the person who installed their app but all their friends too. The only way to prevent this from happening was to have toggled a privacy setting, which few Facebook users even knew existed (here is a blog from 2012 explaining how to do so). The friends permission feature is how Kogan multiplied 270,000 permissions into 50 million profiles worth of data.

    (…)

    The real story then is not that Kogan, Wylie, and Cambridge Analytica developed some incredibly high tech ‘hack’ of Facebook. It is that, aside from Kogan’s data selling, they used methods that were common place and permitted by Facebook prior to 2015. Cambridge Analytica has since the story broke been outed as a rather obnoxious, unethical company- at least in how it promotes itself to potential clients. But the majority of what is being reported in the media about its manipulative power is just an uncritical regurgitation of Cambridge Analytica (and Chris Wylie’s) self-promotional claims. The problem is that there is little evidence that the company can do what it claims and plenty of evidence that it is not as effective as it likes to pretend; see the fact that Ted Cruz is not currently president.

    No one is totally immune to marketing or political messaging but *there is little evidence that Cambridge Analytica is better than other similar PR or political canvassing companies at targeting voters. Political targeting and disinformation campaigns, including those promoted by Russia, certainly had an impact on recent elections but were they the critical factor? Did they have a bigger impact than Comey announcing he was ‘reopening’ the Hillary email investigation the week before the US election? Or Brexiteers claiming that £250 million was being stolen from the NHS by the EU every week? Colour me skeptical.

    To be crystal clear, I’m not arguing that Cambridge Analytica and Kogan were innocent. At the very least, it is clear they were doing things that were contrary to Facebook’s data sharing policies. And similarly Facebook seems to have been altogether too cavalier with permitting developers to access its users’ private data.

    What I am arguing is that #Cambridge_Analytica are not the puppet masters they are being widely portrayed as. If anything they are much more akin to Donald Trump; making widely exaggerated claims about their abilities and getting lots of #attention as a result.

  • Why the Cambridge Analytica Scandal Is a Watershed Moment for Social Media - Knowledge Wharton
    http://knowledge.wharton.upenn.edu/article/fallout-cambridge-analytica

    “We’re experiencing a watershed moment with regard to social media,” said Aral. “People are now beginning to realize that social media is not just either a fun plaything or a nuisance. It can have potentially real consequences in society.”

    The Cambridge Analytica scandal underscores how little consumers know about the potential uses of their data, according to Berman. He recalled a scene in the film Minority Report where Tom Cruise enters a mall and sees holograms of personally targeted ads. “Online advertising today has reached about the same level of sophistication, in terms of targeting, and also some level of prediction,” he said. “It’s not only that the advertiser can tell what you bought in the past, but also what you may be looking to buy.”

    Consumers are partially aware of that because they often see ads that show them products they have browsed, or websites they have visited, and these ads “chase them,” Berman said. “What consumers may be unaware of is how the advertiser determines what they’re looking to buy, and the Cambridge Analytica exposé shows a tiny part of this world.”

    A research paper that Nave recently co-authored captures the potential impact of the kind of work Cambridge Analytica did for the Trump campaign. “On the one hand, this form of psychological mass persuasion could be used to help people make better decisions and lead healthier and happier lives,” it stated. “On the other hand, it could be used to covertly exploit weaknesses in their character and persuade them to take action against their own best interest, highlighting the potential need for policy interventions.”

    Nave said the Cambridge Analytica scandal exposes exactly those types of risks, even as they existed before the internet era. “Propaganda is not a new invention, and neither is targeted messaging in marketing,” he said. “What this scandal demonstrates, however, is that our online behavior exposes a lot about our personality, fears and weaknesses – and that this information can be used for influencing our behavior.”

    In Golbeck’s research projects involving the use of algorithms, she found that people “are really shocked that we’re able to get these insights like what your personality traits are, what your political preferences are, how influenced you can be, and how much of that data we’re able to harvest.”

    Even more shocking, perhaps, is how easy it is to find the data. “Any app on Facebook can pull the kind of data that Cambridge Analytica did – they can [do so] for all of your data and the data of all your friends,” said Golbeck. “Even if you don’t install any apps, if your friends use apps, those apps can pull your data, and then once they have that [information] they can get these extremely deep, intimate insights using artificial intelligence, about how to influence you, how to change your behavior.” But she draws a line there: “It’s one thing if that’s to get you to buy a pair of shoes; it’s another thing if it’s to change the outcome of an election.”

    “Facebook has tried to play both sides of [the issue],” said Golbeck. She recalled a study by scientists from Facebook and the University of California, San Diego, that claimed social media networks could have “a measurable if limited influence on voter turnout,” as The New York Times reported. “On one hand, they claim that they can have a big influence; on the other hand they want to say ‘No, no, we haven’t had any impact on this.’ So they are going to have a really tough act to play here, to actually justify what they’re claiming on both sides.”

    Golbeck called for ways to codify how researchers could ethically go about their work using social media data, “and give people some of those rights in a broader space that they don’t have now.” Aral expected the solution to emerge in the form of “a middle ground where we learn to use these technologies ethically in order to enhance our society, our access to information, our ability to cooperate and coordinate with one another, and our ability to spread positive social change in the world.” At the same time, he advocated tightening use requirements for the data, and bringing back “the notion of informed consent and consent in a meaningful way, so that we can realize the promise of social media while avoiding the peril.”

    Historically, marketers could collect individual data, but with social platforms, they can now also collect data about a user’s social contacts, said Berman. “These social contacts never gave permission explicitly for this information to be collected,” he added. “Consumers need to realize that by following someone or connecting to someone on social media, they also expose themselves to marketers who target the followed individual.”

    In terms of safeguards, Berman said it is hard to know in advance what a company will do with the data it collects. “If they use it for normal advertising, say toothpaste, that may be legitimate, and if they use it for political advertising, as in elections, that may be illegitimate. But the data itself is the same data.”

    According to Berman, most consumers, for example, don’t know that loyalty cards are used to track their behavior and that the data is sold to marketers. Would they stop using these cards if they knew? “I am not sure,” he said. “Research shows that people in surveys say they want to maintain their privacy rights, but when asked how much they’re willing to give up in customer experience – or to pay for it – the result is not too much. In other words, there’s a difference between how we care about privacy as an idea, and how much we’re willing to give up to maintain it.”

    Golbeck said tools exist for users to limit the amount of data they let reside on social media platforms, including one called Facebook Timeline Cleaner, and a “tweet delete” feature on Twitter. _ “One way that you can make yourself less susceptible to some of this kind of targeting is to keep less data there, delete stuff more regularly, and treat it as an ephemeral platform, _ ” she said.

    Mais est-ce crédible ? Les médias sociaux sont aussi des formes d’archives personnelles.

    #Facebook #Cambridge_analytica

  • Alors comme ça, on veut quitter Facebook ?
    http://www.makery.info/2018/03/27/alors-comme-ca-on-veut-quitter-facebook

    L’affaire Cambridge Analytica fait vaciller le réseau social. Quelle stratégie adopter après ces révélations : supprimer son compte, exiger ses datas, passer au libre ? On savait qu’il y avait du rififi chez Facebook. Mais alors là, c’est le pompon. Depuis que The Guardian, The Observer et le New York Times ont révélé les pratiques plus que douteuses de l’entreprise Cambridge Analytica, la tentation de supprimer Facebook semble être plus grande que jamais dans la communauté aux 2,13 milliards d’amis. (...)

    #CambridgeAnalytica #Facebook #algorithme #thisisyourdigitallife #élections #manipulation #électeurs #comportement #données #publicité #BigData #marketing #prédictif (...)

    ##publicité ##profiling

  • Life Inside S.C.L., Cambridge Analytica’s Parent Company | The New Yorker
    https://www.newyorker.com/news/letter-from-the-uk/life-inside-scl-cambridge-analyticas-parent-company

    There were times during our conversation when the employee seemed as bemused as anybody that a company that was started in the early nineteen-nineties with some intuitive but eccentric ideas about group psychology—one of Oakes’s first ventures was selling aromas to stores, to persuade customers to buy more—was now at the center of a transatlantic conversation about voter rights, data privacy, and the integrity of the world’s most important social network. But the employee was also clear that access to big data, particularly in the form of Facebook, combined with S.C.L.’s long interest in psychological profiling and audience segmentation, had been able to equip political campaigns with digital weapons that most voters were unaware of. “You can get philosophical about this and say that Facebook being an advertising platform masquerading as a social platform is the start of the rot and the tool was always there,” the employee said. S.C.L.’s executives were the wrong people who came along at the wrong time. “There were always going to be dodgy fuckers willing to work for rich people, and the S.C.L. was just an example of the dodgy fucker.” (S.C.L. did not immediately respond to a request for comment, but the company claims that it destroyed the Facebook data, in October, 2015, and that it played no role in the Presidential election.)

    The employee welcomed the current attention on S.C.L.’s methodology and behavior, whether it was illegal, or whether it should have been. The leaders of the company were not interested in these questions. “Alexander is not constrained by the sort of worries we are seeing expressed right now,” the employee said. “It really is about getting money together.” The employee continued, “What is wonderful about now is this bit of it is being opened, and I think it is bloody important, because something as catastrophic as Brexit and Trump—the technical possibility of that—is achieved through this dark shit. And this dark shit can be done by fucking cowboys. And, for lots of people who worked for the organization, it wasn’t supposed to be this way.”

    Some of S.C.L.’s methods had merit. Oakes’s insight in forming the B.D.I. was to aim messages at social groups—rather than at individuals—and to place a low expectation on persuading people to change their minds. In a “classic S.C.L. project,” the employee explained, the company would use subcontractors, survey companies, and academics in the run-up to an election to create what it called a “super sample.” “We would speak to sixty thousand people, and we wouldn’t say, ‘Who are you going to vote for?’ ” the employee said. “We would say, ‘How do you feel about life?’ ” S.C.L.’s data concentrated on local concerns, such as housing, water shortages, or tribal conflict. “With all of that, we would delineate a strategy for them to win by focussing on targeted groups that we had identified within the population,” the employee said. “It is not so much, let’s make these people do this thing; it is, can we take this thing in such a way that the people who should get it do get it?”

    #Facebook #Cambridge_analytica

  • Cambridge Analytica demonstrates that Facebook needs to give researchers more access.
    https://slate.com/technology/2018/03/cambridge-analytica-demonstrates-that-facebook-needs-to-give-researchers-more

    In a 2013 paper, psychologist Michal Kosinski and collaborators from University of Cambridge in the United Kingdom warned that “the predictability of individual attributes from digital records of behavior may have considerable negative implications,” posing a threat to “well-being, freedom, or even life.” This warning followed their striking findings about how accurately the personal attributes of a person (from political leanings to intelligence to sexual orientation) could be inferred from nothing but their Facebook likes. Kosinski and his colleagues had access to this information through the voluntary participation of the Facebook users by offering them the results of a personality quiz, a method that can drive viral engagement. Of course, one person’s warning may be another’s inspiration.

    Kosinski’s original research really was an important scientific finding. The paper has been cited more than 1,000 times and the dataset has spawned many other studies. But the potential uses for it go far beyond academic research. In the past few days, the Guardian and the New York Times have published a number of new stories about Cambridge Analytica, the data mining and analytics firm best known for aiding President Trump’s campaign and the pro-Brexit campaign. This trove of reporting shows how Cambridge Analytica allegedly relied on the psychologist Aleksandr Kogan (who also goes by Aleksandr Spectre), a colleague of the original researchers at Cambridge, to gain access to profiles of around 50 million Facebook users.

    According to the Guardian’s and New York Times’ reporting, the data that was used to build these models came from a rough duplicate of that personality quiz method used legitimately for scientific research. Kogan, a lecturer in another department, reportedly approached Kosinski and their Cambridge colleagues in the Psychometric Centre to discuss commercializing the research. To his credit, Kosinski declined. However, Kogan built an app named thisismydigitallife for his own startup, Global Science Research, which collected the same sorts of data. GSR paid Mechanical Turk workers (contrary to the terms of Mechanical Turk) to take a psychological quiz and provide access to their Facebook profiles. In 2014, under the contract with the parent company of Cambridge Analytica, SCL, that data was harvested and used to build a model of 50 million U.S. Facebook users that included allegedly 5,000 data points on each user.

    So if the Facebook API allowed Kogan access to this data, what did he do wrong? This is where things get murky, but bear with us. It appears that Kogan deceitfully used his dual roles as a researcher and an entrepreneur to move data between an academic context and a commercial context, although the exact method of it is unclear. The Guardian claims that Kogan “had a licence from Facebook to collect profile data, but it was for research purposes only” and “[Kogan’s] permission from Facebook to harvest profiles in large quantities was specifically restricted to academic use.” Transferring the data this way would already be a violation of the terms of Facebook’s API policies that barred use of the data outside of Facebook for commercial uses, but we are unfamiliar with Facebook offering a “license” or special “permission” for researchers to collect greater amounts of data via the API.

    Regardless, it does appear that the amount of data thisismydigitallife was vacuuming up triggered a security review at Facebook and an automatic shutdown of its API access. Relying on Wylie’s narrative, the Guardian claims that Kogan “spoke to an engineer” and resumed access:

    “Facebook could see it was happening,” says Wylie. “Their security protocols were triggered because Kogan’s apps were pulling this enormous amount of data, but apparently Kogan told them it was for academic use. So they were like, ‘Fine’.”

    Kogan claims that he had a close working relationship with Facebook and that it was familiar with his research agendas and tools.

    A great deal of research confirms that most people don’t pay attention to permissions and privacy policies for the apps they download and the services they use—and the notices are often too vague or convoluted to clearly understand anyway. How many Facebook users give third parties access to their profile so that they can get a visualization of the words they use most, or to find out which Star Wars character they are? It isn’t surprising that Kosinski’s original recruitment method—a personality quiz that provided you with a psychological profile of yourself based on a common five-factor model—resulted in more than 50,000 volunteers providing access to their Facebook data. Indeed, Kosinski later co-authored a paper detailing how to use viral marketing techniques to recruit study participants, and he has written about the ethical dynamics of utilizing friend data.

    #Facebook #Cambridge_analytica #Recherche

  • Revealed : 50 million Facebook profiles harvested for Cambridge Analytica in major data breach | News | The Guardian
    https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election

    Paul-Olivier Dehaye, a data protection specialist, who spearheaded the investigative efforts into the tech giant, said: “Facebook has denied and denied and denied this. It has misled MPs and congressional investigators and it’s failed in its duties to respect the law.

    “It has a legal obligation to inform regulators and individuals about this data breach, and it hasn’t. It’s failed time and time again to be open and transparent.”

    We exploited Facebook to harvest millions of profiles. And built models to exploit that and target their inner demons
    Christopher Wylie

    A majority of American states have laws requiring notification in some cases of data breach, including California, where Facebook is based.

    Facebook denies that the harvesting of tens of millions of profiles by GSR and Cambridge Analytica was a data breach. It said in a statement that Kogan “gained access to this information in a legitimate way and through the proper channels” but “did not subsequently abide by our rules” because he passed the information on to third parties.

    Facebook said it removed the app in 2015 and required certification from everyone with copies that the data had been destroyed, although the letter to Wylie did not arrive until the second half of 2016. “We are committed to vigorously enforcing our policies to protect people’s information. We will take whatever steps are required to see that this happens,” Paul Grewal, Facebook’s vice-president, said in a statement. The company is now investigating reports that not all data had been deleted.

    Kogan, who has previously unreported links to a Russian university and took Russian grants for research, had a licence from Facebook to collect profile data, but it was for research purposes only. So when he hoovered up information for the commercial venture, he was violating the company’s terms. Kogan maintains everything he did was legal, and says he had a “close working relationship” with Facebook, which had granted him permission for his apps.

    Coût de l’opération : 1 million de dollars.

    The Observer has seen a contract dated 4 June 2014, which confirms SCL, an affiliate of Cambridge Analytica, entered into a commercial arrangement with GSR, entirely premised on harvesting and processing Facebook data. Cambridge Analytica spent nearly $1m on data collection, which yielded more than 50 million individual profiles that could be matched to electoral rolls. It then used the test results and Facebook data to build an algorithm that could analyse individual Facebook profiles and determine personality traits linked to voting behaviour.

    The algorithm and database together made a powerful political tool. It allowed a campaign to identify possible swing voters and craft messages more likely to resonate.

    “The ultimate product of the training set is creating a ‘gold standard’ of understanding personality from Facebook profile information,” the contract specifies. It promises to create a database of 2 million “matched” profiles, identifiable and tied to electoral registers, across 11 states, but with room to expand much further.

    #Facebook #Cambridge_analytica

  • Facebook : un test à la con et soudain la démocratie s’effondre | Slate.fr
    http://www.slate.fr/story/159379/facebook-cambridge-analytica-trump-democratie

    Le problème c’est qu’un président, ce n’est pas un tube de dentifrice. En délivrant un message politique différent à chaque catégorie d’électrices et d’électeurs, un message répété à l’infini, un message qui joue sur des émotions, on se situe exactement dans l’inverse du débat d’idées. Une membre de l’équipe numérique de campagne de Donald Trump a expliqué qu’une mère de famille intéressée par la garde d’enfant ne voudrait pas voir une pub pleine de guerre et de violence. L’équipe de Trump lui montrait alors un spot doux et chaleureux : « Il nous arrivait assez souvent de produire trente-cinq ou quarante-cinq mille itérations de ce type de pub au quotidien. »

    On est dans une forme de manipulation psychologique et émotionnelle. Cambridge Analytica explique que le vote se joue sur deux émotions : la peur et l’espoir. Et que les gens ne savent pas que quelque chose leur fait peur tant qu’on ne leur a pas montré. Évidemment, à Athènes, des orateurs pouvaient user de démagogie, mais ils le faisaient face à l’ensemble des citoyens en même temps. Ils n’allaient pas chez les votants la nuit pour les harceler avec leurs pires craintes. Cette manipulation est très efficacement renforcée par l’usage des fake news. (L’un des principaux investisseurs de Cambridge Analytica est également un des fondateurs de Breitbart News, site d’extrême droite soupçonné de fake news.)

    Cambridge Analytica ne s’arrête pas là. Dans un court et incroyable reportage (en anglais mais je vous le conseille), Channel 4 a filmé un dirigeant de l’entreprise en train d’expliquer qu’ils font appel à des sous-traitants qui recrutent des anciens agents des services secrets britanniques et israéliens : « On a employé une organisation différente pour un projet très réussi dans un pays d’Europe de l’Est, personne ne savait qu’ils étaient là, ils sont venus, ils ont fait le boulot, ils sont partis, et ils nous ont fourni du très bon matériel. »

    Cambridge Analytica est payé pour pratiquer une forme de « highjacking » de la démocratie. Savoir à quel point il fonctionne est impossible. Si vous avez une opinion désastreuse de Donald Trump, vous aurez tendance à penser que sa victoire est la preuve de la réussite de ces techniques de manipulation. Si vous détestez Obama, vous pourrez en tirer la même conclusion. On ne sait pas ce qui se passe dans la tête d’un électeur ou d’une électrice au moment de choisir un bulletin. Mais peu importe leur efficacité réelle, leur véritable impact sur nos vies démocratiques, ces pratiques sont condamnables. Il s’agit d’un détournement du modèle démocratique dans son fonctionnement même. Cambridge Analytica affirme l’avoir fait aux États-Unis, au Mexique, en Malaisie, avoir travaillé pour la campagne pro-Brexit, et bosser en ce moment au Brésil et en Chine.

    #Facebook #Cambridge_analytica #démocratie #Industrie_influence

  • Le scandale Facebook pose avant tout une question politique - Libération
    http://www.liberation.fr/debats/2018/03/23/le-scandale-facebook-pose-avant-tout-une-question-politique_1638346

    L’affaire qui touche en ce moment le réseau social aux 2 milliards d’utilisateurs n’est que le symptôme du naufrage de l’action publique.

    Le scandale Facebook pose avant tout une question politique

    D’abord il y a l’évidence. A l’évidence, quiconque peut disposer d’une partie substantielle et suffisamment ciblée des données collectées et agrégées par Facebook dispose d’un outil d’influence absolument redoutable et tout à fait inédit à l’échelle de l’histoire de l’humanité et de la manipulation de l’opinion. Quantitativement et qualitativement, jamais aucun média n’avait été en capacité de disposer d’autant de données privées et intimes sur autant de personnes en temps réel et à flux constant (plus de 2 milliards d’utilisateurs).« Une version postmoderne de la Stasi », pour reprendre la formule de Julian Assange. Mais en pire.

    Ceci étant posé en préalable, toute agence de « relations publiques » (RP) comme elles se nomment par euphémisme et antiphrase, puisqu’il s’agit surtout d’entretenir des connivences privées, Cambridge Analytica compris, aura une tendance naturelle à surestimer auprès de ses clients et des médias le pouvoir réel dont elle prétend pouvoir disposer pour façonner l’opinion. Au regard de ce que sont ses clients et ses intérêts, cette affaire est cyniquement une extraordinaire publicité pour Cambridge Analytica.
    Facebook et Cambridge Analytica n’ont pas « fait l’élection »

    Mais attention à ne pas rater l’essentiel des enjeux de cette affaire. Certes, la collecte de données est massive. Certes, le mode opératoire de la collecte est suspect (au travers d’applications tierces notamment). Certes, les soupçons de collusion entre Facebook et Cambridge Analytica méritent d’être explorés par la justice. Certes, le laissez-faire de Facebook confine à l’incurie chronique dans cette affaire. Mais n’allons pas pour autant imaginer que l’élection de Trump s’est jouée uniquement sur de l’analyse de données et du profilage marketing, même parfaitement ciblé, même à cette échelle.

    D’autant que rien n’est vraiment nouveau. Un porte-parole de la campagne d’Obama indique que lui aussi a « naturellement » travaillé avec Facebook pour avoir accès aux données personnelles d’utilisateurs d’obédience plutôt démocrate. C’est un fait : tous les candidats de toutes les élections de tous les pays travaillent et travailleront toujours avec toutes les entreprises et médias susceptibles de leur apporter des infos en termes d’analyse de l’opinion et accessoirement leur promettant d’être en capacité d’exercer des actions d’influence.

    Mais pour le reste, choisir pour qui nous allons voter est, heureusement, un processus décisionnel largement multi-factoriel qu’aucune martingale algorithmique ne peut prétendre modéliser de manière fiable, fut-elle gavée d’une immensité de données qualifiées. Et à ce titre, l’élection de Trump en est d’ailleurs la preuve éclatante. Facebook et Cambridge Analytica ont certainement une part de responsabilité dans cette élection mais ils n’ont à eux seuls pas « fait l’élection ». Loin s’en faut.

    A lire aussi :Scandale Facebook : les petits remèdes du Dr Zuckerberg
    Facebook et son projet politique

    Au-delà des agences de com ou de RP, la première question qu’il me semble essentiel de retenir de toute cette affaire, c’est celle de savoir comment garantir que « l’executive board » de Facebook lui-même ne cède pas à la tentation d’exploiter l’immensité des données dont il dispose pour mener une campagne d’influence sur des sujets politiques ou sociétaux. D’autant que l’on sait qu’une place était réservée pour Zuckerberg dans l’équipe Clinton si celle-ci avait remporté l’élection. Et sans pour autant avoir besoin de fantasmer sur les intentions présidentielles de Mark Zuckerberg, il est au moins acquis et avéré qu’à l’échelle qu’atteint aujourd’hui Facebook, il ne peut pas, il ne peut plus faire l’économie d’un projet politique.

    L’autre question liée est celle de l’intentionnalité de la collecte et de l’usage qui est fait de ces immenses volumes de données. L’un des ingénieurs en intelligence artificielle chez Google, François Chollet, a peut-être très opportunément, mais de mon point de vue très justement, indiqué quel était l’enjeu principal de cette intentionnalité en déclarant sur son compte Twitter (je souligne) :

    « Le problème avec Facebook n’est pas « uniquement » la question de la privacy et le fait qu’il puisse être utilisé comme un panoptique totalitaire. L’aspect le plus inquiétant à mon avis est son utilisation de notre consommation d’information comme un outil de contrôle psychologique ("The more worrying issue, in my opinion, is its use of digital information consumption as a psychological control vector"). […] En bref, Facebook est en capacité de simultanément prendre la mesure de tout ce qui nous touche et nous concerne, et de contrôler l’information que nous consommons. Quand vous avez à la fois accès à ces dimensions de perception et d’action, vous faites face à une situation classique en Intelligence Artificielle. Vous pouvez établir une boucle logique optimisée pour le comportement humain. […] Une boucle dans laquelle vous observez l’état actuel de vos cibles et déterminez l’information avec laquelle il est nécessaire de les alimenter, jusqu’à ce que vous observiez les opinions et les comportements que vous voulez obtenir. Une bonne partie du champ de recherche en Intelligence Artificielle (particulièrement celle dans laquelle Facebook investit massivement) concerne le développement d’algorithmes capables de résoudre de tels problèmes d’optimisation, de la manière la plus efficace possible, pour pouvoir clore la boucle et disposer d’un niveau de contrôle total sur le phénomène. »
    Quel impact sur les comportements ?

    Et la dernière question est celle de savoir si cette énième affaire, s’ajoutant à la liste déjà longue des casseroles qui collent à l’image de la plateforme sociale, aura ou non une incidence sur le comportement des usagers, sur nos comportements. Un article du New York Times indiquait que Zuckerberg aurait été averti de l’essentiel des révélations qui allaient être faites quinze jours avant leur sortie, et qu’il aurait sous-estimé le tollé que cela allait susciter. Il est plutôt probable que Zuckerberg ait vu dans cette affaire l’occasion d’un crash test bienvenu : voir jusqu’où les utilisateurs sont prêts à tolérer que la plateforme continue de faire et de laisser-faire absolument n’importe quoi avec leurs données, voir jusqu’où l’idée que Facebook soit reconnu comme un formidable média de manipulation de masse n’empêche en rien d’en avoir un usage trivial nous servant simultanément d’exutoire, de service de mise en relation et un peu aussi de source d’information.

    Croire que cette affaire sera un éclair de lucidité dans l’opinion et permettra une prise de conscience accrue des enjeux posés par une plateforme privée rassemblant deux milliards d’utilisateurs sur un modèle économique de régie publicitaire est une chose. Imaginer que cela impactera les comportements de ces mêmes utilisateurs en est une autre. Ceux qui le pensent font la même erreur que ceux qui pensaient que Trump n’avait objectivement absolument aucune chance de l’emporter tant l’énormité de ses prises de parole ou ses positions était une caricature de caricature.
    Ne pas se tromper de cible

    Par l’architecture de panoptique sur laquelle il repose, Facebook ne peut de toute façon pas être autre chose qu’un instrument de surveillance. L’utiliser comme tel n’est ni « bon » ni « mauvais » mais juste « logique et cohérent ». Et ses 2 milliards d’utilisateurs n’ont pas besoin d’une quelconque perversité pour se mettre à se surveiller les uns les autres dès lors qu’ils sont installés dans cette architecture panoptique. Fenêtre sur cour. La fonction crée l’organe et l’architecture crée la perversité des régimes de sur- ou de sous-veillance. N’espérons donc pas davantage un changement de mentalité, de moralité ou un exode des utilisateurs à la faveur des révélations de ce nouveau scandale ; « révélations » qui ne sont en fait que la répétition et l’incarnation de la fonction panoptique de la plateforme. Et n’espérons pas davantage que les excuses de Zuckerberg changeront quoi que ce soit. Sans changement d’architecture et sans changement de modèle économique, rien ne pourra changer dans les logiques d’usage que la plateforme autorise.

    Entre responsabilité effective et influence relative dans l’élection américaine, et qu’il s’agisse de Facebook ou de Cambridge Analytica, il ne faut pas que nous nous trompions de cible en combattant les symptômes plutôt que le mal. La solution pour empêcher l’accession au pouvoir de personnalités névrotiques ou simplement avides de leur propre suffisance ne se trouve pas dans la régulation de Facebook ou dans l’abolition de son modèle publicitaire mais dans le seul champ de l’action publique. Dans le champ du politique dont Facebook n’est que le reflet le plus souvent hors-cadre.

    C’est sur l’incurie de l’action politique et sur la perte de sens de la parole politique que se fabrique et s’entretient le modèle d’affaire des agences de RP comme Cambridge Analytica. « Building a community », comme ne cesse de le répéter Zuckerberg, n’est rien d’autre qu’un slogan marketing totalement creux. La seule chose que Facebook ait jamais permis de construire c’est une architecture de la surveillance dans laquelle Mark Zuckerberg a constitué une audience dont viennent se repaître annonceurs et agences de RP. Et la seule communauté qui vaille est celle des intérêts financiers de la firme.

    Facebook n’est que le reflet du naufrage de la publicitarisation de l’action publique et de la parole politique. De la société du spectacle de Debord, décidément visionnaire à plus d’un titre. Mais plus qu’un reflet Facebook est aussi un miroir. Le miroir qui nous est tendu de l’Hiroshima démocratique qui nous attend collectivement si nous n’arrivons pas à redresser la barre. Car quand Facebook ou Zuckerberg se mettront vraiment à faire de la politique, alors il sera en effet trop tard.

    Olivier Ertszcheid est l’auteur de l’Appétit des géants (2017, C&F éditions)
    Olivier Ertzscheid Enseignant-chercheur en sciences de l’information et de la communication à l’université de Nantes

    #Olivier_Ertzscheid #Facebook #Politique_algorithmes

  • (20+) Scandale Facebook : les petits remèdes du Dr Zuckerberg - Libération
    http://www.liberation.fr/planete/2018/03/22/scandale-facebook-les-petits-remedes-du-dr-zuckerberg_1638235

    L’un des investisseurs historiques de Facebook, l’homme d’affaires Roger McNamee, a quant à lui déclaré sur la radio NPR : « J’ai bien peur qu’il y ait un problème systémique avec les algorithmes et que le modèle économique de Facebook permette à de mauvais acteurs de nuire à des utilisateurs innocents. »
    « Intégrité »

    De fait, depuis l’époque où il balayait les critiques sur la propagation des « fake news », le patron de Facebook a changé de langage. « La question n’est pas "faut-il ou non de la régulation", la question, c’est comment on procède », déclare-t-il à Wired. « Comment on procède », c’est bien toute la question. Car Zuckerberg met sur la table l’idée d’une détection « proactive », appuyée sur les progrès de l’intelligence artificielle, des contenus « choquants » ou illégaux. Soit la perspective d’une surveillance algorithmique généralisée, qui alarme les défenseurs des libertés publiques.

    Interrogé sur CNN, Zuckerberg a souvent semblé dépassé par sa propre créature : « Nous avons un gros travail à faire pour qu’il soit plus difficile pour des Etats, comme la Russie, d’interférer dans les élections. Nous avons la responsabilité de le faire, pas seulement pour les élections de mi-mandat aux Etats-Unis en 2018 […]. Il y a aussi une élection importante cette année en Inde, une autre au Brésil… » Et le patron du réseau social de s’engager à tout faire pour que « l’intégrité de ces élections soit assurée sur Facebook ». « On ne parle plus de sociétés commerciales, mais d’entités qui font à la fois du commerce et de la politique », expliquait en septembre à Libé, à propos des plateformes du Net, l’enseignant-chercheur Olivier Ertzscheid, blogueur sur Affordance.info. Nous y voilà, plus que jamais.
    Amaelle Guiton

    #Surveillance #Facebook #Cambridge_analytica

  • Tristan Nitot : Facebook a « laissé faire » Cambridge Analytica - Le Point
    http://www.lepoint.fr/high-tech-internet/tristan-nitot-facebook-a-laisse-faire-cambridge-analytica-22-03-2018-2204601

    Tristan Nitot, un activiste de la première heure pour les libertés sur Internet, est un ancien de Netscape puis de Mozilla (éditeur du navigateur libre Firefox). Il a rejoint la start-up Cozy Cloud, qui veut proposer des services en ligne respectueux de la vie privée. Il a publié en 2016 l’excellent livre Surveillance :// , qui dénonce notamment l’action des Gafam, et donne des clés pour être (un peu) moins surveillé.

    Le Point : qu’est-ce qui rend l’affaire Cambridge Analytica importante ?

    Tristan Nitot : Elle révèle le vrai business model de Facebook et des géants de l’Internet : capturer un maximum de données personnelles et les monétiser à tout prix, sans aucune considération éthique. Souvenons-nous que récemment, on a découvert qu’ils permettaient de cibler de la publicité de façon raciste. La publicité sur la base de la donnée personnelle collectée est le cœur du réacteur de Facebook, et on voit que la machine est cassée.

    De plus, cela vient s’ajouter à la longue liste des bévues de Facebook : violation de la neutralité du Net avec Internet.org ; publicités en libre service, qui ont permis de cibler, par exemple, les internautes tapant les mots « brûleurs de juifs » et de promouvoir la haine ; technologie Beacon qui révèle vos achats à vos proches (violation de la vie privée) ; promotion des fake news via un algorithme qui favorise les contenus les « plus engageants » [qui génère le plus de clics et de partages, NDLR] ; modèle publicitaire encourageant les publicités outrageuses (car de telles publicités poussent à cliquer et sont vendues moins cher) ; spam par les jeux qui tentent de devenir viraux ; révélation par défaut de données personnelles lors du changement d’interface de Facebook ; manipulation des émotions de 600 000 personnes non prévenues dans le cadre d’une expérience psychologique ; publicité raciste car excluant certaines audiences sur la base de la race, etc.

    Il faudrait quand même bien que les gens comprennent qu’ils ne sont pas les clients des géants de l’Internet, mais leur matière première

    Qui est coupable ? Facebook est-il vraiment victime ?

    Il y a plusieurs fautifs. Évidemment, Cambridge Analytica est le premier. Ils veulent manipuler une élection, vendent leurs services à cet effet, et c’est scandaleux, quel que soit le camp qui en profite.

    Mais Facebook aussi a sa part de responsabilité, pour avoir laissé faire, pour avoir été négligeant quand ils se sont rendu compte du problème. En 2015, ils ont demandé à Cambridge Analytica de supprimer les données, ce qui n’a pas été fait (elles ont été utilisées en 2016). En fait, Facebook considère tout cela comme un problème négligeable. Ils ont eu tort de n’avoir pas prévenu les utilisateurs concernés.

    #surveillance #Cambridge_analytica #Facebook