person:aleksandr kogan

  • A Privacy-Focused Vision for Social Networking | Mark Zuckerberg, Facebook, 6 mars 2019
    https://www.facebook.com/notes/mark-zuckerberg/a-privacy-focused-vision-for-social-networking/10156700570096634

    Over the last 15 years, Facebook and Instagram have helped people connect with friends, communities, and interests in the digital equivalent of a town square. But people increasingly also want to connect privately in the digital equivalent of the living room. As I think about the future of the internet, I believe a privacy-focused communications platform will become even more important than today’s open platforms. Privacy gives people the freedom to be themselves and connect more naturally, which is why we build social networks.

    Today we already see that private messaging, ephemeral stories, and small groups are by far the fastest growing areas of online communication. There are a number of reasons for this. Many people prefer the intimacy of communicating one-on-one or with just a few friends. People are more cautious of having a permanent record of what they’ve shared. And we all expect to be able to do things like payments privately and securely.

    Public social networks will continue to be very important in people’s lives — for connecting with everyone you know, discovering new people, ideas and content, and giving people a voice more broadly. People find these valuable every day, and there are still a lot of useful services to build on top of them. But now, with all the ways people also want to interact privately, there’s also an opportunity to build a simpler platform that’s focused on privacy first.

    I understand that many people don’t think Facebook can or would even want to build this kind of privacy-focused platform — because frankly we don’t currently have a strong reputation for building privacy protective services, and we’ve historically focused on tools for more open sharing. But we’ve repeatedly shown that we can evolve to build the services that people really want, including in private messaging and stories.

    I believe the future of communication will increasingly shift to private, encrypted services where people can be confident what they say to each other stays secure and their messages and content won’t stick around forever. This is the future I hope we will help bring about.
    We plan to build this the way we’ve developed WhatsApp: focus on the most fundamental and private use case — messaging — make it as secure as possible, and then build more ways for people to interact on top of that, including calls, video chats, groups, stories, businesses, payments, commerce, and ultimately a platform for many other kinds of private services.

    This privacy-focused platform will be built around several principles:
    Private interactions. People should have simple, intimate places where they have clear control over who can communicate with them and confidence that no one else can access what they share.
    Encryption. People’s private communications should be secure. End-to-end encryption prevents anyone — including us — from seeing what people share on our services.

    Reducing Permanence. People should be comfortable being themselves, and should not have to worry about what they share coming back to hurt them later. So we won’t keep messages or stories around for longer than necessary to deliver the service or longer than people want them.

    Safety. People should expect that we will do everything we can to keep them safe on our services within the limits of what’s possible in an encrypted service.

    Interoperability. People should be able to use any of our apps to reach their friends, and they should be able to communicate across networks easily and securely.

    Secure data storage. People should expect that we won’t store sensitive data in countries with weak records on human rights like privacy and freedom of expression in order to protect data from being improperly accessed.

    Over the next few years, we plan to rebuild more of our services around these ideas. The decisions we’ll face along the way will mean taking positions on important issues concerning the future of the internet. We understand there are a lot of tradeoffs to get right, and we’re committed to consulting with experts and discussing the best way forward. This will take some time, but we’re not going to develop this major change in our direction behind closed doors. We’re going to do this as openly and collaboratively as we can because many of these issues affect different parts of society.

    Résumé en français : « Mark Zuckerberg veut recentrer Facebook sur les échanges privés » https://www.lesechos.fr/tech-medias/hightech/0600849596938-mark-zuckerberg-veut-recentrer-facebook-sur-les-echanges-priv

    • « Welcome to Mark Zuckerberg’s information ghetto », lis-je dans la « Fake Newsletter » de Buzzfeed :

      (…) More than anything, though, I think it’s a response to the central problem that has plagued Facebook for years: Its scale. More than two billion people log into it every month, all around the world. They upload and interact with more content than humanity ever conceived of creating.

      Zuckerberg and his leadership team may have come to the realization that they achieved a truly unmanageable scale.

      They need to find ways to offer people value (and keep them on them platform) while reducing the overall amount of what I’ll call Addressable Content. This is content that’s publicly accessible on Facebook and could require review by a content moderator, or be the subject of takedown requests from governments or other entities.

      Addressable Content costs Facebook money and can result in regulation, harm to moderators, public outcry, and lawsuits.

      Zuckerberg’s new focus will reduce the total amount of Addressable Content by enabling content that disappears, that is encrypted end to end, and that only reaches a small group of people.

      Facebook will still have huge amounts of public content, and it will always need moderators. But by shifting content production and interaction out of more public spaces on the platform, the company can get its costs and controversies under control. It can manage its scale, while still collecting a motherlode of data on its users and serving them ads.

      Zuck’s plan could be a great business solution, unlocking more growth for Facebook at a time when one can reasonably wonder how, without access to China, it can continue to grow.

      But it’s also a solution that will push all that false, conspiratorial, violent, harmful, and hateful content off into information ghettos where journalists, researchers, and watchdogs will have a much more difficult time finding it and calling it out. — Craig

      Encore des articles sur la #modération (une partie du #CM)

      The secret lives of Facebook moderators in America
      https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-

    • Facebook’s pivot to privacy is missing something crucial https://www.wired.com/story/facebook-zuckerberg-privacy-pivot

      Zuckerberg listed six privacy principles, but there was one glaring omission: He said nothing about how Facebook plans to approach data sharing and ad targeting in this privacy-focused future. The free flow of data between Facebook and third-party developers is, after all, the issue that caused the jaws of the national media to snap onto the company’s leg. One year ago this month, news broke that a man named Aleksandr Kogan had misappropriated the data of tens of millions of users and sent it to a shady political consulting firm called Cambridge Analytica. It soon became clear that Cambridge Analytica was not alone and that Facebook had allowed thousands of developers to collect data for years.

      The company’s loose policies on data collection over the years are also what allowed it to build one of the most successful advertising businesses in history. All the data the company collects helps advertisers segment and target people. And it’s the relentless pursuit of that data that has led to Facebook being accused of making inappropriate deals for data with device manufacturers and software partners. This is a history that Zuckerberg knows well, and one that he acknowledged in his post. “I understand that many people don’t think Facebook can or would even want to build this kind of privacy-focused platform—because frankly we don’t currently have a strong reputation for building privacy protective services,” he wrote.

  • Why (almost) everything reported about the Cambridge Analytica Facebook ‘hacking’ controversy is wrong
    https://medium.com/@CKava/why-almost-everything-reported-about-the-cambridge-analytica-facebook-hackin

    First, There was no hack.

    The data collected was scraped from #Facebook user profiles, after users granted permission for a third party app to access their data. You know those little confirmation windows that pop up when someone wants to play Candy Crush or use Facebook to log in, rather than make a new password, for a random site? Yeah those.

    A Cambridge academic called Aleksandr Kogan — NOT Cambridge Analytica and NOT the whistleblower Christopher Wylie — made a ‘Test Your Personality’ app, helped to promote it by paying people $2–4 to install it on Amazon’s Mechanical Turk crowdsourcing site, and used the permissions granted to harvest profile data. 270,000 users installed the app, so you might expect that 270,000 profiles were collected but the app actually collected data from 50 million profiles.

    50 million?!?

    Yes. You see back in the heady days of 2014, Facebook had a feature called ‘friends permission’ that allowed developers to access the profiles of not only the person who installed their app but all their friends too. The only way to prevent this from happening was to have toggled a privacy setting, which few Facebook users even knew existed (here is a blog from 2012 explaining how to do so). The friends permission feature is how Kogan multiplied 270,000 permissions into 50 million profiles worth of data.

    (…)

    The real story then is not that Kogan, Wylie, and Cambridge Analytica developed some incredibly high tech ‘hack’ of Facebook. It is that, aside from Kogan’s data selling, they used methods that were common place and permitted by Facebook prior to 2015. Cambridge Analytica has since the story broke been outed as a rather obnoxious, unethical company- at least in how it promotes itself to potential clients. But the majority of what is being reported in the media about its manipulative power is just an uncritical regurgitation of Cambridge Analytica (and Chris Wylie’s) self-promotional claims. The problem is that there is little evidence that the company can do what it claims and plenty of evidence that it is not as effective as it likes to pretend; see the fact that Ted Cruz is not currently president.

    No one is totally immune to marketing or political messaging but *there is little evidence that Cambridge Analytica is better than other similar PR or political canvassing companies at targeting voters. Political targeting and disinformation campaigns, including those promoted by Russia, certainly had an impact on recent elections but were they the critical factor? Did they have a bigger impact than Comey announcing he was ‘reopening’ the Hillary email investigation the week before the US election? Or Brexiteers claiming that £250 million was being stolen from the NHS by the EU every week? Colour me skeptical.

    To be crystal clear, I’m not arguing that Cambridge Analytica and Kogan were innocent. At the very least, it is clear they were doing things that were contrary to Facebook’s data sharing policies. And similarly Facebook seems to have been altogether too cavalier with permitting developers to access its users’ private data.

    What I am arguing is that #Cambridge_Analytica are not the puppet masters they are being widely portrayed as. If anything they are much more akin to Donald Trump; making widely exaggerated claims about their abilities and getting lots of #attention as a result.

  • Affaire Facebook/Cambridge Analytica : le lanceur d’alerte s’explique

    http://www.lemonde.fr/economie/article/2018/03/26/affaire-facebook-cambridge-analytica-le-lanceur-d-alerte-s-explique_5276659_

    Christopher Wylie accuse l’entreprise britannique d’avoir utilisé les données de millions d’individus pour manipuler les élections et construire « l’alt-right » aux Etats-Unis.

    Un mois après avoir été embauché en juin 2013 par l’entreprise qui allait devenir Cambridge Analytica, Christopher Wylie a pour la première fois compris qu’il ne s’agissait peut-être pas d’une société comme les autres. « Mon poste de directeur de la recherche était vacant parce que mon prédécesseur était mort dans des conditions inexpliquées dans sa chambre d’hôtel à Nairobi, alors qu’il travaillait pour Uhuru Kenyatta [actuel président du Kenya] », explique-t-il.

    Le Canadien, petit génie de l’informatique, qui a appris tout seul à coder, alors âgé de 24 ans, a progressivement découvert qu’il travaillait pour une firme qui siphonnait les données personnelles de millions de personnes sur Facebook, avait comme vrai patron un certain Steve Bannon, cherchait à manipuler les élections à travers le monde et poussait sur Internet les théories du complot pour développer « l’alt-right », les mouvements d’extrême droite américaines.

    Cambridge Analytica a ensuite aidé Donald Trump lors de la campagne présidentielle américaine et à influer au Royaume -Uni en faveur du Brexit. Ayant quitté l’entreprise fin 2014, mais ayant longtemps gardé d’étroits contacts, M. Wylie a désormais décidé de révéler tout ce qu’il savait. « On ne peut pas défaire ce qui a été fait, mais il faut alerter. »

    Surveillance de masse

    Désormais, il ne fait plus que ça, dénonçant une société qui met en danger la démocratie, selon lui. Une semaine après avoir parlé pour la toute première fois au New York Times et au Guardian, le lanceur d’alerte a longuement rencontré dimanche 25 mars un groupe de huit journalistes européens, dont Le Monde. Depuis plusieurs mois, il travaille aussi avec les autorités britanniques, qui enquêtent contre Cambridge Analytica. Mardi 27 mars, il témoignera devant un comité parlementaire britannique, et a accepté de faire de même devant le Congrès américain.

    A écouter M. Wylie, le scandale qu’il dénonce présente un parallèle à celui qu’Edward Snowden a mis à jour en 2013. L’Américain avait montré comment les agences d’espionnages, notamment la NSA (National Security Agency) ou son équivalent britannique Government Communications Headquarters (GCHQ), utilisaient Internet pour mettre en place une surveillance de masse de leurs citoyens. « Mais la NSA ou GCHQ sont encadrés, alors que les entreprises privées peuvent collecter des données sur les citoyens comme elles le veulent. [Cambridge Analytica] a fait disparaître la frontière entre espionnage et recherche marketing traditionnelle. »

    Il faut réguler

    Pour lui, les données personnelles, qui s’accumulent à vitesse exponentielle, sont « la nouvelle électricité » du XXIe siècle, quelque chose indispensable à la vie quotidienne mais qu’il faut réguler. « Les données sont un outil, comme un couteau qui peut être utilisé pour préparer un repas trois étoiles au Michelin ou pour commettre un meurtre. En tant que telles, elles ne sont pas un problème. Mais ce que Cambridge Analytica met au jour est l’échec des législateurs et de la société à mettre des limites à leur utilisation. »

    Retour à mi-2013. M. Wylie est arrivé à Londres depuis trois ans, pour étudier le droit à la London School of Economics. Techniquement, Cambridge Analytica n’existe pas. L’entreprise qui l’embauche s’appelle SCL. Sa création remonte aux années 1960, et l’entreprise est spécialisée dans le secteur de la défense, travaillant particulièrement dans les pays émergents. Sa spécialité : mener des campagnes de désinformation à l’ancienne. Envoyer une prostituée chez un opposant politique et filmer la scène à son insu est une technique favorite. Mais SCL perçoit qu’Internet est le nouveau champ de bataille et veut s’y développer.

    M. Wylie aide à créer Cambridge Analytica, pour en faire une filiale de l’entreprise. Il fait pour cela appel à un professeur de l’université de Cambridge, Aleksandr Kogan, un neuroscientifique, qui met au point un petit quiz sur Facebook qui permet d’évaluer le profil psychologique de ceux qui le remplissent. L’application est très populaire et 270 000 personnes l’utilisent. Ce qu’elles ne savent pas est que leurs données ne sont pas utilisées par des raisons de recherche, comme promis, mais par Cambridge Analytica, qui va les utiliser à des fins commerciales. Pire encore, le quizz donne l’autorisation de télécharger les données de tous les amis sur Facebook de ceux qui ont rempli le questionnaire. Cambridge Analytica siphonne ainsi les données détaillées de plus de 50 millions de personnes, essentiellement aux Etats-Unis.

    « Une autre façon d’approcher les choses »

    Ce trésor est la base de l’entreprise. Cela lui permet de cibler de façon extrêmement précise des sous-groupes sur Facebook. La pratique de ciblage est courante, utilisée de tous les publicitaires. Mais cette fois-ci, en plus des données démographiques (âge, sexe, etc.), l’entreprise a le profil psychologique des individus.

    De ce côté-là, la recherche sur Facebook impressionne. Des scientifiques ont démontré qu’avec une dizaine de « likes », un ordinateur peut comprendre le profil psychologique d’une personne mieux que son propre collègue de bureau ; à 70 « likes », la machine le comprend mieux qu’un ami ; à 150 « likes », elle dépasse la perception d’un membre de sa famille ; à 300 « likes », elle excède la compréhension de son propre époux ou épouse.

    C’est alors qu’arrive Robert Mercer et Steve Bannon. Le premier est un milliardaire américain, qui a fait fortune grâce aux algorithmes utilisés sur les marchés financiers. Le second veut mener une « révolution culturelle » dans la politique et il s’est fait connaître avec Breitbart News, un site d’information proche de l’extrême droite. Il deviendra ensuite l’éminence grise de Donald Trump, avant la rupture entre les deux hommes.

    En 2013, M. Mercer investit dans l’entreprise et met M. Bannon aux commandes du conseil d’administration. « Bannon venait au moins une fois par mois à Londres, raconte M. Wylie. Et tous les lundis matins, on avait une conférence téléphonique avec lui et Bekkah Mercer [la fille du milliardaire]. »

    Leur objectif ? « Développer l’alt-right », explique M. Wylie. « Steve Bannon pense que pour changer la politique, il faut changer la culture. Mais Breitbart était resté un site relativement petit. Il cherchait d’autres outils pour mener sa guerre culturelle. Pour lui, SCL, qui faisait de la propagande militaire, était une autre façon d’approcher les choses. »

    Théories du complot

    A l’époque, il n’est pas question d’élections ni de Donald Trump. Les deux Américains utilisent Cambridge Analytica pour travailler en profondeur. Ils surveillent les théories du complot qui circulent, pour les amplifier. Ainsi, fin 2014, des rumeurs circulent : Barack Obama, aurait commencé à amasser des troupes au Texas pour ne pas partir de la présidence américaine. L’entreprise britannique vise les gens qu’elle sait intéressés par les théories du complot et pousse ce message vers eux. « Ensuite, ces gens voyaient ce genre d’information sur Facebook, mais rien de tout cela en regardant CNN ou les médias traditionnels. Et ils se disaient : pourquoi CNN me cache-t-elle des choses ? »

    Bien plus tard, Donald Trump a embauché Cambridge Analytica pour mener à bien sa campagne numérique. Et du côté du Brexit, la société a travaillé gratuitement et pendant quelques semaines auprès de Leave.eu, l’un des organismes faisant campagne pour le Brexit. Une société canadienne qui lui est proche, AggregateIQ, que M. Wylie a aidé à créer, aurait aussi travaillé indirectement pour Vote Leave, un autre organisme pro-Brexit, contournant ainsi le plafond des dépenses de la campagne électorale.

    Pour M. Wylie, les agissements de Cambridge Analytica ont pipé les dés de la démocratie. Mais beaucoup d’experts mettent en doute cette idée. Après tout, l’influence d’une chaîne d’information comme Fox News aux Etats-Unis, ou la campagne anti-européenne menée par le Daily Mail et le Sun depuis trente ans au Royaume-Uni, ont certainement eu une influence profonde dans ces élections. Facebook n’est pas le seul facteur.

    « Il faut réparer Facebook, pas effacer Facebook »

    Dominic Cummings, qui dirigeait Vote Leave, estime que l’argument de M. Wylie, repris initialement par le Guardian, est une sorte de théorie du complot des anti-Brexiters. « Leur fantasme est que le référendum a été perdu parce que (…) les “fake news” et Facebook auraient pris en traître des millions d’ignorants qui ne comprennent pas la réalité. (…) Ce fantasme est plus pratique que de reconnaître que leur campagne a perdu alors que presque toutes les forces du pouvoir et de l’argent au monde étaient de leur côté. »

    M. Wylie reste convaincu que l’influence de Cambridge Analytica a été déterminante. Mais il ajoute un argument plus large. « C’est comme le dopage. Si un athlète gagne les Jeux Olympique en se dopant, on peut toujours dire qu’il aurait gagné même sans se doper. Reste qu’on lui enlève quand même sa médaille, parce que ça remet en cause l’intégrité de tout le processus démocratique. »

    Le lanceur d’alerte canadien ne demande pas pour autant la fin des réseaux sociaux ou l’interdiction de l’utilisation des données privées. « Il faut réparer Facebook, pas effacer Facebook. » Pour lui, les plates-formes sur Internet doivent être régulées comme des entreprises d’utilité publique, par exemple comme les fournisseurs d’électricité ou d’eau. « Il est devenu impossible de vivre sans ces plates-formes, mais il faut les encadrer. » Impossible, trop complexe ? « Pas du tout. Facebook et Google sont plein de gens intelligents, qui savent comment repérer si du micro-ciblage a lieu. Elles pourraient dire par exemple : attention, ceci est une publicité, vous avez été visé et voilà qui paie pour ça. » En sortant de l’ombre et en parlant, il espère que le débat sur la régulation des réseaux sociaux est désormais ouvert.

  • Cambridge Analytica demonstrates that Facebook needs to give researchers more access.
    https://slate.com/technology/2018/03/cambridge-analytica-demonstrates-that-facebook-needs-to-give-researchers-more

    In a 2013 paper, psychologist Michal Kosinski and collaborators from University of Cambridge in the United Kingdom warned that “the predictability of individual attributes from digital records of behavior may have considerable negative implications,” posing a threat to “well-being, freedom, or even life.” This warning followed their striking findings about how accurately the personal attributes of a person (from political leanings to intelligence to sexual orientation) could be inferred from nothing but their Facebook likes. Kosinski and his colleagues had access to this information through the voluntary participation of the Facebook users by offering them the results of a personality quiz, a method that can drive viral engagement. Of course, one person’s warning may be another’s inspiration.

    Kosinski’s original research really was an important scientific finding. The paper has been cited more than 1,000 times and the dataset has spawned many other studies. But the potential uses for it go far beyond academic research. In the past few days, the Guardian and the New York Times have published a number of new stories about Cambridge Analytica, the data mining and analytics firm best known for aiding President Trump’s campaign and the pro-Brexit campaign. This trove of reporting shows how Cambridge Analytica allegedly relied on the psychologist Aleksandr Kogan (who also goes by Aleksandr Spectre), a colleague of the original researchers at Cambridge, to gain access to profiles of around 50 million Facebook users.

    According to the Guardian’s and New York Times’ reporting, the data that was used to build these models came from a rough duplicate of that personality quiz method used legitimately for scientific research. Kogan, a lecturer in another department, reportedly approached Kosinski and their Cambridge colleagues in the Psychometric Centre to discuss commercializing the research. To his credit, Kosinski declined. However, Kogan built an app named thisismydigitallife for his own startup, Global Science Research, which collected the same sorts of data. GSR paid Mechanical Turk workers (contrary to the terms of Mechanical Turk) to take a psychological quiz and provide access to their Facebook profiles. In 2014, under the contract with the parent company of Cambridge Analytica, SCL, that data was harvested and used to build a model of 50 million U.S. Facebook users that included allegedly 5,000 data points on each user.

    So if the Facebook API allowed Kogan access to this data, what did he do wrong? This is where things get murky, but bear with us. It appears that Kogan deceitfully used his dual roles as a researcher and an entrepreneur to move data between an academic context and a commercial context, although the exact method of it is unclear. The Guardian claims that Kogan “had a licence from Facebook to collect profile data, but it was for research purposes only” and “[Kogan’s] permission from Facebook to harvest profiles in large quantities was specifically restricted to academic use.” Transferring the data this way would already be a violation of the terms of Facebook’s API policies that barred use of the data outside of Facebook for commercial uses, but we are unfamiliar with Facebook offering a “license” or special “permission” for researchers to collect greater amounts of data via the API.

    Regardless, it does appear that the amount of data thisismydigitallife was vacuuming up triggered a security review at Facebook and an automatic shutdown of its API access. Relying on Wylie’s narrative, the Guardian claims that Kogan “spoke to an engineer” and resumed access:

    “Facebook could see it was happening,” says Wylie. “Their security protocols were triggered because Kogan’s apps were pulling this enormous amount of data, but apparently Kogan told them it was for academic use. So they were like, ‘Fine’.”

    Kogan claims that he had a close working relationship with Facebook and that it was familiar with his research agendas and tools.

    A great deal of research confirms that most people don’t pay attention to permissions and privacy policies for the apps they download and the services they use—and the notices are often too vague or convoluted to clearly understand anyway. How many Facebook users give third parties access to their profile so that they can get a visualization of the words they use most, or to find out which Star Wars character they are? It isn’t surprising that Kosinski’s original recruitment method—a personality quiz that provided you with a psychological profile of yourself based on a common five-factor model—resulted in more than 50,000 volunteers providing access to their Facebook data. Indeed, Kosinski later co-authored a paper detailing how to use viral marketing techniques to recruit study participants, and he has written about the ethical dynamics of utilizing friend data.

    #Facebook #Cambridge_analytica #Recherche

  • How #facebook’s 50m file leak could have been avoided
    https://hackernoon.com/how-facebooks-50m-file-leak-could-have-been-avoided-de18ef21b141?source=

    Facebook Founder and CEO Mark Zuckerberg speaks on stage during the annual Facebook F8 developers conference in San Jose, California, U.S., April 18, 2017. Stephen Lam/ReutersOn Sunday, Facebook disabled Christopher Wylie’s account on Facebook, Whatsapp and Instagram after blowing the whistle for a 50m file data breach. According to Facebook, “The claim that this is a data breach is completely false. Dr. Aleksandr Kogan requested and gained access to information from users who chose to sign up to his app, and everyone involved gave their consent. People knowingly provided their information, no systems were infiltrated, and no passwords or sensitive pieces of information were stolen or hacked.”Technically, they are right; there was no hacking involved in the process. But, still there has (...)

    #cambridge-analytica #beach #blockchain #data-breach

  • Cambridge Analytica : Facebook au coeur d’un nouveau scandale
    https://www.latribune.fr/technos-medias/cambridge-analytica-facebook-au-coeur-d-un-nouveau-scandale-772455.html

    Comment Cambridge Analytica a eu accès aux données de Facebook ?

    C’est le point crucial de l’affaire. Le cabinet d’analyse aurait eu accès aux données personnelles de 50 millions d’utilisateurs Facebook - soit environ un tiers de membres actifs du réseau social en Amérique du Nord et près d’un quart des électeurs américains, précise The Observer. L’entreprise serait passée par un intermédiaire : un certain Aleksandr Kogan.

    Ce chercheur américain, d’origine russe, a développé une application baptisée « thisisyourdigitallife ». Lors de son téléchargement, les utilisateurs concédaient un droit d’accès à leurs données personnelles Facebook.

    "Environ 270.000 personnes ont téléchargé l’application, chiffre Facebook dans un communiqué de presse publié vendredi dernier. En faisant cela, ils donnent leur consentement à Kogan pour avoir accès à des informations comme leur ville d’origine, les contenus "likés"

    Ce n’est pas tout. L’application pouvait également avoir accès aux « amis » des utilisateurs l’ayant téléchargée. En 2014, Kogan aurait transmis ces informations au cabinet Cambridge Analytica, selon les enquêtes du NYT et The Observer. Si l’accès aux données était légal pour le chercheur, leur transmission à un tiers constitue une violation des règles d’utilisation de Facebook.

    « En 2015, nous avons appris que le Dr. Aleksandr Kogan nous avait menti », se défend le réseau social dans son communiqué de presse. Une façon pour Facebook de se dédouaner sur l’usage détourné des données personnelles de ses utilisateurs. « Les gens ont connaissance de fournir ces informations. Aucun système n’a été infiltré, aucun mot de passe ou données sensibles n’ont été volées ou piratées », poursuit Facebook.

    Pourquoi la polémique embarrasse-t-elle Facebook ?

    L’affaire est gênante à plusieurs niveaux. Premièrement, elle touche le cœur même de l’activité de Facebook : la collecte de données - et l’usage potentiellement détourné qui peut en être fait.

    « On est en train d’ouvrir le couvercle de la boîte noire des pratiques de Facebook en matière de données, et le tableau n’est pas joli à voir », souligne auprès de Reuters Frank Pasquale, professeur de droit à l’Université du Maryland et spécialiste de l’utilisation des données par les géants d’Internet.

    Deuxièmement, Facebook se retrouve sous le coup de pressions politiques tous azimuts. Aux États-Unis, plusieurs sénateurs souhaitent entendre les justifications devant le Congrès de Mark Zuckerberg, président et co-fondateur de Facebook. "C’est une brèche énorme sur laquelle il convient d’enquêter. Il est clair que ces plates-formes ne savent pas s’autodiscipliner", a twitté la sénatrice démocrate Amy Klobuchar. Même son de cloche en Europe. Le président du Parlement européen, Antonio Tajani, dénonçait lundi une « une violation inacceptable du droit à la vie privée de nos citoyens ». La commissaire européenne à la Justice, Vera Jourova, prévoit quant à elle d’aborder le sujet avec le réseau social et des responsables du gouvernement américain lors de sa vite aux États-Unis, cette semaine. Sur Internet, une campagne #DeleteFacebook (en français, supprime Facebook) a été lancée.

  • Facebook facing an existential crisis over privacy and data - Mar. 19, 2018
    http://money.cnn.com/2018/03/19/technology/business/facebook-data-privacy-crisis/index.html

    he scandal also highlights a problem that is built into the company’s DNA: Its business is data exploitation. Facebook makes money by, among other things, harvesting your data and selling it to app developers and advertisers. Preventing those buyers from passing that data to third parties with ulterior motives may ultimately be impossible.

    Indeed, the most alarming aspect of Cambridge Analytica’s “breach” is that it wasn’t a breach at all. It happened almost entirely above board and in line with Facebook policy.

    Aleksandr Kogan, a University of Cambridge professor, accessed the data of more than 50 million #Facebook users simply by creating a survey filled out by 270,000 people. Facebook provided Kogan with the data of anyone who took the survey, as well as their friends’ data. In a statement, Facebook said, “Kogan gained access to this information in a legitimate way and through the proper channels that governed all developers on Facebook at that time.”

    #GAFA

    • https://www.mediapart.fr/journal/international/190318/cambridge-analytica-le-big-brother-electoral-de-donald-trump

      L’entreprise d’analyse de données Cambridge Analytica, qui a notamment travaillé pour la campagne présidentielle de Donald Trump en 2016, est soupçonnée d’avoir recueilli sans leur consentement les informations personnelles de 50 millions d’usagers du réseau social Facebook. Le but de l’opération ? Élaborer un logiciel prédictif permettant d’influencer le vote des électeurs, comme l’ont révélé le New York Times et The Observer, l’édition dominicale du quotidien britannique The Guardian, dans une enquête commune.

      Facebook a annoncé avoir « suspendu » les accès de Cambridge Analytica de la maison mère de la société, Strategic Communication Laboratories (SCL), ainsi que ceux d’Aleksandr Kogan, psychologue à l’université de Cambridge.
      En accord avec le réseau social américain, ce dernier a convaincu, en 2014, près de 270 000 personnes de participer à un test de personnalité, lui donnant ainsi accès à leurs réponses mais aussi à leurs données Facebook (nom, géolocalisation, likes) et à celles de leurs amis, dans une mise à profit des réglages très permissifs du réseau. À partir de ces 270 000 participants, Kogan a ainsi obtenu les informations de 50 millions d’utilisateurs.

      Paul Grewal, vice-président et directeur juridique adjoint de Facebook, a annoncé vendredi dans un communiqué que le réseau social avait été trompé : « En 2015, nous avions appris qu’Aleksandr Kogan nous avait menti et avait violé la politique de la plateforme en transmettant les données récupérées sur une application utilisant une interface de connexion de Facebook à SCL/Cambridge Analytica. »

      Filiale américaine de la société britannique de marketing ciblé SCL, Cambridge Analytica aurait ensuite utilisé ces bases de données à des fins électorales. L’entreprise est connue pour sa participation à la campagne de Donald Trump mais aussi pour avoir fourni, pendant la campagne du groupe pro-Brexit Leave.EU, des solutions de collectes de données et de ciblage d’audience.

      L’entreprise a été financée à hauteur de 15 millions de dollars par Robert Mercer, un homme d’affaires américain qui a fait fortune dans les hedge funds et qui est l’un des principaux donateurs du Parti républicain.

      Selon The Observer, elle a aussi été dirigée par Steve Bannon, l’un des plus proches conseillers de Donald Trump avant d’être évincé de la Maison Blanche à l’été 2017.