• Geneva Human Rights Talks

    Les Geneva Human Rights Talks (GHRT) ouvriront la Semaine des droits humains en portant le regard sur différents aspects du respect de la dignité humaine : les données personnelles, le racisme institutionnel, la discrimination ethnique, et la question des prisonniers politiques.

    Les récits et témoignages des quatre personnalités invitées lors de cet événement interactif illustreront différents combats qui nécessitent encore et toujours un engagement sans faille.

    #Protection_des_données personnelles, un combat inégal et perdu d’avance ? (En français)
    Intervenant dans le documentaire The Great Hack de Netflix, #Paul_Olivier_Dehaye s’est distingué par son enquête sur la firme d’analyse de données #Cambridge_Analytica. Aujourd’hui, il est le fondateur de l’association #PersonalData.IO, œuvrant à rendre les #droits_à_la_protection_des_données effectifs et collectivement utiles.
    –-> il parle notamment de #algocratie

    Le #racisme_institutionnel, défis de nos sociétés ? (En français), à partir de 1:22:15


    #Rokhaya_Diallo est une journaliste française, autrice et réalisatrice reconnue pour son travail contre la discrimination raciale, de genre et religieuse. Elle a animé et co-écrit des émissions télévisées et a réalisé plusieurs documentaires. Elle est aussi active dans le domaine littéraire, s’exprimant à travers différentes créations. Elle est selon le New York Times « une des activistes anti-racistes les plus importantes en France ».

    Violation des droits de l’homme ou prévention du #séparatisme ? (In english)
    #Jewher_Ilham est la fille d’#Ilham_Tohti, un professeur qui s’est investi dans la lutte contre les discriminations et violations commises envers les #ouïghours, minorité ethnique en #Chine. Jewher Ilham témoignera de l’arrestation de son père, de ses efforts constants pour le libérer et de son engagement à faire en sorte que les minorités voient leurs droits préservés en Chine. Elle parlera également des #camps_de_rééducation du #Xinjiang et de ses suggestions pour prévenir les violations des droits humains qui s’y déroulent.

    #Prisonniers_politiques, criminels ou témoins de violations cachées des #droits_humains ? (En français)
    #Lakhdar_Boumediene était responsable humanitaire pour le Croissant-Rouge quand il a été emprisonné en 2002 à #Guantanamo pour des raisons politiques. En 2008, suite à sa demande, la Cour Suprême des États-Unis a reconnu le droit des détenus de Guantanamo de contester judiciairement la légalité de leur détention, indépendamment de leur nationalité. Il a ainsi été déclaré innocent et libéré en 2009. Depuis, il vit en France avec sa famille et il dénonce les traitements injustes et inhumains subis durant sa #détention ainsi que le phénomène des prisonniers politiques.

    https://www.unige.ch/cite/evenements/semaine-des-droits-humains/sdh2020/geneva-humain-rights-talk

    #vidéo

    ping @karine4 @isskein

  • Christopher Wylie : interview du lanceur d’alerte de Cambridge Analytica
    https://www.ladn.eu/tech-a-suivre/data-big-et-smart/christopher-wylie-cambridge-analytica-menaces-democraties

    Une parole publique confisquée

    Hyper-segmentation, profilage psychologique, exploitation des biais cognitifs des individus pour activer les recoins les plus sombres de la psyché. Les techniques imaginées et mises en œuvre par Cambridge Analytica continuent d’être appliquées, autant par des entreprises que des gouvernements. Pour Christopher Wylie, elles ont très largement contribué à fragmenter durablement les groupes sociaux. « Ces méthodes sont essentiellement de la ségrégation. Les individus deviennent incapables d’éprouver le sentiment de cohésion, d’identité commune partagée qui est le propre de toute nation », prévient-il. À moins de cinquante jours de la prochaine élection présidentielle américaine, et alors que d’autres élections majeures se déroulent en Bolivie, au Chili ou au Burkina Faso cet automne, le lanceur d’alerte estime que les menaces qui pèsent sur les démocraties sont importantes.

    Plus encore, cette affaire a permis de révéler le phénomène très inquiétant de la privatisation du discours politique et de la parole publique. Lorsqu’une entreprise est capable de s’immiscer dans la vie quotidienne des gens, en agrégeant des centaines de kilos octets de données à leur sujet, et qu’elle est aussi en mesure de les écouter en temps réel via la somme d’objets connectés qui compose désormais notre environnement quotidien, alors le débat public perd de sa vigueur pour ne devenir qu’une somme de conversations privées. « La parole et le débat public sont des piliers des démocraties », rappelle le lanceur d’alerte. Mais on le voit aujourd’hui : la majorité des discussions qui ont trait à des sujets publics, comme la gestion de la pandémie, se tiennent sur des plateformes privées comme Facebook. « A-t-on vraiment envie de confier la gestion de la parole publique à un milliardaire de la Silicon Valley ? A-t-on vraiment envie de faire de Mark Zuckerberg le seul arbitre de nos prises de décision politiques, et donc in fine de notre processus électoral ? La fonction publique est trop importante pour qu’on la confie à une entreprise privée. »

    Ethique : aucun standard pour les ingénieurs

    Pour résoudre l’équation qui consiste à encadrer les GAFAM, sans renoncer pour autant aux produits et services qu’ils proposent, Christopher Wylie propose de renverser la perspective. Plutôt que de s’attaquer à la structure, il propose de repartir des produits, et de ceux qui les conçoivent. « Les produits Facebook sont conçus par des ingénieurs, des designers-produit, des data scientist. Or, à l’inverse de leurs collègues d’autres secteurs, comme l’aéronautique ou la construction, ces derniers n’ont aucun cadre éthique auquel se référer. La construction d’un avion ou d’un bâtiment repose sur des cahiers des charges précis, il doit en être de même pour les produits des plateformes digitales ».

    Qu’est-ce qu’un code sûr et respectueux des utilisateurs ? Quels sont les standards minimums de sécurité ? Quel encadrement éthique pour les architectes de ces plateformes ? Autant de questions qui ne trouvent pas de traduction dans les chartes d’entreprise des géants du numérique. « Si un ou une employé·e se rend compte que son employeur lui demande de construire un produit qui n’est pas conforme aux standards éthiques, son droit d’opposition doit être sanctuarisé », rajoute le lanceur d’alerte, qui a lui-même du ferrailler contre Cambridge Analytica dans les premiers moments de son parcours de lanceur d’alerte. « Les décideurs et les ingénieurs des grandes entreprises du numérique étant majoritairement blancs et privilégiés, il est indispensable d’avoir des équipes les plus diverses possible pour réfléchir à ce cadre éthique. L’inclusivité permet d’envisager les risques et les failles sous des perspectives plus riches et complémentaires ».

    #Cambridge_analytica #Christopher_Wylie #Industrie_influence #Facebook

  • Christopher Wylie : « #Cambridge_Analytica a fermé, mais ses #tactiques n’ont pas disparu »
    https://www.lemonde.fr/pixels/article/2020/03/11/christopher-wylie-cambridge-analytica-a-ferme-mais-ses-tactiques-n-ont-pas-d

    ENTRETIEN
    L’ancien salarié de l’entreprise avait révélé le vol massif de données personnelles à des fins politiques par l’ancienne société britannique. Il publie aujourd’hui en français son livre, « Mindfuck ».

    Sa coiffure colorée s’est affichée sur les télévisions du monde entier il y a deux ans. Christopher Wylie, ancien salarié de l’entreprise Cambridge Analytica, est le lanceur d’alerte qui a révélé l’existence du gigantesque #vol_de_données_personnelles issues de #Facebook à des fins politiques mené par cette entreprise britannique, au profit notamment de la campagne de Donald #Trump et du #Brexit.

    Lire : tous nos articles sur l’affaire Cambridge Analytica

    Son livre, Mindfuck, est publié mercredi 11 mars en français aux éditions Grasset (512 pages, 24 euros). Un essai dense, qui parle davantage de politique que de technologie, et un outil précieux pour comprendre les mécanismes de l’ascension au pouvoir de Donald Trump.

    A la fin de votre livre, vous êtes au chômage, et un peu dépassé par votre nouvelle célébrité. Que faites-vous aujourd’hui ?
    Christopher Wylie : Ma vie est redevenue plus ou moins normale. Je travaille pour H&M. J’ai eu mon dernier rendez-vous avec des enquêteurs il y a deux semaines. Je suis encore très occupé, mais ma vie est un peu moins frénétique. Vivre sous la surveillance constante du public, ça devient épuisant au bout d’un moment.

    Que retenez-vous de toutes ces enquêtes dans lesquelles vous avez témoigné ?
    J’ai appris que, parfois, les preuves ne suffisent pas. Ça a été le cas dans l’enquête sur la campagne du Brexit. J’ai fourni aux autorités les preuves que Vote Leave, la campagne officielle, avait consacré 40 % de ses dépenses à une filiale de Cambridge Analytica au Canada. Ces dépenses étaient illégales, comme l’ont reconnu les autorités. Donc nous savons que Vote Leave a triché. C’était la plus importante violation de la loi électorale dans toute l’histoire de l’Angleterre.

    Pourtant, malgré toutes ces preuves, rien ou presque n’a été fait. Personne n’a dit « peut-être que nous devrions mettre tout ce processus en pause, en attendant la fin de l’enquête, parce qu’il est possible que cette triche ait eu un impact sur le vote ».

    Il y a pourtant eu des commissions parlementaires (liées à Cambridge Analytica) dans de nombreux pays, des sanctions, des amendes…
    Oui. Mais les régulateurs et les élus, pour la plupart, ne comprennent pas vraiment ce à quoi ils ont affaire. Ils reprennent à leur compte les éléments de langage de Facebook, qui dit « nous sommes un service, nous sommes gratuits, personne n’est obligé d’utiliser notre plate-forme ». C’est comme dire que l’électricité est un service et que si vous ne voulez pas être électrocuté, vous n’avez qu’à vous passer de courant ! Les données, comme l’électricité, sont partout, et peuvent être dangereuses.

    Beaucoup d’élus m’ont dit : « Vous savez, je suis un député, je n’y connais rien en technologies. » Peut-être, mais ça ne vous empêche pas de réguler les compagnies aériennes, les entreprises pharmaceutiques ou du nucléaire !

    Nous avons aujourd’hui un secteur de la technologie à qui on laisse le droit d’expérimenter en direct sur nos sociétés et nos démocraties, sans conséquences pour lui lorsque ça se passe mal. Or, quand vous laissez une bande d’ingénieurs californiens, majoritairement des hommes blancs, créer un produit et l’appliquer à un pays qui a un passé de violences ethniques et religieuses, il se passe ce qui s’est passé en Birmanie. Même après avoir été alerté que son service était utilisé par l’armée comme un catalyseur de nettoyage ethnique, Facebook n’a quasi rien fait.

    Pensez-vous que Cambridge Analytica a eu un impact sur le résultat final dans le référendum sur le Brexit ?
    C’est probable. Si ça n’avait pas produit de résultats, Vote Leave n’aurait probablement pas dépensé 40 % de son budget dans ces services. Mais si on parlait de dopage, on ne se poserait même pas la question : quand un athlète est pris sur le fait, on ne se demande pas si les produits qu’il ou elle a pris ont vraiment fait une différence.

    Mike Bloomberg a dépensé des centaines de millions de dollars en publicités ciblées et en analyses de données pour remporter l’investiture démocrate. Mais sa campagne pour les primaires a échoué. Est-ce que ça ne montre pas les limites de ce que faisait Cambridge Analytica ?
    Je ne peux pas me prononcer sur la campagne de Mike Bloomberg en particulier, mais il faut garder à l’esprit que le but initial de Steve Bannon [l’ancien conseiller politique de Donald Trump, chargé de sa campagne électorale en 2016] était de changer la perception du public, pas de faire élire un candidat en particulier. Il a su catalyser le mouvement alt-right, ce qui a ensuite permis à Donald Trump de réussir.

    Cambridge Analytica a commencé en travaillant sur la contre-propagande, et notamment sur les jeunes hommes musulmans célibataires et en difficulté, qui pouvaient être tentés de rejoindre l’organisation Etat islamique. Bannon a ciblé des profils semblables aux Etats-Unis, sauf qu’au lieu de viser les jeunes musulmans pour les « déradicaliser », ils ont visé les jeunes blancs pour les radicaliser.

    Steve Bannon a très vite compris qu’il pouvait s’appuyer sur des mouvements comme le GamerGate, trouver des groupes de personnes extrêmement en colère et qui étaient prêtes à devenir des trolls extrémistes dévoués.

    C’est une différence majeure avec la campagne de Mike Bloomberg. Trump, en 2016, a pu exploiter ces cellules, dans tout le pays, qui étaient nourries de propagande et de conneries, jusqu’à ce qu’elles ne soient plus que des boules de rage pure.

    Steve Bannon, l’éminence brune de Donald Trump
    A la lecture de votre livre, on a l’impression que Steve Bannon a créé l’alt-right de toutes pièces, seul. Ne lui accordez-vous pas trop de crédit ?
    Je ne pense pas qu’il a tout créé lui-même. Steve Bannon n’est pas un magicien venu de l’hyperespace qui a lavé le cerveau de millions de personnes juste parce qu’il avait accès à des données Facebook.

    Mais il a été un catalyseur. Il a compris, avant tout le monde, un certain nombre de choses qui se passaient sur Internet en 2013-2014. Vous en connaissez beaucoup des politiques qui lisaient Reddit et 4Chan à l’époque ? Moi, non.

    Les démocrates ont-ils compris ce qui s’était passé ?
    Pour comprendre l’élection de Trump, il faut réfléchir en matière d’insurrection. Une erreur que font beaucoup de démocrates est qu’ils continuent de considérer Donald Trump comme un candidat politique. Ceci alors que l’alt-right fonctionne littéralement comme une secte, avec des milliers d’adeptes complètement cinglés. Personne n’ose le dire, parce que ce sont les Etats-Unis, mais si Trump était président du Zimbabwe, on ne parlerait certainement pas de « l’administration Trump », mais du « régime Trump ».

    D’autres « Cambridge Analytica » sont-ils possibles ?
    Oui. L’entreprise a fermé, mais ses technologies et ses tactiques n’ont pas disparu. Je ne sais pas ce que font les autres anciens employés. Nous savons désormais pour Cambridge Analytica, pour la Russie, mais que se passera-t-il la prochaine fois, quand la Corée du Nord aura créé son propre Cambridge Analytica ? Ou l’Iran, la Chine, ou même un pays « ami » ?

    Si un bombardier russe survole la France pour larguer des tracts à la veille d’une élection, il y a de fortes chances que l’armée française lui tire dessus. Mais si exactement la même chose se produit dans le cyberespace, subitement plus personne ne sait comment réagir.

    Ma grande crainte est que ces opérations d’influence deviennent la norme dans tous les pays. La désinformation, de gauche comme de droite, est toujours la forme la plus aisément accessible d’information. L’information de qualité est en général derrière un paywall, et la propagande est toujours gratuite.

    Finalement, la seule entité qui semble agir très directement pour limiter la désinformation reste Facebook. L’entreprise a démantelé plusieurs réseaux de désinformation ces dernières années…
    C’est vrai. Mais est-ce que vous, Français, vous voulez vraiment déléguer la gestion de votre vie politique en ligne à une entreprise californienne gérée par une bande de mecs de la Silicon Valley ? Je ne leur fais pas confiance.

    Et depuis quand est-ce que ce rôle peut être délégué à une entreprise privée, qui a un point de vue incroyablement américain sur la plupart des choses ?

    Facebook a recruté un Européen, l’ancien leader du Parti des démocrates libéraux Nick Clegg, à l’un de ses principaux postes. Dans votre livre, vous racontez avoir croisé M. Clegg dans ses anciennes fonctions. Est-ce qu’il ne peut pas apporter justement une vision plus « européenne » ?
    Pensez-vous vraiment que Sheryl [Sandberg] et Mark [Zuckerberg] en ont vraiment quelque chose à faire ? Que diraient les Français si, après son mandat, Emmanuel Macron vous disait que le changement climatique est un sujet extrêmement important et qu’il a donc décidé d’aller travailler pour une compagnie pétrolière pour « changer les choses de l’intérieur » ? Tout ça, ce sont des beaux discours, mais le résultat, c’est que vous travaillez pour une entreprise qui pose de gigantesques problèmes.

    Pourquoi avez-vous travaillé aussi longtemps pour Cambridge Analytica ? Vous expliquez dans votre livre à quel point vous étiez politiquement en désaccord avec sa direction…
    Lorsque vous êtes dans une relation toxique, la situation n’est pas toujours aussi simple. Et je reconnais que j’ai été un peu absorbé par le côté « cool » du projet original.

    Avec le recul, je me rends bien compte que ce n’est pas parce qu’un projet est passionnant qu’il ne peut pas être utilisé pour de mauvaises choses. Le couteau que vous fabriquez peut être utilisé par un chef étoilé au Michelin ou pour agresser quelqu’un. J’ai ignoré beaucoup de signaux qui auraient dû m’alerter.

    Très peu de gens se lancent dans une carrière d’ingénieur en se disant qu’ils veulent détruire la société. Il y a des problèmes de sexisme et de racisme dans la Silicon Valley, mais la plupart des gens qui y travaillent ne cherchent pas à faire du mal. C’est juste qu’ils sont dans un secteur qui ne leur impose pas un code de conduite professionnel strict, qui n’a pas assez d’agences de régulation et de règles.

    Quelles devraient, selon vous, être ces règles ?
    Les codes de conduite pour les architectes ne se contentent pas de regarder à quel point un design est brillant : il leur impose de regarder des choses comme les flux d’air en cas d’incendie. C’est pareil quand vous êtes médecin ou avocat. L’une des raisons qui font que la société vous octroie un prestige lié à votre profession, c’est que vous devez vous conformer à des standards éthiques.

    L’ingénierie informatique n’est plus une niche depuis longtemps. La science des données non plus. Il est grand temps que ces professions évoluent, et adoptent des codes de conduite qui les engagent à titre personnel.

    Aujourd’hui, les entreprises sont confrontées aux régulateurs seulement lorsqu’elles ont fait quelque chose de mal. Dans le secteur de l’aérospatiale ou du médicament, lorsque vous avez une idée pour un nouveau produit, vous devez d’abord demander une autorisation en amont, avant de le lancer. Je ne vois pas pourquoi ça ne pourrait pas s’appliquer aux #réseaux_sociaux.

  • Facebook , gangster aux 55 milliards de dollars Pia de Quatrebarbes - 21 Juin 2019 - Solidaire
    https://www.solidaire.org/articles/facebook-gangster-aux-55-milliards-de-dollars

    Un chiffre d’affaire de plus de 55 milliards de dollars en 2018 : en quinze ans, le réseau aux 2,2 milliards « d’amis » a engrangé un paquet de fric sur nos informations, quitte à s’asseoir sur quelques lois. Un « #gangster_numérique », a tranché le parlement britannique dans un rapport au vitriol... Comment le réseau social qui voulait « rendre le monde meilleur » en est-il arrivé la ?


    Photo Wachiwit /iStock

    En 2008, quand Facebook débarque en France, c’est la ruée sur les « murs ». On y voit alors un formidable moyen de communiquer, partager des photos, personne ne s’y informe encore, mais on y dissémine naïvement des informations aux quatre vents : scolarité, opinion, statut amoureux....et déjà on #like. Rien de grave a priori, #Mark_Zuckerberg, le concepteur du réseau souhaite alors « rendre le monde meilleur ». Pas « le conquérir, seulement rendre les gens plus ouverts et connectés ».

    L’histoire est typique des innovations du web. 4 ans auparavant, dans sa chambre de Harvard, à Boston, le petit génie veut rencontrer des filles, il crée alors avec des camarades un #trombinoscope des étudiants, « The Facebook ». Les universités américaines s’y branchent, puis les lycées et collèges – Il suffit d’avoir 13 ans et une adresse mail. Et bientôt le monde entier : 2,2 milliards d’utilisateurs, un chiffre d’affaires de 55 milliards de dollars, et le 3e site internet le plus visité.

    De ses utilisateurs, il sait à peu près tout !
    Mais 15 ans après, sa firme est devenue un « gangster numérique au dessus des lois ». La sentence est venue mi-février de la Commission du numérique, de la culture et des médias du #Parlement_britannique. Pendant 18 mois, elle a planché sur le scandale #Cambridge_Analytica. Une centaine de témoins ont été auditionnés, mais le PDG de Facebook, lui, a refusé... A la lecture des 110 pages, on comprend pourquoi et comment #Mark_Zuckerberg a choisi « le profit avant la vie privée ».

    Comprenons bien : Que Facebook sait-il de ses utilisateurs ? A peu près tout ! « La pratique la plus problématique, c’est la captation systématique de nos données personnelles », explique Sylvain Steer, enseignant en droit et membre de l’association la Quadrature du Net. Pour les « amis », ce sont donc les contenus publics, les messages privés sur #Messenger, la listes des personnes, pages et groupes suivis, la façon dont on utilise le service et accède aux contenus et les informations sur l’appareil (adresse IP, fichiers présents, mouvements de la souris, accès au GPS et à l’appareil photo).

    Pour ceux qui n’ont pas de compte, la firme de Palo Alto a la solution : le « profil fantôme ». Les #cookies, les boutons « J’aime » et « Partager » affichés sur de nombreux sites, transmettent à Facebook les informations de navigation... En bref, Facebook s’accorde un pouvoir de surveillance de masse.

    Et quand Mark Zuckerberg répète à tout va, « Facebook ne vend pas les données », le parlement Britannique répond : il ment. En cause, le modèle économique : « la gratuité » pour l’utilisateur contre la monétisation de ses données. « Facebook vend aux annonceurs des catégories de publicité. Ce sont l’ensemble des caractéristiques sociales, économiques et comportementales que le réseau associe à chaque utilisateur afin de mieux le cibler », explique Sylvain Steer. « Avec l’argument fallacieux que c’est pour nous proposer des contenus de la façon la plus adaptée : sous entendu la plus subtile ». Facebook est donc avant tout « une #régie_publicitaire », analyse Yann Le Pollotech, chargé des questions numériques au PCF. 98 % de son chiffre d’affaires mondial provient de la publicité ciblée.

    L’accès aux données des téléphones
    Le réseau ouvre aussi ses données à des développeurs tiers contre rémunération « 250 000 dollars de publicités par an », écrivait le PDG dans un mail obtenu par les parlementaires britanniques. Facebook nie, explique que l’idée n’avait jamais été appliquée. En 2015, pourtant il restreint l’accès sauf pour une liste de 150 entreprises, dont Apple, Amazon, Netflix, ou Airbnb ou encore le site de rencontre #Tinder. Et là, c’est open bar ! Et Zuckerberg écrivait : « je ne vois pas de cas où des données ont été diffusées de développeurs à développeurs et ont causé un réel problème pour nous »... Raté ! 3 ans après, Cambridge Analytica allait prouver le contraire. La société, basée à Londres, a siphonné les données de 87 millions de comptes. La cheville ouvrière de la campagne numérique de Donald Trump en 2016, a réalisé un micro ciblage des électeurs.

    Parmi les autres pépites du rapport : l’accès aux données des téléphones. En 2015, la nouvelle version de l’application sur mobiles #Android pouvait avoir accès au journal des appels téléphoniques. Un cadre de Facebook s’inquiète dans un mail interne que les utilisateurs s’en rendent compte. « Ça serait très risqué : des journalistes (..) qui écrivent des articles sur “Facebook qui utilise sa mise à jour pour espionner votre vie privée” », écrit le cadre. Car le but de la firme, est bel et bien de tout savoir.... Pour cela, il faut capturer l’utilisateur et faire en sorte qu’il y reste. Et le pousser à partager toujours plus d’informations.

    Les #Fake_News rentrent dans cette catégorie. C’est parce qu’elles sont beaucoup plus partagées que Facebook les laisse se propager... Le sociologue Dominique Cardon limite leur portée dans un livre salvateur (1). Pendant la campagne américaine, ces « fake news » ont été le plus consultées par les 10% des électeurs les plus convaincus, y écrit-il. Pour Yann Le Pollotech aussi, « il faut se méfier de ce concept. Depuis que les hommes communiquent, il y a de la #désinformation. Mais ici, il y a aussi une sorte de racisme social : les fake news ne concerneraient que les moins diplômés.. et les gilets jaunes ! A chacun ses Fakes news ; celle des #CSP_+ [cadres supérieurs, NdlR], c’est que les cheminots partent à la retraite à 50 ans avec un pont d’or. Mais ce n’est pas à Facebook de décider ce qui est de l’ordre du complot ou de la #vérité. La seule manière de les éviter : c’est la délibération, le débat démocratique ».

    Mais ce n’est pas le programme du géant. Lui, il a un autre objectif : « enfermer les internautes dans son monde, son univers. Plus que du gangster, cela relève de la #mafia, au sens où c’est aussi une organisation sociale », continue Yann Le Pollotech. Dans ce système, Facebook compte aussi la messagerie #Whatsapp (1,5 milliard d’utilisateurs) et le site de partage de photos et vidéos #Instagram (1 milliard). Et avec elles, toutes leurs données ! En 2014, au moment du rachat de Whatsapp pour 19 milliards de dollars, Zuckerberg promettait « de ne pas combiner les données des comptes Facebook et Whatsapp. Bien sûr, il l’a fait deux ans après », continue Sylvain Steer.

    Depuis les scandales continuent : le 20 mars, Facebook reconnaissait ne pas protéger les #mots_de_passe de centaines de millions de comptes. En février, d’autres applications donnaient accès à Facebook à leurs données : une application pour suivre son cycle menstruel, de sport, de santé... En septembre, 50 millions de comptes étaient piratées.

    Un modèle basé sur l’illégalité
    Que font les législateurs ? En Europe, ils ont franchi une première étape avec le Règlement général pour la protection des données ( #RGPD ), entré en vigueur le 28 mai dernier. Ce dernier impose des formes de consentement éclairé et libre. Mais « Facebook continue de violer les textes, car tout son modèle économique est illégal », rappelle Sylvain Steer. Une plainte collective a été déposée, la CNIL Irlandaise – là où est le siège social de Facebook en Europe- l’examine. Sauf qu’elle prend son temps. « Bien sûr, Facebook comme les autres, fait un lobbying pour retarder sa mise en conformité et prolonger son business », continue-t-il.

    Le Parlement britannique veut la fin du far west... Sauf que Facebook, comme #Google « à force de ne pas être réglementés, se sont imposés comme des autorités centralisatrices sur internet. Les États au lieu de le limiter, continuent à lui déléguer des pouvoirs ». La France en tête, « les gouvernements, demandent à ces plateformes géantes de devenir juges et modérateurs des contenus en ligne. Ce qui devrait être de l’ordre de la justice ou du service public », poursuit Sylvain Steer ... Ou comment les gouvernements donnent à Facebook les clés de la censure. Zuckerberg, lui, s’excuse, encore une fois, et promet « de changer ». En attendant, le nombre d’utilisateurs recule, les jeunes désertent la plateforme... Mais pour Instagram. Et restent ainsi dans le monde clos de Facebook.

    Culture numérique, Dominique Cardon, Les presses de Sciences Po, sorti en février, 19 euros, 428 pages
    (Article paru dans le journal L’Humanité -Dimanche du 28 mars 2019)

    #facebook #surveillance #internet #algorithme #censure #réseaux_sociaux #publicité #données #bigdata #profiling #manipulation #marketing #domination #web #voleur de vies #escroc #gangster #fric

  • Fuites de données à répétition : comment les applis tierces nous fragilisent
    https://www.latribune.fr/technos-medias/fuites-de-donnees-a-repetition-comment-les-applis-tierces-nous-fragilisent

    Les applications tierces, qui permettent de partager des données avec d’autres services, sont régulièrement à l’origine de piratages massifs. Explications sur le fonctionnement de ces applis, et leur détournement redoutable par les pirates informatiques.

    Elles sont souvent discrètes mais elles se cachent derrière des piratages massifs de données... Ce sont les applications tierces, là pour enrichir l’expérience utilisateur et collecter des données, qui gravitent autour des plateformes populaires comme Facebook, Twitter ou encore Google. Pour limiter les dérives observées, Mark Zuckerberg, Pdg et co-fondateur de Facebook, s’est dit "potentiellement intéressé" par l’utilisation de la #Blockchain sur son réseau social, dans une interview publiée mercredi sur sa page Facebook. Cette technologie de chaînes de blocs (lire une définition ici) serait utilisée pour stocker les données personnelles des utilisateurs, qui pourraient ensuite décider quelles données partager et avec qui. En parallèle, Uber a annoncé jeudi avoir détecté un bug dans le code de son appli, permettant aux pirates informatiques d’accéder aux données des applications tierces. Explications.

    ■ Pourquoi les applis tierces sont à l’origine de fuite de données ?
    Les applications tierces permettent d’apporter des services additionnels aux plateformes et réseaux sociaux pour enrichir l’expérience utilisateur : jeux, gifs, photos, vidéos... Ces applis tierces, difficilement quantifiables, forment de véritables galaxies autour des plateformes populaires. Prenons l’exemple de Twitter. L’application Thinglink permet de raccourcir les liens à publier sur le site de micro-blogging, quand Tweetdeck permet de faire de la veille et TheCounter propose des statistiques pour mesurer la popularité de ses messages... C’est d’ailleurs cette dernière application qui a été à l’origine du piratage massif de Twitter en 2017.

    En France, le petit oiseau bleu a vu plusieurs milliers de comptes hackés - dont des ministères, des médias ou encore des hommes politiques. Pour proposer ses statistiques, TheCounter - comme toutes les applis tierces - réclame l’autorisation d’accès aux comptes. Ces applis sont donc semblables à des « portes d’entrée » pour les pirates informatiques.

    ■ Comment les applis tierces se connectent entre elles ?
    Grâce à leurs utilisateurs. L’approbation de partager des données entre un réseau social et une appli tierce se fait en un clic, lors du téléchargement de l’appli en acceptant les fameuses conditions générales d’utilisation, ou en se connectant à un service avec la fonction « se connecter avec son compte Facebook », par exemple.

    Ce partage extensif de données est à l’origine du scandale Cambridge Analytica. Le cabinet d’analyse #Cambridge_Analytica est critiqué pour avoir capté de manière détournée, et sans consentement, les données personnelles de 87 millions d’utilisateurs Facebook à des fins politiques. Il a pu s’accaparer les précieuses données via l’application « thisisyourdigitallife », créée en 2013 par un universitaire de Cambridge. Lors du téléchargement de l’application, les utilisateurs concédaient un droit d’accès à leurs données personnelles Facebook - comme leur ville d’origine et leurs centres d’intérêt. Ce n’est pas tout : l’application pouvait également avoir accès aux « amis » des utilisateurs l’ayant téléchargée, sans leur consentement non plus.

    Deux mois après le scandale, Facebook avait annoncé avoir supprimé « environ 200 applications tierces », suspectées d’avoir détourné des données. Bien souvent, même lorsque l’application est supprimée, elle garde un accès aux données. « Difficile pour l’utilisateur d’en savoir plus sur l’utilisation réelle de ses données même après désinstallation », écrit la Cnil (Commission nationale de l’informatique et des libertés) dans une note de prévention sur son site.

    ■ Comment se protéger des fuites de données potentielles ?
    Mieux vaut prévenir que guérir. Le meilleur moyen pour éviter de voir ses données personnelles fuiter est encore de limiter leur accès à votre profil. Il est ainsi possible sur certaines plateformes, comme Facebook, de limiter les informations partagées avec les applications tierces.

    « Sur Facebook, vous pouvez personnaliser les informations complémentaires que vous souhaitez communiquer à l’application (comme l’adresse mail), limiter l’envoi de notifications, et faire en sorte qu’aucun de vos amis ne sache que vous l’utilisiez », détaille la Cnil dans une note explicative.

    "Il existe une option "Applications que d’autres utilisent" qui vous permet de limiter l’accès de vos amis à des informations vous concernant, notamment lorsqu’ils utilisent une application", poursuit le gendarme des données. Sur Twitter, il est possible de découvrir l’ensemble des applications tierces utilisées et d’en "révoquer l’accès" si besoin depuis l’onglet « Paramètres et confidentialité ».

    Dès lors qu’une application n’est plus utilisée, il est fortement recommandé de la supprimer. « Même si l’application est supprimée, il se peut qu’elle utilise toujours vos données ! », met en garde la Cnil. « Pour demander la suppression de ces données, contactez directement l’application, ou consultez sa politique de confidentialité. »

  • Reporter Shows The Links Between The Men Behind Brexit And The Trump Campaign : NPR
    https://www.npr.org/2018/07/19/630443485/reporter-shows-the-links-between-the-men-behind-brexit-and-the-trump-campaign

    The Guardian’s #Carole_Cadwalladr's investigation into #Cambridge_Analytica's role in #Brexit has led her to Russian connections and the #Trump campaign. She says British investigators are now “working very closely with the #FBI.”

    #Russie #NPR #Fresh_Air #investigation

  • Après le scandale Facebook, Cambridge Analytica met la clé sous la porte
    http://abonnes.lemonde.fr/pixels/article/2018/05/02/apres-le-scandale-facebook-cambridge-analytica-met-la-cle-sous-la-po

    Ben tiens.....

    « Accusations infondées »

    « Au cours des derniers mois, Cambridge Analytica a fait l’objet de nombreuses accusations infondées et, malgré les efforts de l’entreprise pour rectifier les faits, elle a été calomniée pour des activités qui non seulement sont légales, mais aussi largement acceptées comme faisant partie intégrante de la publicité en ligne dans les domaines politique comme commercial », a dénoncé la firme.

    « Le siège mené par la couverture médiatique a éloigné presque tous les clients et fournisseurs [de CA] », a-t-elle également déploré. Elle cite une enquête indépendante menée à sa demande, selon laquelle « rien » de ce que ses employés ont entendu ou vu dans les médias « ne reflète ce qu’ils font réellement pour vivre ».

    Dénonçant « un abus de confiance », Facebook a de son côté toujours farouchement démenti avoir laissé faire, affirmant ignorer que les données récoltées par CA via une application de tests psychologiques développée par un chercheur universitaire étaient utilisées à des fins politiques.

    #Cambridge_analytica #Facebook

  • Inside Cambridge Analytica’s Virtual Currency Plans - The New York Times
    https://www.nytimes.com/2018/04/17/technology/cambridge-analytica-initial-coin-offering.html

    SAN FRANCISCO — The embattled political data firm Cambridge Analytica quietly sought to develop its own virtual currency in recent months through a so-called initial coin offering, a novel fund-raising method that has come under growing scrutiny by financial regulators around the world.

    The offering was part of a broader, but still very private push that the firm was making into the nascent world of cryptocurrencies over the last year.

    Much like its acquisition of Facebook data to build psychological profiles of voters, the new business line pushed the firm into murky ethical and legal situations. Documents and emails obtained by The New York Times show that Cambridge Analytica’s efforts to help promote another group’s digital token, the Dragon Coin, associated the firm with a famous gangster in Macau who has gone by the nickname Broken Tooth.

    The goal of Cambridge Analytica’s own coin offering? Raise money that would pay for the creation of a system to help people store and sell their online personal data to advertisers, Brittany Kaiser, a former Cambridge Analytica employee, said in an interview. The idea was to protect information from more or less what the firm did when it obtained the personal data of up to 87 million Facebook users.

    “Who knows more about the usage of personal data than Cambridge Analytica?” Ms. Kaiser said. “So why not build a platform that reconstructs the way that works?”

    Mais Cambridge Analytica ne perd pas ses bonnes habitudes

    She also remembers they spoke about an array of potential campaigns. The most unusual idea involved sending virtual currencies to people in far-flung regions of Mexico. The payments would give people incentive to fill out surveys and get data that could then be used to help design campaigns for Mexican political candidates .

    #Cambridge_analytica #Cryptomonnaies #ICO #Données_personnelles

  • « Désolé », Zuckerberg peine à convaincre devant le Sénat américain
    https://www.mediapart.fr/journal/international/110418/desole-zuckerberg-peine-convaincre-devant-le-senat-americain

    Mark Zuckerberg devant le Sénat américain, le 10 avril. © Mediapart Lors d’une audition devant le Sénat américain consacrée au scandale #Cambridge_Analytica, #Mark_Zuckerberg a multiplié les mea culpa et les actes de contrition. « C’était ma faute, et je suis désolé. J’ai lancé #Facebook, je le dirige, et je suis responsable de ce qui s’y passe », a déclaré le fondateur du réseau social.

    #International #Cnil

  • « Désolé », #Mark_Zuckerberg peine à convaincre devant le Sénat américain
    https://www.mediapart.fr/journal/international/110418/desole-mark-zuckerberg-peine-convaincre-devant-le-senat-americain

    Mark Zuckerberg devant le Sénat américain, le 10 avril. © Mediapart « C’était ma faute, et je suis désolé. J’ai lancé #Facebook, je le dirige, et je suis responsable de ce qui s’y passe », a déclaré mardi Mark Zuckerberg. Lors d’une audition devant le Sénat américain consacrée au scandale #Cambridge_Analytica, le fondateur du réseau social a multiplié les mea culpa et les actes de contrition.

    #International #Cnil

  • Au-delà de l’affaire Facebook. Pour un service public des données, par Evgeny Morozov (Les blogs du Diplo, 10 avril 2018)
    https://blog.mondediplo.net/2018-04-10-Pour-un-service-public-des-donnees

    Bonne nouvelle pour ceux d’entre nous qui mettent en garde contre les dangers de « l’extractivisme des données » depuis des années : la méfiance envers Facebook est de plus en plus vive.

    Enfin une preuve incontestable que sous la rhétorique grandiloquente de #Facebook, qui prétend « construire une communauté mondiale qui œuvre pour tous », se cache un projet agressif et cynique qui nous vampirise, dans le but de construire un aspirateur de données mondial. Comme d’autres dans ce secteur, Facebook se fait de l’argent en puisant nos #données_personnelles — qu’il fait émerger grâce à nos pokes et nos likes, à l’image des grands groupes du secteur énergétique qui forent des puits de pétrole : les profits avant tout, les conséquences sociales et individuelles attendront.

    En outre, plus grand monde ne croit en l’avenir numérique idéal où des publicités sur-mesure financeraient ce que Mark Zuckerberg appelle « l’infrastructure sociale ». Si cette dernière ne coûte rien financièrement, aux contribuables du moins, elle aurait un prix social et politique peut-être plus lourd encore que le pétrole bon marché des années 1970.

    Cette prise de conscience, aussi soudaine et brutale soit-elle, ne suffit pas. Facebook n’est que l’un des symptômes, non la cause de nos problèmes. À long terme, fustiger sa culture d’entreprise pourrait s’avérer aussi vain que de s’en prendre à soi-même.

    #Cambridge_Analytica

  • #Facebook : Personne ne parle du véritable coupable : #Cambridge_Analytica - La société britannique aurait récupéré les données de 50 millions d’utilisateurs pour élaborer un logiciel permettant de prédire le vote des électeurs - Les données pourraient être conservées en #Russie.
    https://fr.wikipedia.org/wiki/Cambridge_Analytica
    http://www.lepoint.fr/high-tech-internet/facebook-polemique-autour-de-l-utilisation-de-donnees-personnelles-19-03-201
    http://www.01net.com/actualites/cambridge-analytica-nouveaux-rebondissements-dans-l-affaire-qui-ebranle-faceb

  • #Facebook commence à informer les utilisateurs touchés par l’affaire #Cambridge_Analytica
    http://www.lemonde.fr/pixels/article/2018/04/10/facebook-commence-a-informer-les-utilisateurs-touches-par-l-affaire-cambridg

    « Nous avons banni le site This is Your Digital Life (…), car il a utilisé à mauvais escient certaines de vos informations Facebook en les partageant avec une entreprise nommée Cambridge Analytica. » Voilà le message que les millions d’utilisateurs de Facebook dont les données ont pu être aspirées indirectement par Cambridge Analytica découvrent depuis lundi 9 avril en se connectant au réseau social. L’entreprise reconnaît qu’il reste « beaucoup de travail à faire » et assure que ses employés s’engagent « à lutter contre les abus et à donner [à ses utilisateurs] le contrôle de [leur] vie privée ».

    Les autres utilisateurs, ceux dont les données n’ont, selon Facebook, pas été récupérées dans cette affaire, peuvent quant à eux voir apparaître un message les invitant à se rendre dans la section « Apps et sites Web » de leurs paramètres pour faire le tri dans les applications dont ils ne se servent plus.

  • “Le scandale Cambridge Analytica n’est pas une faille technique mais un problème politique” - Idées - Télérama.fr
    http://www.telerama.fr/idees/le-scandale-cambridge-analytica-nest-pas-une-faille-technique-mais-un-probl

    Interview de Zeynep Tufekci

    Cet incident, écriviez-vous dans le New York Times, est « une conséquence naturelle du modèle économique de Facebook »…

    Facebook comme Google attirent l’essentiel de l’attention car ce sont des mastodontes, mais n’oublions pas que tout le modèle de la publicité en ligne – et celui d’une majorité de médias – repose sur les mêmes fondations. Partout, le principe est identique : où que vous cliquiez, vous êtes suivi, ciblé, monétisé et vendu au plus offrant. Les pages que vous consultez, les contenus que vous publiez, toutes vos traces numériques sont utilisées à des fins commerciales. Qu’il s’agisse de Cambridge Analytica, d’un dictateur en herbe ou d’une marque d’aspirateurs importe peu, puisque c’est un système totalement asymétrique dans lequel vous ne connaissez pas l’identité des passeurs d’ordre. C’est le problème majeur d’Internet aujourd’hui. Dans cette « économie de l’attention », Facebook peut compter sur une infrastructure sans équivalent. Grâce à elle, la plateforme peut toucher deux milliards d’utilisateurs, écran par écran, sans même qu’ils s’en rendent compte.

    Faut-il craindre la multiplication d’épisodes de ce genre ?

    De toute évidence. Il est mécaniquement impossible de prédire l’utilisation qui sera faite de nos données dans les années à venir. C’est un puits sans fond ! Même si vous n’êtes pas sur Facebook, une quantité gigantesque d’informations à votre sujet circulent et permettent de vous profiler. Grâce aux progrès de l’intelligence artificielle, des algorithmes sont capables d’analyser vos amitiés, votre activité, vos modes de consommation. Nous figurons probablement tous dans des bases de données commerciales dont nous ignorons l’existence, mises en relation et croisées avec d’autres bases de données que nous ne connaissons pas davantage. Dans le cas de Cambridge Analytica, l’immense majorité des personnes siphonnées ignoraient tout de ce qui était en train de se passer.

    Réagissons-nous si tardivement à cause de cette opacité ?

    Pour une personne ordinaire, il est extrêmement difficile de réagir, car cette collecte est invisible, inodore et incolore. En tant qu’internaute, vous ne voyez rien d’autre que les contenus qui s’affichent sur votre écran.

    A ce titre, que pensez-vous de la réaction de Mark Zuckerberg ?

    Il s’est mollement excusé parce qu’il n’avait pas le choix. Mais il s’est quand même posé en victime, comme s’il avait été dupé par un tiers renégat ne respectant pas les règles d’un jeu qu’il a lui-même créé. Je pense que nous ne devrions croire aucune entreprise sur parole. Nous avons besoin de contrôle et de mécanismes de protection. Prenons l’exemple des voitures. Elles peuvent avoir des accidents ou présenter des risques pour l’environnement. Pour lutter contre ces facteurs négatifs, les gouvernements ont imposé des limitations de vitesse, le port de la ceinture de sécurité ou des normes environnementales. Ces changements ne sont pas intervenus par l’opération du Saint-Esprit : il a fallu les imposer. Et quand une entreprise ne respecte pas ces règles, elle est sanctionnée. L’économie liée à l’exploitation des données est encore un Far West à civiliser.

    Ces dernières semaines, les appels à la déconnexion de Facebook se sont multipliés. Est-ce une option viable ?

    Ça ne peut être qu’une décision individuelle. C’est le droit le plus strict de chacun, mais c’est un luxe qui ne résoudra pas le problème : dans de nombreux pays, Facebook est le seul moyen pour communiquer avec sa famille ou ses amis, et c’est un vecteur important d’organisation sociale. Il vaudrait mieux réfléchir au démantèlement de Facebook tout en réfléchissant à ses conséquences possibles : si nous ne réformons pas en profondeur le modèle économique du Web, des légions de petits Facebook pourraient en effet se montrer encore plus nocifs qu’une plateforme centralisée…

    #Zeynep_Tufekci #Facebook #Cambridge_analytica #Vie_privée #Données_personnelles

  • #Facebook, emblème du « capitalisme de surveillance »
    https://www.mediapart.fr/journal/international/070418/facebook-embleme-du-capitalisme-de-surveillance

    Le détournement de 87 millions de profils Facebook par #Cambridge_Analytica afin d’influer sur la campagne présidentielle américaine a Mark Zuckerberg lors du Mobile World Congress en février 2016 à Barcelone © Facebook plongé la société de Mark Zuckerberg dans une crise sans précédent en la mettant face à un dilemme en apparence insoluble : comment rassurer investisseurs et utilisateurs alors que son modèle économique repose par définition sur la collecte massive des données personnelles ?

    #International #capitalisme_de_surveillance #GAFAM

    • Même si Cambridge Analytica a bien dérobé quelque 87 millions de profils, c’est en fait quasiment toute l’économie du numérique qui repose sur une collecte massive des données des utilisateurs. Avant l’explosion du scandale, la société se vantait d’ailleurs de posséder des profils sur 220 millions d’Américains, des données obtenues légalement auprès des multiples « data brokers » ou vendeurs de données du pays. Ce modèle économique auquel sont irrémédiablement liés Facebook mais également Google ou Twitter a été théorisé sous l’expression de « capitalisme de surveillance ».

      Le concept a fait l’objet d’une première définition dans un article des universitaires John Bellamy Foster et Robert W. McChesney, publié en juillet 2014 sur le site Monthly Review. Dans celui-ci, les auteurs font du capitalisme de surveillance l’évolution naturelle du complexe militaro-industriel dénoncé par les président Dwight Eisenhower dans son célèbre discours de janvier 1961. Ils rappellent les origines militaires du Net et les efforts constants déployés par l’armée pour contrôler la recherche et les industries de pointe.

      L’article du Monthly Review en question, que j’avais pas vu passer : ▻https://seenthis.net/messages/328312

    • Avec aussi le concept de #surplus_comportemental développé par https://twitter.com/shoshanazuboff
      « [...] les utilisateurs ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont une source de matériaux bruts gratuits [...] »

      Dans un article publié en 2016 dans la Frankfurter Allgemeine Zeitung, elle explique comment « le capitalisme a été détourné par un projet de surveillance lucratif ». Ce détournement a eu lieu, raconte Shoshana Zuboff, lorsque Google a pris conscience du profit qu’il pouvait tirer des données comportementales de ses utilisateurs, données qu’elle désigne sous le terme de « surplus comportemental ».

      « Le succès dramatique de Google dans le “matching” des publicités et des pages a révélé la valeur transformationnelle de ce surplus comportemental comme moyen de générer des revenus et, finalement, de transformer les investissements en capital », écrit Shoshana Zuboff. « Dans ce contexte, les utilisateurs ne sont plus une fin en eux-mêmes. À la place, ils sont devenus un moyen de faire des profits dans un nouveau type de marché dans lequel les utilisateurs ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont une source de matériaux bruts gratuits qui nourrit un nouveau type de processus de fabrication », poursuit la professeure. « Le jeu ne consiste plus à vous envoyer un catalogue de vente par correspondance ou même à cibler la publicité en ligne. Le jeu consiste à vendre l’accès au flux en temps réel de votre vie quotidienne – votre réalité – afin de l’influencer directement et de modifier votre comportement pour faire des profits. »

    • Les références de l’article sont plus qu’intéressantes :
      – John Bellamy Foster et Robert W. McChesney sur le site Monthly Review sur le complexe militaro-industriel et le #capitalisme_de_surveillance
      https://monthlyreview.org/2014/07/01/surveillance-capitalism

      – Nicholas Confessore et Matthew Rosendbergmarch dans le NY Times sur le lien entre #Cambrige_Analytica et #Palantir
      https://www.nytimes.com/2018/03/27/us/cambridge-analytica-palantir.html

      – Shoshana Zuboff dans la Frankfurter Allgemeine Zeitung sur le #capitalisme_de_surveillance
      http://www.faz.net/aktuell/feuilleton/debatten/the-digital-debate/shoshana-zuboff-secrets-of-surveillance-capitalism-14103616.html
      => Article récemment traduit par l’équipe #Framalang
      https://framablog.org/2017/03/28/google-nouvel-avatar-du-capitalisme-celui-de-la-surveillance

  • Why (almost) everything reported about the Cambridge Analytica Facebook ‘hacking’ controversy is wrong
    https://medium.com/@CKava/why-almost-everything-reported-about-the-cambridge-analytica-facebook-hackin

    First, There was no hack.

    The data collected was scraped from #Facebook user profiles, after users granted permission for a third party app to access their data. You know those little confirmation windows that pop up when someone wants to play Candy Crush or use Facebook to log in, rather than make a new password, for a random site? Yeah those.

    A Cambridge academic called Aleksandr Kogan — NOT Cambridge Analytica and NOT the whistleblower Christopher Wylie — made a ‘Test Your Personality’ app, helped to promote it by paying people $2–4 to install it on Amazon’s Mechanical Turk crowdsourcing site, and used the permissions granted to harvest profile data. 270,000 users installed the app, so you might expect that 270,000 profiles were collected but the app actually collected data from 50 million profiles.

    50 million?!?

    Yes. You see back in the heady days of 2014, Facebook had a feature called ‘friends permission’ that allowed developers to access the profiles of not only the person who installed their app but all their friends too. The only way to prevent this from happening was to have toggled a privacy setting, which few Facebook users even knew existed (here is a blog from 2012 explaining how to do so). The friends permission feature is how Kogan multiplied 270,000 permissions into 50 million profiles worth of data.

    (…)

    The real story then is not that Kogan, Wylie, and Cambridge Analytica developed some incredibly high tech ‘hack’ of Facebook. It is that, aside from Kogan’s data selling, they used methods that were common place and permitted by Facebook prior to 2015. Cambridge Analytica has since the story broke been outed as a rather obnoxious, unethical company- at least in how it promotes itself to potential clients. But the majority of what is being reported in the media about its manipulative power is just an uncritical regurgitation of Cambridge Analytica (and Chris Wylie’s) self-promotional claims. The problem is that there is little evidence that the company can do what it claims and plenty of evidence that it is not as effective as it likes to pretend; see the fact that Ted Cruz is not currently president.

    No one is totally immune to marketing or political messaging but *there is little evidence that Cambridge Analytica is better than other similar PR or political canvassing companies at targeting voters. Political targeting and disinformation campaigns, including those promoted by Russia, certainly had an impact on recent elections but were they the critical factor? Did they have a bigger impact than Comey announcing he was ‘reopening’ the Hillary email investigation the week before the US election? Or Brexiteers claiming that £250 million was being stolen from the NHS by the EU every week? Colour me skeptical.

    To be crystal clear, I’m not arguing that Cambridge Analytica and Kogan were innocent. At the very least, it is clear they were doing things that were contrary to Facebook’s data sharing policies. And similarly Facebook seems to have been altogether too cavalier with permitting developers to access its users’ private data.

    What I am arguing is that #Cambridge_Analytica are not the puppet masters they are being widely portrayed as. If anything they are much more akin to Donald Trump; making widely exaggerated claims about their abilities and getting lots of #attention as a result.

  • Why the Cambridge Analytica Scandal Is a Watershed Moment for Social Media - Knowledge Wharton
    http://knowledge.wharton.upenn.edu/article/fallout-cambridge-analytica

    “We’re experiencing a watershed moment with regard to social media,” said Aral. “People are now beginning to realize that social media is not just either a fun plaything or a nuisance. It can have potentially real consequences in society.”

    The Cambridge Analytica scandal underscores how little consumers know about the potential uses of their data, according to Berman. He recalled a scene in the film Minority Report where Tom Cruise enters a mall and sees holograms of personally targeted ads. “Online advertising today has reached about the same level of sophistication, in terms of targeting, and also some level of prediction,” he said. “It’s not only that the advertiser can tell what you bought in the past, but also what you may be looking to buy.”

    Consumers are partially aware of that because they often see ads that show them products they have browsed, or websites they have visited, and these ads “chase them,” Berman said. “What consumers may be unaware of is how the advertiser determines what they’re looking to buy, and the Cambridge Analytica exposé shows a tiny part of this world.”

    A research paper that Nave recently co-authored captures the potential impact of the kind of work Cambridge Analytica did for the Trump campaign. “On the one hand, this form of psychological mass persuasion could be used to help people make better decisions and lead healthier and happier lives,” it stated. “On the other hand, it could be used to covertly exploit weaknesses in their character and persuade them to take action against their own best interest, highlighting the potential need for policy interventions.”

    Nave said the Cambridge Analytica scandal exposes exactly those types of risks, even as they existed before the internet era. “Propaganda is not a new invention, and neither is targeted messaging in marketing,” he said. “What this scandal demonstrates, however, is that our online behavior exposes a lot about our personality, fears and weaknesses – and that this information can be used for influencing our behavior.”

    In Golbeck’s research projects involving the use of algorithms, she found that people “are really shocked that we’re able to get these insights like what your personality traits are, what your political preferences are, how influenced you can be, and how much of that data we’re able to harvest.”

    Even more shocking, perhaps, is how easy it is to find the data. “Any app on Facebook can pull the kind of data that Cambridge Analytica did – they can [do so] for all of your data and the data of all your friends,” said Golbeck. “Even if you don’t install any apps, if your friends use apps, those apps can pull your data, and then once they have that [information] they can get these extremely deep, intimate insights using artificial intelligence, about how to influence you, how to change your behavior.” But she draws a line there: “It’s one thing if that’s to get you to buy a pair of shoes; it’s another thing if it’s to change the outcome of an election.”

    “Facebook has tried to play both sides of [the issue],” said Golbeck. She recalled a study by scientists from Facebook and the University of California, San Diego, that claimed social media networks could have “a measurable if limited influence on voter turnout,” as The New York Times reported. “On one hand, they claim that they can have a big influence; on the other hand they want to say ‘No, no, we haven’t had any impact on this.’ So they are going to have a really tough act to play here, to actually justify what they’re claiming on both sides.”

    Golbeck called for ways to codify how researchers could ethically go about their work using social media data, “and give people some of those rights in a broader space that they don’t have now.” Aral expected the solution to emerge in the form of “a middle ground where we learn to use these technologies ethically in order to enhance our society, our access to information, our ability to cooperate and coordinate with one another, and our ability to spread positive social change in the world.” At the same time, he advocated tightening use requirements for the data, and bringing back “the notion of informed consent and consent in a meaningful way, so that we can realize the promise of social media while avoiding the peril.”

    Historically, marketers could collect individual data, but with social platforms, they can now also collect data about a user’s social contacts, said Berman. “These social contacts never gave permission explicitly for this information to be collected,” he added. “Consumers need to realize that by following someone or connecting to someone on social media, they also expose themselves to marketers who target the followed individual.”

    In terms of safeguards, Berman said it is hard to know in advance what a company will do with the data it collects. “If they use it for normal advertising, say toothpaste, that may be legitimate, and if they use it for political advertising, as in elections, that may be illegitimate. But the data itself is the same data.”

    According to Berman, most consumers, for example, don’t know that loyalty cards are used to track their behavior and that the data is sold to marketers. Would they stop using these cards if they knew? “I am not sure,” he said. “Research shows that people in surveys say they want to maintain their privacy rights, but when asked how much they’re willing to give up in customer experience – or to pay for it – the result is not too much. In other words, there’s a difference between how we care about privacy as an idea, and how much we’re willing to give up to maintain it.”

    Golbeck said tools exist for users to limit the amount of data they let reside on social media platforms, including one called Facebook Timeline Cleaner, and a “tweet delete” feature on Twitter. _ “One way that you can make yourself less susceptible to some of this kind of targeting is to keep less data there, delete stuff more regularly, and treat it as an ephemeral platform, _ ” she said.

    Mais est-ce crédible ? Les médias sociaux sont aussi des formes d’archives personnelles.

    #Facebook #Cambridge_analytica

  • Alors comme ça, on veut quitter Facebook ?
    http://www.makery.info/2018/03/27/alors-comme-ca-on-veut-quitter-facebook

    L’affaire Cambridge Analytica fait vaciller le réseau social. Quelle stratégie adopter après ces révélations : supprimer son compte, exiger ses datas, passer au libre ? On savait qu’il y avait du rififi chez Facebook. Mais alors là, c’est le pompon. Depuis que The Guardian, The Observer et le New York Times ont révélé les pratiques plus que douteuses de l’entreprise Cambridge Analytica, la tentation de supprimer Facebook semble être plus grande que jamais dans la communauté aux 2,13 milliards d’amis. (...)

    #CambridgeAnalytica #Facebook #algorithme #thisisyourdigitallife #élections #manipulation #électeurs #comportement #données #publicité #BigData #marketing #prédictif (...)

    ##publicité ##profiling

  • Life Inside S.C.L., Cambridge Analytica’s Parent Company | The New Yorker
    https://www.newyorker.com/news/letter-from-the-uk/life-inside-scl-cambridge-analyticas-parent-company

    There were times during our conversation when the employee seemed as bemused as anybody that a company that was started in the early nineteen-nineties with some intuitive but eccentric ideas about group psychology—one of Oakes’s first ventures was selling aromas to stores, to persuade customers to buy more—was now at the center of a transatlantic conversation about voter rights, data privacy, and the integrity of the world’s most important social network. But the employee was also clear that access to big data, particularly in the form of Facebook, combined with S.C.L.’s long interest in psychological profiling and audience segmentation, had been able to equip political campaigns with digital weapons that most voters were unaware of. “You can get philosophical about this and say that Facebook being an advertising platform masquerading as a social platform is the start of the rot and the tool was always there,” the employee said. S.C.L.’s executives were the wrong people who came along at the wrong time. “There were always going to be dodgy fuckers willing to work for rich people, and the S.C.L. was just an example of the dodgy fucker.” (S.C.L. did not immediately respond to a request for comment, but the company claims that it destroyed the Facebook data, in October, 2015, and that it played no role in the Presidential election.)

    The employee welcomed the current attention on S.C.L.’s methodology and behavior, whether it was illegal, or whether it should have been. The leaders of the company were not interested in these questions. “Alexander is not constrained by the sort of worries we are seeing expressed right now,” the employee said. “It really is about getting money together.” The employee continued, “What is wonderful about now is this bit of it is being opened, and I think it is bloody important, because something as catastrophic as Brexit and Trump—the technical possibility of that—is achieved through this dark shit. And this dark shit can be done by fucking cowboys. And, for lots of people who worked for the organization, it wasn’t supposed to be this way.”

    Some of S.C.L.’s methods had merit. Oakes’s insight in forming the B.D.I. was to aim messages at social groups—rather than at individuals—and to place a low expectation on persuading people to change their minds. In a “classic S.C.L. project,” the employee explained, the company would use subcontractors, survey companies, and academics in the run-up to an election to create what it called a “super sample.” “We would speak to sixty thousand people, and we wouldn’t say, ‘Who are you going to vote for?’ ” the employee said. “We would say, ‘How do you feel about life?’ ” S.C.L.’s data concentrated on local concerns, such as housing, water shortages, or tribal conflict. “With all of that, we would delineate a strategy for them to win by focussing on targeted groups that we had identified within the population,” the employee said. “It is not so much, let’s make these people do this thing; it is, can we take this thing in such a way that the people who should get it do get it?”

    #Facebook #Cambridge_analytica

  • Cambridge Analytica demonstrates that Facebook needs to give researchers more access.
    https://slate.com/technology/2018/03/cambridge-analytica-demonstrates-that-facebook-needs-to-give-researchers-more

    In a 2013 paper, psychologist Michal Kosinski and collaborators from University of Cambridge in the United Kingdom warned that “the predictability of individual attributes from digital records of behavior may have considerable negative implications,” posing a threat to “well-being, freedom, or even life.” This warning followed their striking findings about how accurately the personal attributes of a person (from political leanings to intelligence to sexual orientation) could be inferred from nothing but their Facebook likes. Kosinski and his colleagues had access to this information through the voluntary participation of the Facebook users by offering them the results of a personality quiz, a method that can drive viral engagement. Of course, one person’s warning may be another’s inspiration.

    Kosinski’s original research really was an important scientific finding. The paper has been cited more than 1,000 times and the dataset has spawned many other studies. But the potential uses for it go far beyond academic research. In the past few days, the Guardian and the New York Times have published a number of new stories about Cambridge Analytica, the data mining and analytics firm best known for aiding President Trump’s campaign and the pro-Brexit campaign. This trove of reporting shows how Cambridge Analytica allegedly relied on the psychologist Aleksandr Kogan (who also goes by Aleksandr Spectre), a colleague of the original researchers at Cambridge, to gain access to profiles of around 50 million Facebook users.

    According to the Guardian’s and New York Times’ reporting, the data that was used to build these models came from a rough duplicate of that personality quiz method used legitimately for scientific research. Kogan, a lecturer in another department, reportedly approached Kosinski and their Cambridge colleagues in the Psychometric Centre to discuss commercializing the research. To his credit, Kosinski declined. However, Kogan built an app named thisismydigitallife for his own startup, Global Science Research, which collected the same sorts of data. GSR paid Mechanical Turk workers (contrary to the terms of Mechanical Turk) to take a psychological quiz and provide access to their Facebook profiles. In 2014, under the contract with the parent company of Cambridge Analytica, SCL, that data was harvested and used to build a model of 50 million U.S. Facebook users that included allegedly 5,000 data points on each user.

    So if the Facebook API allowed Kogan access to this data, what did he do wrong? This is where things get murky, but bear with us. It appears that Kogan deceitfully used his dual roles as a researcher and an entrepreneur to move data between an academic context and a commercial context, although the exact method of it is unclear. The Guardian claims that Kogan “had a licence from Facebook to collect profile data, but it was for research purposes only” and “[Kogan’s] permission from Facebook to harvest profiles in large quantities was specifically restricted to academic use.” Transferring the data this way would already be a violation of the terms of Facebook’s API policies that barred use of the data outside of Facebook for commercial uses, but we are unfamiliar with Facebook offering a “license” or special “permission” for researchers to collect greater amounts of data via the API.

    Regardless, it does appear that the amount of data thisismydigitallife was vacuuming up triggered a security review at Facebook and an automatic shutdown of its API access. Relying on Wylie’s narrative, the Guardian claims that Kogan “spoke to an engineer” and resumed access:

    “Facebook could see it was happening,” says Wylie. “Their security protocols were triggered because Kogan’s apps were pulling this enormous amount of data, but apparently Kogan told them it was for academic use. So they were like, ‘Fine’.”

    Kogan claims that he had a close working relationship with Facebook and that it was familiar with his research agendas and tools.

    A great deal of research confirms that most people don’t pay attention to permissions and privacy policies for the apps they download and the services they use—and the notices are often too vague or convoluted to clearly understand anyway. How many Facebook users give third parties access to their profile so that they can get a visualization of the words they use most, or to find out which Star Wars character they are? It isn’t surprising that Kosinski’s original recruitment method—a personality quiz that provided you with a psychological profile of yourself based on a common five-factor model—resulted in more than 50,000 volunteers providing access to their Facebook data. Indeed, Kosinski later co-authored a paper detailing how to use viral marketing techniques to recruit study participants, and he has written about the ethical dynamics of utilizing friend data.

    #Facebook #Cambridge_analytica #Recherche

  • Revealed : 50 million Facebook profiles harvested for Cambridge Analytica in major data breach | News | The Guardian
    https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election

    Paul-Olivier Dehaye, a data protection specialist, who spearheaded the investigative efforts into the tech giant, said: “Facebook has denied and denied and denied this. It has misled MPs and congressional investigators and it’s failed in its duties to respect the law.

    “It has a legal obligation to inform regulators and individuals about this data breach, and it hasn’t. It’s failed time and time again to be open and transparent.”

    We exploited Facebook to harvest millions of profiles. And built models to exploit that and target their inner demons
    Christopher Wylie

    A majority of American states have laws requiring notification in some cases of data breach, including California, where Facebook is based.

    Facebook denies that the harvesting of tens of millions of profiles by GSR and Cambridge Analytica was a data breach. It said in a statement that Kogan “gained access to this information in a legitimate way and through the proper channels” but “did not subsequently abide by our rules” because he passed the information on to third parties.

    Facebook said it removed the app in 2015 and required certification from everyone with copies that the data had been destroyed, although the letter to Wylie did not arrive until the second half of 2016. “We are committed to vigorously enforcing our policies to protect people’s information. We will take whatever steps are required to see that this happens,” Paul Grewal, Facebook’s vice-president, said in a statement. The company is now investigating reports that not all data had been deleted.

    Kogan, who has previously unreported links to a Russian university and took Russian grants for research, had a licence from Facebook to collect profile data, but it was for research purposes only. So when he hoovered up information for the commercial venture, he was violating the company’s terms. Kogan maintains everything he did was legal, and says he had a “close working relationship” with Facebook, which had granted him permission for his apps.

    Coût de l’opération : 1 million de dollars.

    The Observer has seen a contract dated 4 June 2014, which confirms SCL, an affiliate of Cambridge Analytica, entered into a commercial arrangement with GSR, entirely premised on harvesting and processing Facebook data. Cambridge Analytica spent nearly $1m on data collection, which yielded more than 50 million individual profiles that could be matched to electoral rolls. It then used the test results and Facebook data to build an algorithm that could analyse individual Facebook profiles and determine personality traits linked to voting behaviour.

    The algorithm and database together made a powerful political tool. It allowed a campaign to identify possible swing voters and craft messages more likely to resonate.

    “The ultimate product of the training set is creating a ‘gold standard’ of understanding personality from Facebook profile information,” the contract specifies. It promises to create a database of 2 million “matched” profiles, identifiable and tied to electoral registers, across 11 states, but with room to expand much further.

    #Facebook #Cambridge_analytica

  • Facebook : un test à la con et soudain la démocratie s’effondre | Slate.fr
    http://www.slate.fr/story/159379/facebook-cambridge-analytica-trump-democratie

    Le problème c’est qu’un président, ce n’est pas un tube de dentifrice. En délivrant un message politique différent à chaque catégorie d’électrices et d’électeurs, un message répété à l’infini, un message qui joue sur des émotions, on se situe exactement dans l’inverse du débat d’idées. Une membre de l’équipe numérique de campagne de Donald Trump a expliqué qu’une mère de famille intéressée par la garde d’enfant ne voudrait pas voir une pub pleine de guerre et de violence. L’équipe de Trump lui montrait alors un spot doux et chaleureux : « Il nous arrivait assez souvent de produire trente-cinq ou quarante-cinq mille itérations de ce type de pub au quotidien. »

    On est dans une forme de manipulation psychologique et émotionnelle. Cambridge Analytica explique que le vote se joue sur deux émotions : la peur et l’espoir. Et que les gens ne savent pas que quelque chose leur fait peur tant qu’on ne leur a pas montré. Évidemment, à Athènes, des orateurs pouvaient user de démagogie, mais ils le faisaient face à l’ensemble des citoyens en même temps. Ils n’allaient pas chez les votants la nuit pour les harceler avec leurs pires craintes. Cette manipulation est très efficacement renforcée par l’usage des fake news. (L’un des principaux investisseurs de Cambridge Analytica est également un des fondateurs de Breitbart News, site d’extrême droite soupçonné de fake news.)

    Cambridge Analytica ne s’arrête pas là. Dans un court et incroyable reportage (en anglais mais je vous le conseille), Channel 4 a filmé un dirigeant de l’entreprise en train d’expliquer qu’ils font appel à des sous-traitants qui recrutent des anciens agents des services secrets britanniques et israéliens : « On a employé une organisation différente pour un projet très réussi dans un pays d’Europe de l’Est, personne ne savait qu’ils étaient là, ils sont venus, ils ont fait le boulot, ils sont partis, et ils nous ont fourni du très bon matériel. »

    Cambridge Analytica est payé pour pratiquer une forme de « highjacking » de la démocratie. Savoir à quel point il fonctionne est impossible. Si vous avez une opinion désastreuse de Donald Trump, vous aurez tendance à penser que sa victoire est la preuve de la réussite de ces techniques de manipulation. Si vous détestez Obama, vous pourrez en tirer la même conclusion. On ne sait pas ce qui se passe dans la tête d’un électeur ou d’une électrice au moment de choisir un bulletin. Mais peu importe leur efficacité réelle, leur véritable impact sur nos vies démocratiques, ces pratiques sont condamnables. Il s’agit d’un détournement du modèle démocratique dans son fonctionnement même. Cambridge Analytica affirme l’avoir fait aux États-Unis, au Mexique, en Malaisie, avoir travaillé pour la campagne pro-Brexit, et bosser en ce moment au Brésil et en Chine.

    #Facebook #Cambridge_analytica #démocratie #Industrie_influence

  • Le scandale Facebook pose avant tout une question politique - Libération
    http://www.liberation.fr/debats/2018/03/23/le-scandale-facebook-pose-avant-tout-une-question-politique_1638346

    L’affaire qui touche en ce moment le réseau social aux 2 milliards d’utilisateurs n’est que le symptôme du naufrage de l’action publique.

    Le scandale Facebook pose avant tout une question politique

    D’abord il y a l’évidence. A l’évidence, quiconque peut disposer d’une partie substantielle et suffisamment ciblée des données collectées et agrégées par Facebook dispose d’un outil d’influence absolument redoutable et tout à fait inédit à l’échelle de l’histoire de l’humanité et de la manipulation de l’opinion. Quantitativement et qualitativement, jamais aucun média n’avait été en capacité de disposer d’autant de données privées et intimes sur autant de personnes en temps réel et à flux constant (plus de 2 milliards d’utilisateurs).« Une version postmoderne de la Stasi », pour reprendre la formule de Julian Assange. Mais en pire.

    Ceci étant posé en préalable, toute agence de « relations publiques » (RP) comme elles se nomment par euphémisme et antiphrase, puisqu’il s’agit surtout d’entretenir des connivences privées, Cambridge Analytica compris, aura une tendance naturelle à surestimer auprès de ses clients et des médias le pouvoir réel dont elle prétend pouvoir disposer pour façonner l’opinion. Au regard de ce que sont ses clients et ses intérêts, cette affaire est cyniquement une extraordinaire publicité pour Cambridge Analytica.
    Facebook et Cambridge Analytica n’ont pas « fait l’élection »

    Mais attention à ne pas rater l’essentiel des enjeux de cette affaire. Certes, la collecte de données est massive. Certes, le mode opératoire de la collecte est suspect (au travers d’applications tierces notamment). Certes, les soupçons de collusion entre Facebook et Cambridge Analytica méritent d’être explorés par la justice. Certes, le laissez-faire de Facebook confine à l’incurie chronique dans cette affaire. Mais n’allons pas pour autant imaginer que l’élection de Trump s’est jouée uniquement sur de l’analyse de données et du profilage marketing, même parfaitement ciblé, même à cette échelle.

    D’autant que rien n’est vraiment nouveau. Un porte-parole de la campagne d’Obama indique que lui aussi a « naturellement » travaillé avec Facebook pour avoir accès aux données personnelles d’utilisateurs d’obédience plutôt démocrate. C’est un fait : tous les candidats de toutes les élections de tous les pays travaillent et travailleront toujours avec toutes les entreprises et médias susceptibles de leur apporter des infos en termes d’analyse de l’opinion et accessoirement leur promettant d’être en capacité d’exercer des actions d’influence.

    Mais pour le reste, choisir pour qui nous allons voter est, heureusement, un processus décisionnel largement multi-factoriel qu’aucune martingale algorithmique ne peut prétendre modéliser de manière fiable, fut-elle gavée d’une immensité de données qualifiées. Et à ce titre, l’élection de Trump en est d’ailleurs la preuve éclatante. Facebook et Cambridge Analytica ont certainement une part de responsabilité dans cette élection mais ils n’ont à eux seuls pas « fait l’élection ». Loin s’en faut.

    A lire aussi :Scandale Facebook : les petits remèdes du Dr Zuckerberg
    Facebook et son projet politique

    Au-delà des agences de com ou de RP, la première question qu’il me semble essentiel de retenir de toute cette affaire, c’est celle de savoir comment garantir que « l’executive board » de Facebook lui-même ne cède pas à la tentation d’exploiter l’immensité des données dont il dispose pour mener une campagne d’influence sur des sujets politiques ou sociétaux. D’autant que l’on sait qu’une place était réservée pour Zuckerberg dans l’équipe Clinton si celle-ci avait remporté l’élection. Et sans pour autant avoir besoin de fantasmer sur les intentions présidentielles de Mark Zuckerberg, il est au moins acquis et avéré qu’à l’échelle qu’atteint aujourd’hui Facebook, il ne peut pas, il ne peut plus faire l’économie d’un projet politique.

    L’autre question liée est celle de l’intentionnalité de la collecte et de l’usage qui est fait de ces immenses volumes de données. L’un des ingénieurs en intelligence artificielle chez Google, François Chollet, a peut-être très opportunément, mais de mon point de vue très justement, indiqué quel était l’enjeu principal de cette intentionnalité en déclarant sur son compte Twitter (je souligne) :

    « Le problème avec Facebook n’est pas « uniquement » la question de la privacy et le fait qu’il puisse être utilisé comme un panoptique totalitaire. L’aspect le plus inquiétant à mon avis est son utilisation de notre consommation d’information comme un outil de contrôle psychologique ("The more worrying issue, in my opinion, is its use of digital information consumption as a psychological control vector"). […] En bref, Facebook est en capacité de simultanément prendre la mesure de tout ce qui nous touche et nous concerne, et de contrôler l’information que nous consommons. Quand vous avez à la fois accès à ces dimensions de perception et d’action, vous faites face à une situation classique en Intelligence Artificielle. Vous pouvez établir une boucle logique optimisée pour le comportement humain. […] Une boucle dans laquelle vous observez l’état actuel de vos cibles et déterminez l’information avec laquelle il est nécessaire de les alimenter, jusqu’à ce que vous observiez les opinions et les comportements que vous voulez obtenir. Une bonne partie du champ de recherche en Intelligence Artificielle (particulièrement celle dans laquelle Facebook investit massivement) concerne le développement d’algorithmes capables de résoudre de tels problèmes d’optimisation, de la manière la plus efficace possible, pour pouvoir clore la boucle et disposer d’un niveau de contrôle total sur le phénomène. »
    Quel impact sur les comportements ?

    Et la dernière question est celle de savoir si cette énième affaire, s’ajoutant à la liste déjà longue des casseroles qui collent à l’image de la plateforme sociale, aura ou non une incidence sur le comportement des usagers, sur nos comportements. Un article du New York Times indiquait que Zuckerberg aurait été averti de l’essentiel des révélations qui allaient être faites quinze jours avant leur sortie, et qu’il aurait sous-estimé le tollé que cela allait susciter. Il est plutôt probable que Zuckerberg ait vu dans cette affaire l’occasion d’un crash test bienvenu : voir jusqu’où les utilisateurs sont prêts à tolérer que la plateforme continue de faire et de laisser-faire absolument n’importe quoi avec leurs données, voir jusqu’où l’idée que Facebook soit reconnu comme un formidable média de manipulation de masse n’empêche en rien d’en avoir un usage trivial nous servant simultanément d’exutoire, de service de mise en relation et un peu aussi de source d’information.

    Croire que cette affaire sera un éclair de lucidité dans l’opinion et permettra une prise de conscience accrue des enjeux posés par une plateforme privée rassemblant deux milliards d’utilisateurs sur un modèle économique de régie publicitaire est une chose. Imaginer que cela impactera les comportements de ces mêmes utilisateurs en est une autre. Ceux qui le pensent font la même erreur que ceux qui pensaient que Trump n’avait objectivement absolument aucune chance de l’emporter tant l’énormité de ses prises de parole ou ses positions était une caricature de caricature.
    Ne pas se tromper de cible

    Par l’architecture de panoptique sur laquelle il repose, Facebook ne peut de toute façon pas être autre chose qu’un instrument de surveillance. L’utiliser comme tel n’est ni « bon » ni « mauvais » mais juste « logique et cohérent ». Et ses 2 milliards d’utilisateurs n’ont pas besoin d’une quelconque perversité pour se mettre à se surveiller les uns les autres dès lors qu’ils sont installés dans cette architecture panoptique. Fenêtre sur cour. La fonction crée l’organe et l’architecture crée la perversité des régimes de sur- ou de sous-veillance. N’espérons donc pas davantage un changement de mentalité, de moralité ou un exode des utilisateurs à la faveur des révélations de ce nouveau scandale ; « révélations » qui ne sont en fait que la répétition et l’incarnation de la fonction panoptique de la plateforme. Et n’espérons pas davantage que les excuses de Zuckerberg changeront quoi que ce soit. Sans changement d’architecture et sans changement de modèle économique, rien ne pourra changer dans les logiques d’usage que la plateforme autorise.

    Entre responsabilité effective et influence relative dans l’élection américaine, et qu’il s’agisse de Facebook ou de Cambridge Analytica, il ne faut pas que nous nous trompions de cible en combattant les symptômes plutôt que le mal. La solution pour empêcher l’accession au pouvoir de personnalités névrotiques ou simplement avides de leur propre suffisance ne se trouve pas dans la régulation de Facebook ou dans l’abolition de son modèle publicitaire mais dans le seul champ de l’action publique. Dans le champ du politique dont Facebook n’est que le reflet le plus souvent hors-cadre.

    C’est sur l’incurie de l’action politique et sur la perte de sens de la parole politique que se fabrique et s’entretient le modèle d’affaire des agences de RP comme Cambridge Analytica. « Building a community », comme ne cesse de le répéter Zuckerberg, n’est rien d’autre qu’un slogan marketing totalement creux. La seule chose que Facebook ait jamais permis de construire c’est une architecture de la surveillance dans laquelle Mark Zuckerberg a constitué une audience dont viennent se repaître annonceurs et agences de RP. Et la seule communauté qui vaille est celle des intérêts financiers de la firme.

    Facebook n’est que le reflet du naufrage de la publicitarisation de l’action publique et de la parole politique. De la société du spectacle de Debord, décidément visionnaire à plus d’un titre. Mais plus qu’un reflet Facebook est aussi un miroir. Le miroir qui nous est tendu de l’Hiroshima démocratique qui nous attend collectivement si nous n’arrivons pas à redresser la barre. Car quand Facebook ou Zuckerberg se mettront vraiment à faire de la politique, alors il sera en effet trop tard.

    Olivier Ertszcheid est l’auteur de l’Appétit des géants (2017, C&F éditions)
    Olivier Ertzscheid Enseignant-chercheur en sciences de l’information et de la communication à l’université de Nantes

    #Olivier_Ertzscheid #Facebook #Politique_algorithmes