• Contenir la pandémie sans confinement ? COVID 2 - YouTube
    https://www.youtube.com/watch?v=e3WXfTOw7xY

    Dans cette vidéo, on explore les différentes options pour réduire le taux de reproduction effectif Rt. En dehors d’un confinement généralisé, il semble indispensable d’exploiter des solutions comme le contact tracing électronique. Cependant, celui-ci ne sera efficace que si une large proportion de la population l’utilise (l’effet est quadratique). Sa promotion massive semble donc critique.

    NB : Après la mise en ligne de cette vidéo, j’ai découvert ces deux autres publications qui estiment elles aussi que la fraction des contaminations pré-symptomatiques semblent ~50%. Voilà qui confirme l’importance du contact tracing pour réduire le taux de reproduction effectif.
    https://www.medrxiv.org/content/10.1101/2020.03.05.20031815v1
    https://wellcomeopenresearch.org/articles/5-58

    Lancez vos simulations épidémiologiques à la 3Blue1Brown :
    https://prajwalsouza.github.io/Experiments/Epidemic-Simulation.html

    #COVID19 #coronavirus #simulations

    • Je vais essayer d’être diplomate (même si c’est pas gagné) car je comprends qu’avec l’inquiétude actuelle et l’impuissance dans laquelle nous sommes isolés, certaines personnes soient tentées de trouver dans le contact tracing une solution à étudier attentivement.
      Se consacrer à cela n’est-il pas un moyen efficace de se détourner de la réalité de la maladie et de ses effets de bord sociaux et politiques déjà à l’œuvre ?
      Pouvons nous essayé de prendre un peu de distance au lieu de rêver à un miracle technologique (que certain·es nomment le #bluff_technologique) pour analyser factuellement les proratas médicaux (tests/masques/soins hospitaliers), puis si il le faut vraiment creuser l’application du contact tracing d’un point de vue uniquement technique (comment marche le bluetooth et avec qui).
      Faire cela avant même d’activement se remémorer l’histoire de la mise en place exponentielle des moyens de surveillance globale de la population appuyés sur la peur et la précipitation depuis 25 ans ? avant même de penser qu’un tel basculement ne peut nous mener qu’à la mise en danger de la démocratie ?

      https://seenthis.net/messages/844226

    • De toute manière, sur une bonne partie de la population, ça ne marchera pas plus qu’un numéro vert pour un problème de société.

      1⃣ Il faut des téléphoner compatibles (et beaucoup de gens préfèrent des téléphones qui ne font qui téléphoner).
      2⃣ Il faut savoir les utiliser → on est toujours pas certains d’avoir réussi à expliquer à ma belle-mère comment avoir une téléconsultation avec sa psy.
      3⃣ ceux qui réunissent les 2 premières conditions sont les + susceptibles de savoir aussi contourner le dispositif au besoin.

      Donc, on arrête de perdre du temps sur des doudous stupides et on doit juste repenser toute l’organisation sociale…

    • C’est le problème rencontré en sécurité informatique où sur l’usage d’outils que nous pensons basiques, le dysfonctionnement est d’abord entre la chaise et l’écran.

      Un exemple aussi d’une grand-maman bien connue de mes services bisoux virtuels à qui j’ai envoyé un lien à cliquer pour pouvoir échanger par visio sur jitsi. Une heure au téléphone pour lui demander de cliquer sur le lien qu’elle avait reçu sur sa tablette (oui, la famille lui a offert une tablette second prix l’année dernière pour qu’elle reçoive de leurs nouvelles). Elle a abandonné, on devait se voir depuis Noël, on repoussait notre venue, voila, on ne se verra pas, même pas en visio.

      Cette dame de 83 ans sait toutefois se servir des textos, au grand dam de ses petits enfants qui reçoivent des SMS de trois mots quand ils se sont fendus d’un long texte bien écrit en beau français :)

    • D’autres points à considérer :

      – les outils technologiques de surveillance de masse existent déjà, qu’on le veuille ou non ; si les services de renseignement veulent tracer où tu as été et qui tu as fréquenté, c’est déjà faisable, et sans doute déjà fait dans de nombreux pays, comme l’a montré Snowden ;

      – Facebook, c’est 37 millions d’utilisateurs actifs chaque mois en France. Prétendre que les gens ne sont pas équipés, ne savent faire, ou qu’ils ne veulent pas se faire fliquer, c’est une vue de l’esprit ; il y a de nombreuses difficultés avec les logiciels « privacy first », mais l’aspect diffusion/acceptabilité ne me semble pas le plus complexe ;

      – une question qui se pose de manière extrêmement urgente, c’est de savoir si les États vont utiliser cet épisode pour officialiser les outils les plus intrusifs et répressifs, où si l’on peut refuser l’officialisation des outils tels qu’ils sont ouvertement utilisés dans l’autres pays, et pousser pour aller vers les outils conçus par des spécialistes du « privacy-first » plutôt que par Palantir et avec une absence à peu près totale de contrôle démocratiqu ;

      Dit autrement : les outils de surveillance de masse existent déjà, mais leur valeur répressive est relativement limitée, parce que leur utilisation n’est pas officielle (c’est du domaine du renseignement, qui est certes très problématique, mais qui est plus ou moins limité). Si on officialise ces outils dans le cadre de l’épidémie, on change d’échelle, et leur valeur répressive restera, parce qu’on aura accepté ça cette fois. Une fois qu’on aura officialisé l’idée qu’un outil à la Palantir est utile en étant accessible aux flics « de terrain » et peut être utilisé dans une procédure juridique (démontrer que tu n’as pas respecté le confinement plusieurs fois de suite), ça restera si on invoque le terrorisme, les black blocks, les néonazis, les violeurs pédophiles ou je ne sais quoi. L’alternative envisagée, c’est donc de proposer l’utilisation d’outils conçus pour ne pas pouvoir être utilisés de manière répressive (parce que sans moyens d’identification) mais qui rempliront le même but (limiter la propagation de l’épidémie), retirant ainsi la « justification » de l’utilisation de moyens intrusifs.

      – le grand risque, c’est que le déconfinement soit suivi, moins d’un mois après, par une hausse brutale des contaminations et l’imposition dans l’urgence d’un second confinement ; s’il y a échec du déconfinement (et ça nous semble à tous très probable), la question des libertés publiques deviendra tellement accessoire qu’on va pleurer. Si l’État se retrouve avec un second confinement et absolument tout le monde qui exige de lui de trouver immédiatement une solution (Saint Raoult priez pour nous), je n’ai rigoureusement aucune doute, mais alors aucun, que les méthodes instaurées seront d’une violence que l’on pense aujourd’hui impossible. Croire qu’on échappera alors à Palantir et à la surveillance électronique renforcée (tout ça sera de toute façon réclamé par la population), ça me semble dangereusement naïf. On prendra le logiciel et les méthodes de flicage sud-coréens, au mieux, et on les appliquera à la Lallement, et ce ne sera plus du tout discutable.

      – dans l’immédiat, on n’a pas le droit de sortir de chez nous, si on le fait c’est avec la crainte de tomber sur des flics, on n’a pas le droit de se rencontrer, on n’a pas le droit de manifester, on n’a pas le droit d’aller voter, l’effondrement économique a aussi pour conséquence qu’on a de moins en moins la possibilité de subvenir aux besoins de sa famille (je ne suis pas pour le « tout économique », mais tout de même), ce sont les plus faibles socialement et physiquement qui en prennent plein la gueule les premiers, etc. On n’est pas dans une situation où il y aurait des choix parfaits, et où l’on peut considèrer des absolus quant à nos libertés. Parce que pour l’instant et pour une période dangereusement longue, notre libertés fondamentales sont déjà abolies (aller et venir, rassemblement, démocratie, éducation…).

      – l’autre grosse alternative, et c’est certainement la solution qui se met en place sans le dire explicitement, c’est l’immunité de groupe (malgré les doutes sur l’immunité). Le confinement ne sert dans cette optique qu’à atteindre un niveau d’acceptabilité, dans nos démocraties, au fait qu’on va laisser crever une partie de notre population. Le coût d’un second confinement serait tellement intolérable que la population acceptera ce choix, initialement indéfendable. Depuis une semaine, on a d’ailleurs en France toute une littérature qui fleurit allant dans ce sens.

      Du coup, dans cette logique (et dans un sens donc contraire aux considérations précédentes), on peut suspecter que l’annonce du logiciel soit, justement, une sorte de gri-gri destiné à calmer l’opinion et justifier le déconfinement, et pouvoir dire, s’il y a trop de morts, que vous voyez bien, on avait tout mis en place, mais les gens n’ont pas voulu utiliser l’outil qu’on leur avait proposé. (Donc c’est la faute aux gens.)

    • Tout comme Arno, je pense que la plupart des gens vont installer l’appli sans sourciller, tout comme ils utilisent Facebook et tous les services de Google... Il n’y a qu’à voir aussi comment en ce moment tout le monde se rue sur Zoom malgré tous les articles et avertissements qu’on peut lire partout, alors que des alternatives tout aussi pratiques (voire mieux) et open-source existent, comme jitsi. La question est donc d’exiger une appli qui ne fera que du tracking anonyme et rien d’autre. J’y crois moyen et en même temps j’ai une petite lueur d’espoir depuis que j’ai vu que le code de leur formulaire d’attestation dérogatoire était publié sur Github (même si on peut toujours penser que le code effectivement mis en œuvre n’est pas tout à fait celui qui nous est présenté).

    • – les outils technologiques de surveillance de masse existent déjà, qu’on le veuille ou non ; si les services de renseignement veulent tracer où tu as été et qui tu as fréquenté, c’est déjà faisable, et sans doute déjà fait dans de nombreux pays, comme l’a montré Snowden ;

      Tu fais des suppositions non démontrées et en avançant ainsi tu considères que personne n’y peut rien et tu invites à renoncer à dénoncer les différents procédés de surveillance et de suivi. L’argument du on le sait déjà n’est pas recevable, parce qu’il tient du fantasme paranoïaque, ça ne veut pas dire que c’est faux, mais qu’il y a certaines formes de surveillance. Heureusement qu’il existe encore des moyens d’y échapper.

      – Facebook, c’est 37 millions d’utilisateurs actifs chaque mois en France. Prétendre que les gens ne sont pas équipés, ne savent faire, ou qu’ils ne veulent pas se faire fliquer, c’est une vue de l’esprit ; il y a de nombreuses difficultés avec les logiciels « privacy first », mais l’aspect diffusion/acceptabilité ne me semble pas le plus complexe ;

      Merci de citer tes sources. 37 millions de comptes actifs, ce n’est pas 37 millions de personnes. Ce n’est pas une vue de l’esprit de se rendre compte que les personnes les plus exposées sont des personnes qui ne sont pas équipées en smartphone. On ne parle pas d’un ordinateur à la maison.

      – une question qui se pose de manière extrêmement urgente, c’est de savoir si les États vont utiliser cet épisode pour officialiser les outils les plus intrusifs et répressifs, où si l’on peut refuser l’officialisation des outils tels qu’ils sont ouvertement utilisés dans l’autres pays, et pousser pour aller vers les outils conçus par des spécialistes du « privacy-first » plutôt que par Palantir et avec une absence à peu près totale de contrôle démocratique ;

      Il y a urgence de masques et de tests, de lits d’hopitaux mais certainement pas urgence de la mise en place d’une surveillance sociale de masse électronique telle qu’elle voudrait s’imposer actuellement. N’oublions pas le contexte politique, voir la différence de gestion sanitaire en Allemagne et en France, on parle bien d’un but sanitaire et tout concoure à montrer le contraire. Je continue de dire que nous nous épuisons dans un débat technologique qui ne devrait pas avoir lieu et qui est une façon de nous détourner des réalités catastrophiques.

      Je peux malheureusement répondre oui à la première question, parce que cela se vérifie à chaque crise depuis 25 ans, les libertés se réduisent aux profits d’un Etat sécuritaire, toute occasion est bonne et les tenants de la surveillance électronique, du croisement de fichiers et du traçage sont des lobbyistes très actifs, de type Babinet (video youtube du 1er avril), qui n’ont aucune limite ni scrupule politique à t’exposer que les mails sont une source à prendre en compte dans le dossier médical multidatas qu’ils promeuvent et qui rêvent de fermer la CNIL déjà réduite à rien. Concernant Palentir, c’est une boite américaine qui analyse pour la DGSE et autres services secrets français les résultats des données collectées en france. Ça me laisse toujours pontoise de réaliser que les français sont carrement naïfs ou que nous sommes simplement toujours dans les mains des mêmes industriels du complexe militaro industriel depuis 1941 qui font croire à une guerre économique entre pays alors qu’elle est entre classes dominantes et les 99% qui subissent leurs incompétences délirantes et leurs fantasmes de contrôle total. Mais oui, je pense que ce sera Palantir et Consorts et même pire.

      Pour revenir à la croyance en des alternatives de traçage, à partir du moment où les principes démocratiques sont baffoués parce qu’il y aura violation de la vie privé via une technique de suivi personnalisé (sous des prétextes fallacieux car je répète que l’efficience sanitaire du traçage est loin d’être prouvée), qu’elle soit anonyme ou pas ne change rien (il n’y a pas d’anonymat dans du traçage), ni de garanti par un encadrement de la CNIL qui a appris à aplatir ses prérogatives chaque fois qu’un échelon supplémentaire est franchi.

      Je vois plutôt se profiler une surveillance de multiples sources justifiée par une meilleure efficience et surtout pour notre bien sanitaire. FB+internet+conversations filtrées+Géolocalisation+traçage+biométrie+rfid+ saupoudrage d’un peu d’alternatifs pour faire plaisir aux geeks qui rêvent d’un monde libre informatisé et faire croire que tout est sous contrôle démocratique.

      Nos avis démocratiques ne pèseront pas grand chose face aux milliards de $ que pèsent les données de santé et de profilage, surtout pour sauver des vies dont ils se foutent totalement. Ce qui m’intéresse à regarder actuellement c’est la méthode de persuasion qui va être utilisée. Ça suit son cours et la diversion fonctionne à merveille …

      Dit autrement : les outils de surveillance de masse existent déjà, mais leur valeur répressive est relativement limitée, parce que leur utilisation n’est pas officielle (c’est du domaine du renseignement, qui est certes très problématique, mais qui est plus ou moins limité). Si on officialise ces outils dans le cadre de l’épidémie, on change d’échelle, et leur valeur répressive restera, parce qu’on aura accepté ça cette fois. Une fois qu’on aura officialisé l’idée qu’un outil à la Palantir est utile en étant accessible aux flics « de terrain » et peut être utilisé dans une procédure juridique (démontrer que tu n’as pas respecté le confinement plusieurs fois de suite), ça restera si on invoque le terrorisme, les black blocks, les néonazis, les violeurs pédophiles ou je ne sais quoi. L’alternative envisagée, c’est donc de proposer l’utilisation d’outils conçus pour ne pas pouvoir être utilisés de manière répressive (parce que sans moyens d’identification) mais qui rempliront le même but (limiter la propagation de l’épidémie), retirant ainsi la « justification » de l’utilisation de moyens intrusifs.

      Prends juste l’exemple de Tarnac, avec Coupat qui est soupçonné parce qu’il n’a pas de téléphone portable, la répression est déjà là et n’a pas besoin de notre accord pour se déployer. La technique le permet, la répression suit, l’accompagne. Ce n’est pas de quelle manière cela va se déployer, ni si il y a anonymat ni si les intentions sont louables, mais si nous savons faire bloc contre cette hallucination collective pro technosurveillance. Je préfère me battre contre toutes les prisons car il n’y a pas de prison alternative.

      – le grand risque, c’est que le déconfinement soit suivi, moins d’un mois après, par une hausse brutale des contaminations et l’imposition dans l’urgence d’un second confinement ; s’il y a échec du déconfinement (et ça nous semble à tous très probable), la question des libertés publiques deviendra tellement accessoire qu’on va pleurer. Si l’État se retrouve avec un second confinement et absolument tout le monde qui exige de lui de trouver immédiatement une solution (Saint Raoult priez pour nous), je n’ai rigoureusement aucune doute, mais alors aucun, que les méthodes instaurées seront d’une violence que l’on pense aujourd’hui impossible. Croire qu’on échappera alors à Palantir et à la surveillance électronique renforcée (tout ça sera de toute façon réclamé par la population), ça me semble dangereusement naïf. On prendra le logiciel et les méthodes de flicage sud-coréens, au mieux, et on les appliquera à la Lallement, et ce ne sera plus du tout discutable.

      Depuis le début du covid le gvt nous mène en bateau, je n’ai aucun doute qu’on arrivera à palentir par un chemin ou un autre et en plus avec l’assentiment de la population et le chemin le plus court trouvé pour le moment c’est de laisser travailler les « alternatifs » dessus, histoire que la gauche technophile se foute bien sur la gueule.

      – dans l’immédiat, on n’a pas le droit de sortir de chez nous, si on le fait c’est avec la crainte de tomber sur des flics, on n’a pas le droit de se rencontrer, on n’a pas le droit de manifester, on n’a pas le droit d’aller voter, l’effondrement économique a aussi pour conséquence qu’on a de moins en moins la possibilité de subvenir aux besoins de sa famille (je ne suis pas pour le « tout économique », mais tout de même), ce sont les plus faibles socialement et physiquement qui en prennent plein la gueule les premiers, etc. On n’est pas dans une situation où il y aurait des choix parfaits, et où l’on peut considèrer des absolus quant à nos libertés. Parce que pour l’instant et pour une période dangereusement longue, notre libertés fondamentales sont déjà abolies (aller et venir, rassemblement, démocratie, éducation…).

      C’est assez bien vendu en effet mais je n’achète pas.

      – l’autre grosse alternative, et c’est certainement la solution qui se met en place sans le dire explicitement, c’est l’immunité de groupe (malgré les doutes sur l’immunité). Le confinement ne sert dans cette optique qu’à atteindre un niveau d’acceptabilité, dans nos démocraties, au fait qu’on va laisser crever une partie de notre population. Le coût d’un second confinement serait tellement intolérable que la population acceptera ce choix, initialement indéfendable. Depuis une semaine, on a d’ailleurs en France toute une littérature qui fleurit allant dans ce sens.

      Disons que laisser mourir des personnes et même les euthanasier sans leur accord ni celui de leurs familles sous prétexte qu’ils auraient peut-être le covid et qu’il n’y a pas assez de lits en réanimation c’est aujourd’hui et maintenant en france. Ça me suffit pour voir que ce gouvernement n’en a absolument rien à foutre de sa population et que s’il faut s’allier aux pires des américains pour réaliser le grand panoptique de surveillance cette crise servira comme excellent prétexte et au lieu de tests et de masques et de lits d’hopitaux, tout le monde demandera des drones et du traçage et de la répression bien entendu.

      Du coup, dans cette logique (et dans un sens donc contraire aux considérations précédentes), on peut suspecter que l’annonce du logiciel soit, justement, une sorte de gri-gri destiné à calmer l’opinion et justifier le déconfinement, et pouvoir dire, s’il y a trop de morts, que vous voyez bien, on avait tout mis en place, mais les gens n’ont pas voulu utiliser l’outil qu’on leur avait proposé. (Donc c’est la faute aux gens.)

      Oui, parfaitement d’accord, c’est la méthode de persuasion qui sera probablement utilisée, le #bluff_technologique, one more time.

    • Pour poursuivre mes propos, voila comment avec #stopcovid les bonimenteurs du traçage numérique des #données_personnelles sensibles commes les #données_de_santé peuvent enfin placer leurs discours : ici le babinet national, qui refuse de dire pour quelles entreprises il travaille (YT V4yf3HOEHPk) mais dispose de sa place en tant que #digital-champion (sic) français (groupe des conseillers au numérique européen). Souvenez-vous, c’est lui qui voulait fermer la CNIL et sert ici de conseil au smartank de l’#institut_Montaigne (Bébéar), ne vous méprenez pas sur le style alternatif cool sympa qu’il se donne, ce qu’il propose est bien une #société_de_contrôle totalitaire avec profilage médical de chacun·e basé sur l’aspiration de données provenant de sources diverses comme les données d’alimentation ou la lecture des emails …
      extrait de la vidéo

      1er avril 2020
      https://www.youtube.com/watch?v=Rxt-8Z1dQHg?t=471

      Comment ça, vous ne saviez pas à quoi vous attendre avec la république numérique de Macron ?

      #future-of-innovation-in-europe
      Friday, 20 March
      https://www.iiea.com/event/france-and-the-future-of-innovation-in-europe

      In his address to the IIEA, Gilles Babinet will offer his perspective on the future of innovation in Europe and discuss the French Government’s work on innovation and startups (Visa Tech, Next40). He will comment on the implications of europeanisation as French efforts increasingly focus on French champions. Gilles Babinet will also discuss issues such as 5G, connected objects, the need for an overarching ecosystem and how to prepare for it.

    • De Moreno à #Babinet, vive la France. Merci @touti.
      Des notes partielles et hachetagueuses dont vous pouvez vous passer car elles sont peu utilisables (à l’envers de seenthis, je le crains).
      #biopolitique et #biopouvoir se cuisinent en public sur FB dans une ambiance de coolitude concentrée, Kuhn, Vermer et tant d’autres à la rescousse. Bracelet brésilien, faut voir la tronche du type et entendre son phrasé, dans une micro Station F humanisée par des plantes, il regarde dans sa pensée et l’avenir, et pas la caméra, mais au dessus d’elle, en contre plongée façon Mussolini 2.0 ou Psychose d’Hitchcock, c’est comme à Paris, on ne reconnait plus bien bien les fascisants, et les nombreux bourges qui se la jouent n’importe qui (camouflage social et politique : il y aurait donc une guerre quand même ?).

      #bio-statistique #économie_comportementale #paradigme (changement voire rupture de), des #données_structurées à la #règle_des_trois_V : #volume #vélocité #variété ce qui donne accès et lisibilité à des #données_non_structurées : #compte_rendu_médicaux #dossiers_patients #données_cohorte
      et une foule d’autres (voir capture d’écran dans le seen de Touti) après avoir été limité par une #malédiction_dimensionnelle qui contraignait à des #extractions, celle-ci cède le pas avec l’#IA et le # machine_learning, #_google_flew_ « a été critiqué » mais montrait le chemin #géolocalisation #mels #données_Gafam #données_privées, tout doit y passer car rien de ce qui est humain ne nous est étranger.
      oui, oui, oui, « on conçoit qu’il y a des risques #privacy »
      santé, « il n’y a jamais eu de réduction de l’investissement » (tour de passe-passe quantitativiste qui ne dit rien des usages de l’argent, de leurs implication ou de la qualité de soin), ce qui domine c’est la « dépense hospitalière plus que la médecine de ville dans ce modèle », là on s’approche d’un os, puis d’un autre : « #prévention moins financée qu’ailleurs » (intégration et renversement de la critique).
      La #santé_algorithmique bouleverse l’#épidémiologie. Il s’agit de #détecter_en_amont (ce que fait une partie de « l’Asie ou la concentration de population fait tourner le dos au modèle européen »), de pratiquer une #épidémiologie_prédictive (et avant non ? la rétrospection était pas destinée à prévoir ?)
      « #tranversalisation, plutôt que bureaucratie et ses silos » (là aussi reprise de la critique de la segmentation/séparation, à ses propres fins : des solutions pour #money_makers).
      #épidémiologie_de_masse (pléonasme, l’épidémiologie taffe sur la population) : « regarder comment les gens se déplacent, par grappe ou de façon individuelle »
      #hôpital_de_ville #back_tracking #contrôle_de_la_quarantaine
      #gouvernance_de_la_donnée
      En #Estonie, c’est remarquable (Demain tous estoniens, livre) : « on voit quand un fonctionnaire regarde ses données, si ce n’est pas justifié, on peut gagner son procès », « obtenir des sanctions » (jusqu’à la prison pour un fonctionnaire, on a pas dit un patron de labo ou un ministre mais quand même, c’est beau comme la démocratie), ça nécessite un #parquet_indépendant (...) et la réduction du #pouvoir_administratif.
      #épidémiologues_2.0 « capables de se mettre à la hauteur d’une vison politique » (de politiques qui se foutent de l’épidémiologie, à voir les deux mois qui viennent de passer ? ça risque pas de faire dégringoler encore l’épidémiologie ? Il ya une épidémiologie à détruire pour en imposer une autre ?)
      #États et #plate_forme ? Il faut un #État_plateforme pour une société inclusive ! Un État autonome du privé (...), de l’#empowerment ( sic ) du #citoyen (...), « faire du #réveil_de_la_société_civile un levier ». Fonder la politique menée sur la liberté des sujets pour faire marcher la société de concurrence, adopter un néolibéralisme authentique plutôt que de jouer Clémenceau et autres « pères de la Nation », Macron en tombe par terre.
      Avec la révolution numérique, on a une #technologie_de_l'aplatissement (Stallman avec nous !), avec ses travers, dont les #Gafam (...), faut jouer à plein cette #révolution_numérique contre le pli du #colbertisme, ce mal français qui est une qualité du « communisme » chinois selon nombre des coreligionnaires de Balbinet (nombreuses sont les demeures dans la maison du père, et chez maman cybernétique, c’est pareil, comme dirait Brigitte Fontaine).
      Là, « la collaboration Gafam/États avance grâce à l’urgence, par exemple les fake-news sur les gestes barrière sont retirées. » Reste que les flutes incohérentes de Trump, Bolsonaro, Johnson, Macron, quelques collègues à eux et leurs cliques respectives, et malheureusement les Gafam y peuvent rien, Twitter bloque pas Trump et pis c’est la faute à LCI. Si ces Gafam « c’est pas forcément de l’abus de position dominante mais il faudrait de l’anti-trust... les démanteler, les granulariser pour plus de #darwinisme », le #bien_commun étant représenté par les États (mais oui mais oui).
      L’#Europe, ça pourrait être une chance, « on a le plus grand nombre de publications_scientifiques », on peut jouer un rôle mondial : si #prise_de_température_dans_les-Aéroports et que ça monte au dessus de la moyenne, hop !
      « Dommage qu’il y eu le scandale #Cambridge_Analytica ça a freiné, arrêté ; les opérateurs télécoms ont fermés l’accès aux données de traces. »
      #RGPD préservation des données individuelles, ça a « valeur constitutionnelle, c’est bien. Mais c’est compliqué. Ça empêche l’expérimentation. »
      "Je milite pour un #Numérique_inclusif " (tu m’étonnes !).
      Le #privacy_by_design, ça existe, c’est bien, les infos remontent pas vers un sytème central (exemplairement à Singapour lors de Covid-19) « mais si vous voulez un #governement_by_the_plattform, c’est tout autre chose et il faut des contre pouvoir ».
      « J’ai travaillé sur la carte vitale en 1991, il y avait les fonctionnalités du #DMP dedans, le système c’est enrayé. Là il y un regain volontariste : DMP et #Health_data_hub » pour centraliser tout type de données.
      Les DMP dans le monde ont essuyé des échecs (G-B par exemple). « Forts de ces échecs ont a des garde fous. Il a déjà 5 millions de personnes qui ont ouvert un DMP en France, c’est pas mal. »

      #Afrique, il y a de quoi s’inquiéter, faut espérer que la pandémie arrive plus tard là-bas vu l’absence de système de santé, ça va être dur, très dur, mais « le Nigéria et l’Angola avec leur expérience ébola ont monté des équipes extra, j’espère qu’on va pouvoir leur chiper des méthodes. » "Ce qui compte c’est qu’il y ait le moins de morts possibles."

      Argument sanitaire ? Je dirais zéro, si ce n’est la promesse de prédire (une vraie science de la vie de troupeau).
      C’est la société de contrôle qui mute : il faut trouver d’autres moyen de faire produire les données existantes, toues nos traces de vie, en faite des expressions lisibles pour la gouvernance.
      La Boétie, revient ! ton meilleur pote est ressuscité, il est plus le même du tout, celui que tu as connu se haïrait, il a besoin de toi.

      #solutionnisme_technologique

  • Christopher Wylie : « #Cambridge_Analytica a fermé, mais ses #tactiques n’ont pas disparu »
    https://www.lemonde.fr/pixels/article/2020/03/11/christopher-wylie-cambridge-analytica-a-ferme-mais-ses-tactiques-n-ont-pas-d

    ENTRETIEN
    L’ancien salarié de l’entreprise avait révélé le vol massif de données personnelles à des fins politiques par l’ancienne société britannique. Il publie aujourd’hui en français son livre, « Mindfuck ».

    Sa coiffure colorée s’est affichée sur les télévisions du monde entier il y a deux ans. Christopher Wylie, ancien salarié de l’entreprise Cambridge Analytica, est le lanceur d’alerte qui a révélé l’existence du gigantesque #vol_de_données_personnelles issues de #Facebook à des fins politiques mené par cette entreprise britannique, au profit notamment de la campagne de Donald #Trump et du #Brexit.

    Lire : tous nos articles sur l’affaire Cambridge Analytica

    Son livre, Mindfuck, est publié mercredi 11 mars en français aux éditions Grasset (512 pages, 24 euros). Un essai dense, qui parle davantage de politique que de technologie, et un outil précieux pour comprendre les mécanismes de l’ascension au pouvoir de Donald Trump.

    A la fin de votre livre, vous êtes au chômage, et un peu dépassé par votre nouvelle célébrité. Que faites-vous aujourd’hui ?
    Christopher Wylie : Ma vie est redevenue plus ou moins normale. Je travaille pour H&M. J’ai eu mon dernier rendez-vous avec des enquêteurs il y a deux semaines. Je suis encore très occupé, mais ma vie est un peu moins frénétique. Vivre sous la surveillance constante du public, ça devient épuisant au bout d’un moment.

    Que retenez-vous de toutes ces enquêtes dans lesquelles vous avez témoigné ?
    J’ai appris que, parfois, les preuves ne suffisent pas. Ça a été le cas dans l’enquête sur la campagne du Brexit. J’ai fourni aux autorités les preuves que Vote Leave, la campagne officielle, avait consacré 40 % de ses dépenses à une filiale de Cambridge Analytica au Canada. Ces dépenses étaient illégales, comme l’ont reconnu les autorités. Donc nous savons que Vote Leave a triché. C’était la plus importante violation de la loi électorale dans toute l’histoire de l’Angleterre.

    Pourtant, malgré toutes ces preuves, rien ou presque n’a été fait. Personne n’a dit « peut-être que nous devrions mettre tout ce processus en pause, en attendant la fin de l’enquête, parce qu’il est possible que cette triche ait eu un impact sur le vote ».

    Il y a pourtant eu des commissions parlementaires (liées à Cambridge Analytica) dans de nombreux pays, des sanctions, des amendes…
    Oui. Mais les régulateurs et les élus, pour la plupart, ne comprennent pas vraiment ce à quoi ils ont affaire. Ils reprennent à leur compte les éléments de langage de Facebook, qui dit « nous sommes un service, nous sommes gratuits, personne n’est obligé d’utiliser notre plate-forme ». C’est comme dire que l’électricité est un service et que si vous ne voulez pas être électrocuté, vous n’avez qu’à vous passer de courant ! Les données, comme l’électricité, sont partout, et peuvent être dangereuses.

    Beaucoup d’élus m’ont dit : « Vous savez, je suis un député, je n’y connais rien en technologies. » Peut-être, mais ça ne vous empêche pas de réguler les compagnies aériennes, les entreprises pharmaceutiques ou du nucléaire !

    Nous avons aujourd’hui un secteur de la technologie à qui on laisse le droit d’expérimenter en direct sur nos sociétés et nos démocraties, sans conséquences pour lui lorsque ça se passe mal. Or, quand vous laissez une bande d’ingénieurs californiens, majoritairement des hommes blancs, créer un produit et l’appliquer à un pays qui a un passé de violences ethniques et religieuses, il se passe ce qui s’est passé en Birmanie. Même après avoir été alerté que son service était utilisé par l’armée comme un catalyseur de nettoyage ethnique, Facebook n’a quasi rien fait.

    Pensez-vous que Cambridge Analytica a eu un impact sur le résultat final dans le référendum sur le Brexit ?
    C’est probable. Si ça n’avait pas produit de résultats, Vote Leave n’aurait probablement pas dépensé 40 % de son budget dans ces services. Mais si on parlait de dopage, on ne se poserait même pas la question : quand un athlète est pris sur le fait, on ne se demande pas si les produits qu’il ou elle a pris ont vraiment fait une différence.

    Mike Bloomberg a dépensé des centaines de millions de dollars en publicités ciblées et en analyses de données pour remporter l’investiture démocrate. Mais sa campagne pour les primaires a échoué. Est-ce que ça ne montre pas les limites de ce que faisait Cambridge Analytica ?
    Je ne peux pas me prononcer sur la campagne de Mike Bloomberg en particulier, mais il faut garder à l’esprit que le but initial de Steve Bannon [l’ancien conseiller politique de Donald Trump, chargé de sa campagne électorale en 2016] était de changer la perception du public, pas de faire élire un candidat en particulier. Il a su catalyser le mouvement alt-right, ce qui a ensuite permis à Donald Trump de réussir.

    Cambridge Analytica a commencé en travaillant sur la contre-propagande, et notamment sur les jeunes hommes musulmans célibataires et en difficulté, qui pouvaient être tentés de rejoindre l’organisation Etat islamique. Bannon a ciblé des profils semblables aux Etats-Unis, sauf qu’au lieu de viser les jeunes musulmans pour les « déradicaliser », ils ont visé les jeunes blancs pour les radicaliser.

    Steve Bannon a très vite compris qu’il pouvait s’appuyer sur des mouvements comme le GamerGate, trouver des groupes de personnes extrêmement en colère et qui étaient prêtes à devenir des trolls extrémistes dévoués.

    C’est une différence majeure avec la campagne de Mike Bloomberg. Trump, en 2016, a pu exploiter ces cellules, dans tout le pays, qui étaient nourries de propagande et de conneries, jusqu’à ce qu’elles ne soient plus que des boules de rage pure.

    Steve Bannon, l’éminence brune de Donald Trump
    A la lecture de votre livre, on a l’impression que Steve Bannon a créé l’alt-right de toutes pièces, seul. Ne lui accordez-vous pas trop de crédit ?
    Je ne pense pas qu’il a tout créé lui-même. Steve Bannon n’est pas un magicien venu de l’hyperespace qui a lavé le cerveau de millions de personnes juste parce qu’il avait accès à des données Facebook.

    Mais il a été un catalyseur. Il a compris, avant tout le monde, un certain nombre de choses qui se passaient sur Internet en 2013-2014. Vous en connaissez beaucoup des politiques qui lisaient Reddit et 4Chan à l’époque ? Moi, non.

    Les démocrates ont-ils compris ce qui s’était passé ?
    Pour comprendre l’élection de Trump, il faut réfléchir en matière d’insurrection. Une erreur que font beaucoup de démocrates est qu’ils continuent de considérer Donald Trump comme un candidat politique. Ceci alors que l’alt-right fonctionne littéralement comme une secte, avec des milliers d’adeptes complètement cinglés. Personne n’ose le dire, parce que ce sont les Etats-Unis, mais si Trump était président du Zimbabwe, on ne parlerait certainement pas de « l’administration Trump », mais du « régime Trump ».

    D’autres « Cambridge Analytica » sont-ils possibles ?
    Oui. L’entreprise a fermé, mais ses technologies et ses tactiques n’ont pas disparu. Je ne sais pas ce que font les autres anciens employés. Nous savons désormais pour Cambridge Analytica, pour la Russie, mais que se passera-t-il la prochaine fois, quand la Corée du Nord aura créé son propre Cambridge Analytica ? Ou l’Iran, la Chine, ou même un pays « ami » ?

    Si un bombardier russe survole la France pour larguer des tracts à la veille d’une élection, il y a de fortes chances que l’armée française lui tire dessus. Mais si exactement la même chose se produit dans le cyberespace, subitement plus personne ne sait comment réagir.

    Ma grande crainte est que ces opérations d’influence deviennent la norme dans tous les pays. La désinformation, de gauche comme de droite, est toujours la forme la plus aisément accessible d’information. L’information de qualité est en général derrière un paywall, et la propagande est toujours gratuite.

    Finalement, la seule entité qui semble agir très directement pour limiter la désinformation reste Facebook. L’entreprise a démantelé plusieurs réseaux de désinformation ces dernières années…
    C’est vrai. Mais est-ce que vous, Français, vous voulez vraiment déléguer la gestion de votre vie politique en ligne à une entreprise californienne gérée par une bande de mecs de la Silicon Valley ? Je ne leur fais pas confiance.

    Et depuis quand est-ce que ce rôle peut être délégué à une entreprise privée, qui a un point de vue incroyablement américain sur la plupart des choses ?

    Facebook a recruté un Européen, l’ancien leader du Parti des démocrates libéraux Nick Clegg, à l’un de ses principaux postes. Dans votre livre, vous racontez avoir croisé M. Clegg dans ses anciennes fonctions. Est-ce qu’il ne peut pas apporter justement une vision plus « européenne » ?
    Pensez-vous vraiment que Sheryl [Sandberg] et Mark [Zuckerberg] en ont vraiment quelque chose à faire ? Que diraient les Français si, après son mandat, Emmanuel Macron vous disait que le changement climatique est un sujet extrêmement important et qu’il a donc décidé d’aller travailler pour une compagnie pétrolière pour « changer les choses de l’intérieur » ? Tout ça, ce sont des beaux discours, mais le résultat, c’est que vous travaillez pour une entreprise qui pose de gigantesques problèmes.

    Pourquoi avez-vous travaillé aussi longtemps pour Cambridge Analytica ? Vous expliquez dans votre livre à quel point vous étiez politiquement en désaccord avec sa direction…
    Lorsque vous êtes dans une relation toxique, la situation n’est pas toujours aussi simple. Et je reconnais que j’ai été un peu absorbé par le côté « cool » du projet original.

    Avec le recul, je me rends bien compte que ce n’est pas parce qu’un projet est passionnant qu’il ne peut pas être utilisé pour de mauvaises choses. Le couteau que vous fabriquez peut être utilisé par un chef étoilé au Michelin ou pour agresser quelqu’un. J’ai ignoré beaucoup de signaux qui auraient dû m’alerter.

    Très peu de gens se lancent dans une carrière d’ingénieur en se disant qu’ils veulent détruire la société. Il y a des problèmes de sexisme et de racisme dans la Silicon Valley, mais la plupart des gens qui y travaillent ne cherchent pas à faire du mal. C’est juste qu’ils sont dans un secteur qui ne leur impose pas un code de conduite professionnel strict, qui n’a pas assez d’agences de régulation et de règles.

    Quelles devraient, selon vous, être ces règles ?
    Les codes de conduite pour les architectes ne se contentent pas de regarder à quel point un design est brillant : il leur impose de regarder des choses comme les flux d’air en cas d’incendie. C’est pareil quand vous êtes médecin ou avocat. L’une des raisons qui font que la société vous octroie un prestige lié à votre profession, c’est que vous devez vous conformer à des standards éthiques.

    L’ingénierie informatique n’est plus une niche depuis longtemps. La science des données non plus. Il est grand temps que ces professions évoluent, et adoptent des codes de conduite qui les engagent à titre personnel.

    Aujourd’hui, les entreprises sont confrontées aux régulateurs seulement lorsqu’elles ont fait quelque chose de mal. Dans le secteur de l’aérospatiale ou du médicament, lorsque vous avez une idée pour un nouveau produit, vous devez d’abord demander une autorisation en amont, avant de le lancer. Je ne vois pas pourquoi ça ne pourrait pas s’appliquer aux #réseaux_sociaux.

  • Facebook , gangster aux 55 milliards de dollars Pia de Quatrebarbes - 21 Juin 2019 - Solidaire
    https://www.solidaire.org/articles/facebook-gangster-aux-55-milliards-de-dollars

    Un chiffre d’affaire de plus de 55 milliards de dollars en 2018 : en quinze ans, le réseau aux 2,2 milliards « d’amis » a engrangé un paquet de fric sur nos informations, quitte à s’asseoir sur quelques lois. Un « #gangster_numérique », a tranché le parlement britannique dans un rapport au vitriol... Comment le réseau social qui voulait « rendre le monde meilleur » en est-il arrivé la ?


    Photo Wachiwit /iStock

    En 2008, quand Facebook débarque en France, c’est la ruée sur les « murs ». On y voit alors un formidable moyen de communiquer, partager des photos, personne ne s’y informe encore, mais on y dissémine naïvement des informations aux quatre vents : scolarité, opinion, statut amoureux....et déjà on #like. Rien de grave a priori, #Mark_Zuckerberg, le concepteur du réseau souhaite alors « rendre le monde meilleur ». Pas « le conquérir, seulement rendre les gens plus ouverts et connectés ».

    L’histoire est typique des innovations du web. 4 ans auparavant, dans sa chambre de Harvard, à Boston, le petit génie veut rencontrer des filles, il crée alors avec des camarades un #trombinoscope des étudiants, « The Facebook ». Les universités américaines s’y branchent, puis les lycées et collèges – Il suffit d’avoir 13 ans et une adresse mail. Et bientôt le monde entier : 2,2 milliards d’utilisateurs, un chiffre d’affaires de 55 milliards de dollars, et le 3e site internet le plus visité.

    De ses utilisateurs, il sait à peu près tout !
    Mais 15 ans après, sa firme est devenue un « gangster numérique au dessus des lois ». La sentence est venue mi-février de la Commission du numérique, de la culture et des médias du #Parlement_britannique. Pendant 18 mois, elle a planché sur le scandale #Cambridge_Analytica. Une centaine de témoins ont été auditionnés, mais le PDG de Facebook, lui, a refusé... A la lecture des 110 pages, on comprend pourquoi et comment #Mark_Zuckerberg a choisi « le profit avant la vie privée ».

    Comprenons bien : Que Facebook sait-il de ses utilisateurs ? A peu près tout ! « La pratique la plus problématique, c’est la captation systématique de nos données personnelles », explique Sylvain Steer, enseignant en droit et membre de l’association la Quadrature du Net. Pour les « amis », ce sont donc les contenus publics, les messages privés sur #Messenger, la listes des personnes, pages et groupes suivis, la façon dont on utilise le service et accède aux contenus et les informations sur l’appareil (adresse IP, fichiers présents, mouvements de la souris, accès au GPS et à l’appareil photo).

    Pour ceux qui n’ont pas de compte, la firme de Palo Alto a la solution : le « profil fantôme ». Les #cookies, les boutons « J’aime » et « Partager » affichés sur de nombreux sites, transmettent à Facebook les informations de navigation... En bref, Facebook s’accorde un pouvoir de surveillance de masse.

    Et quand Mark Zuckerberg répète à tout va, « Facebook ne vend pas les données », le parlement Britannique répond : il ment. En cause, le modèle économique : « la gratuité » pour l’utilisateur contre la monétisation de ses données. « Facebook vend aux annonceurs des catégories de publicité. Ce sont l’ensemble des caractéristiques sociales, économiques et comportementales que le réseau associe à chaque utilisateur afin de mieux le cibler », explique Sylvain Steer. « Avec l’argument fallacieux que c’est pour nous proposer des contenus de la façon la plus adaptée : sous entendu la plus subtile ». Facebook est donc avant tout « une #régie_publicitaire », analyse Yann Le Pollotech, chargé des questions numériques au PCF. 98 % de son chiffre d’affaires mondial provient de la publicité ciblée.

    L’accès aux données des téléphones
    Le réseau ouvre aussi ses données à des développeurs tiers contre rémunération « 250 000 dollars de publicités par an », écrivait le PDG dans un mail obtenu par les parlementaires britanniques. Facebook nie, explique que l’idée n’avait jamais été appliquée. En 2015, pourtant il restreint l’accès sauf pour une liste de 150 entreprises, dont Apple, Amazon, Netflix, ou Airbnb ou encore le site de rencontre #Tinder. Et là, c’est open bar ! Et Zuckerberg écrivait : « je ne vois pas de cas où des données ont été diffusées de développeurs à développeurs et ont causé un réel problème pour nous »... Raté ! 3 ans après, Cambridge Analytica allait prouver le contraire. La société, basée à Londres, a siphonné les données de 87 millions de comptes. La cheville ouvrière de la campagne numérique de Donald Trump en 2016, a réalisé un micro ciblage des électeurs.

    Parmi les autres pépites du rapport : l’accès aux données des téléphones. En 2015, la nouvelle version de l’application sur mobiles #Android pouvait avoir accès au journal des appels téléphoniques. Un cadre de Facebook s’inquiète dans un mail interne que les utilisateurs s’en rendent compte. « Ça serait très risqué : des journalistes (..) qui écrivent des articles sur “Facebook qui utilise sa mise à jour pour espionner votre vie privée” », écrit le cadre. Car le but de la firme, est bel et bien de tout savoir.... Pour cela, il faut capturer l’utilisateur et faire en sorte qu’il y reste. Et le pousser à partager toujours plus d’informations.

    Les #Fake_News rentrent dans cette catégorie. C’est parce qu’elles sont beaucoup plus partagées que Facebook les laisse se propager... Le sociologue Dominique Cardon limite leur portée dans un livre salvateur (1). Pendant la campagne américaine, ces « fake news » ont été le plus consultées par les 10% des électeurs les plus convaincus, y écrit-il. Pour Yann Le Pollotech aussi, « il faut se méfier de ce concept. Depuis que les hommes communiquent, il y a de la #désinformation. Mais ici, il y a aussi une sorte de racisme social : les fake news ne concerneraient que les moins diplômés.. et les gilets jaunes ! A chacun ses Fakes news ; celle des #CSP_+ [cadres supérieurs, NdlR], c’est que les cheminots partent à la retraite à 50 ans avec un pont d’or. Mais ce n’est pas à Facebook de décider ce qui est de l’ordre du complot ou de la #vérité. La seule manière de les éviter : c’est la délibération, le débat démocratique ».

    Mais ce n’est pas le programme du géant. Lui, il a un autre objectif : « enfermer les internautes dans son monde, son univers. Plus que du gangster, cela relève de la #mafia, au sens où c’est aussi une organisation sociale », continue Yann Le Pollotech. Dans ce système, Facebook compte aussi la messagerie #Whatsapp (1,5 milliard d’utilisateurs) et le site de partage de photos et vidéos #Instagram (1 milliard). Et avec elles, toutes leurs données ! En 2014, au moment du rachat de Whatsapp pour 19 milliards de dollars, Zuckerberg promettait « de ne pas combiner les données des comptes Facebook et Whatsapp. Bien sûr, il l’a fait deux ans après », continue Sylvain Steer.

    Depuis les scandales continuent : le 20 mars, Facebook reconnaissait ne pas protéger les #mots_de_passe de centaines de millions de comptes. En février, d’autres applications donnaient accès à Facebook à leurs données : une application pour suivre son cycle menstruel, de sport, de santé... En septembre, 50 millions de comptes étaient piratées.

    Un modèle basé sur l’illégalité
    Que font les législateurs ? En Europe, ils ont franchi une première étape avec le Règlement général pour la protection des données ( #RGPD ), entré en vigueur le 28 mai dernier. Ce dernier impose des formes de consentement éclairé et libre. Mais « Facebook continue de violer les textes, car tout son modèle économique est illégal », rappelle Sylvain Steer. Une plainte collective a été déposée, la CNIL Irlandaise – là où est le siège social de Facebook en Europe- l’examine. Sauf qu’elle prend son temps. « Bien sûr, Facebook comme les autres, fait un lobbying pour retarder sa mise en conformité et prolonger son business », continue-t-il.

    Le Parlement britannique veut la fin du far west... Sauf que Facebook, comme #Google « à force de ne pas être réglementés, se sont imposés comme des autorités centralisatrices sur internet. Les États au lieu de le limiter, continuent à lui déléguer des pouvoirs ». La France en tête, « les gouvernements, demandent à ces plateformes géantes de devenir juges et modérateurs des contenus en ligne. Ce qui devrait être de l’ordre de la justice ou du service public », poursuit Sylvain Steer ... Ou comment les gouvernements donnent à Facebook les clés de la censure. Zuckerberg, lui, s’excuse, encore une fois, et promet « de changer ». En attendant, le nombre d’utilisateurs recule, les jeunes désertent la plateforme... Mais pour Instagram. Et restent ainsi dans le monde clos de Facebook.

    Culture numérique, Dominique Cardon, Les presses de Sciences Po, sorti en février, 19 euros, 428 pages
    (Article paru dans le journal L’Humanité -Dimanche du 28 mars 2019)

    #facebook #surveillance #internet #algorithme #censure #réseaux_sociaux #publicité #données #bigdata #profiling #manipulation #marketing #domination #web #voleur de vies #escroc #gangster #fric

    • Lorsque Jessie Battaglia a commencé à rechercher une nouvelle nounou pour son fils âgé d’un an, elle a voulu avoir plus d’informations que celles que l’on obtient par la vérification du casier judiciaire, les avis de parents et l’entretien face-à-face.

      Elle a donc fait appel à Predictim, un service en ligne utilisant une « intelligence artificielle avancée » pour évaluer la personnalité des baby-sitters, et a fait examiner par les scanners de l’agence les milliers de publications Facebook, Twitter et Instagram d’une candidate.

      Le système a présenté une note d’évaluation automatisée pour cette femme de 24 ans, expliquant que le risque qu’elle soit toxicomane était très faible, mais lui donnant toutefois un risque légèrement plus élevé – 2 sur 5 – quant aux possibilités d’intimidation, de harcèlement, de manque de respect et de mauvaise conduite.

      Le système n’expliquait pas comment il était arrivé à cette note, mais Mme Battaglia, qui avait crû que la nounou était digne de confiance, se sentit soudain assaillie de doutes.

      « Les réseaux sociaux révèlent le caractère d’une personne », affirme Mme Battaglia, âgée de 29 ans, qui vit dans la banlieue de Los Angeles. « Alors pourquoi obtient-elle un 2 et pas un 1 ? »

      Predictim offre aux parents le même modèle que des douzaines d’autres entreprises informatiques vendent aux patrons d’entreprises à travers le monde : des systèmes d’intelligence artificielle qui analysent la façon de parler d’une personne, ses expressions faciales et son historique en ligne, avec la promesse de révéler les aspects cachés de sa vie privée.

      Cette technologie est en train de remodeler les méthodes de recrutement, d’embauche et d’évaluation des salariés par les entreprises, en proposant à ces dernières un regard sans pareil sur les candidats à l’embauche grâce à l’arrivée de nouveaux systèmes de surveillance et d’évaluation psychologique intrusive.

      La société de services informatiques Fama indique qu’elle utilise l’intelligence artificielle pour surveiller les « comportements indésirables » des employés sur les réseaux sociaux et en alerter leur hiérarchie. De même, la société de recrutement informatique HireVue, qui travaille avec de grands groupes comme Geico, Hilton et Unilever, propose un système qui analyse automatiquement les intonations de voix des candidats, leurs choix de mots et les mouvements de leur visage lors d’entretiens vidéo afin de prédire quelles seront leurs compétences et leur attitude une fois en poste (les candidats sont encouragés à sourire pour obtenir la meilleure notation possible).
      . . . . . .
      Les balayages numériques de Predictim analysent l’intégralité de l’historique d’une baby-sitter sur les réseaux sociaux, ce qui, pour beaucoup de jeunes nounous, peut couvrir presque toute leur vie. On informe les candidates qu’elles seront extrêmement désavantagées sur ces emplois à forte concurrence si elles refusent cet examen.
      . . . . . .
      Un scan Predictim est facturé à partir de 24,99 $, et requiert le nom de la baby-sitter, son adresse e-mail et son accord pour l’accès à ses comptes sur les réseaux sociaux. Elle peut refuser, mais le parent sera informé de son refus et elle recevra par e-mail une note, lui indiquant que le parent intéressé ne sera pas en mesure de l’embaucher tant qu’elle n’aura pas complété cette demande.
      . . . . . . .
      La notation des risques est divisée en plusieurs catégories incluant les contenus douteux et l’usage de drogue. La jeune entreprise a également vanté la capacité de son système à évaluer les baby-sitters sur d’autres aspects de leur personnalité, tels que la politesse, l’aptitude à travailler avec d’autres et leur « positivité ».

      Les responsables de l’entreprise espèrent prendre la tête du secteur multimillionnaire de la « sous-traitance parentale » et ont commencé à faire de la publicité à travers le parrainage rémunéré de blogs d’éducation des enfants et de blogs de mamans. Le marketing est fortement axé sur la capacité de la société à mettre au jour les secrets cachés et éviter « le cauchemar de tout parent », citant des affaires criminelles comme celle de cette baby-sitter du Kentucky inculpée plus tôt dans l’année, pour avoir gravement blessé une enfant de huit mois.
      . . . . . . . . .
      Ainsi, lorsque les résultats d’une requête sur une baby-sitter ont signalé la possibilité d’une attitude brutale, une maman, décontenancée, a expliqué qu’elle n’était pas en mesure de savoir si le logiciel était tombé sur une citation de vieux film, des paroles de chanson ou une autre expression, ou bien sur des propos réellement intimidants.

      . . . . . . . . .
      Jamie L. William, avocat des libertés civiles pour la Electronic Frontier Fondation, note que la plupart des algorithmes utilisés aujourd’hui pour accéder aux sens des mots et des images publiés en ligne, sont largement connus pour manquer du bon sens et de la mise en contexte qu’apporte une lecture humaine. Même des géants technologiques, comme Facebook, ont eu du mal à construire des algorithmes qui puissent faire la différence entre un commentaire inoffensif et une incitation à la haine.

      « Quant à utiliser ces systèmes sur des gamins ; soyons sérieux, ce sont des gamins ! », nous dit William. « Les gamins ont des blagues d’initiés. Ils font un usage notoire du sarcasme. Ce qui pourrait ressembler à une “mauvaise attitude” pour un algorithme, ne serait pour une personne qu’un point de vue politique ou une critique fondée. »
      . . . . . . . . .
      La baby-sitter de Madame Battaglia, Malissa Nielsen, 24 ans, a récemment donné son accord à deux familles différentes qui lui ont demandé de remettre à Predictim ses accès aux réseaux sociaux. Elle a expliqué qu’elle a toujours été prudente sur les réseaux et s’est dit que partager un peu plus ne pouvait pas faire de mal ; elle va à l’église une fois par semaine, ne jure pas et elle termine sa formation en éducation de la petite enfance, grâce à laquelle elle espère ouvrir une garderie.

      Mais en apprenant que le système lui avait attribué une mauvaise note pour harcèlement et manque de respect, elle a été stupéfaite. Elle avait cru qu’il s’agissait de permettre aux parents d’examiner ses comptes sur les réseaux sociaux, et non pas de consentir à ce qu’un algorithme dissèque sa personnalité. Elle n’avait pas été informée non plus des résultats d’un test qui pourrait mettre à mal sa seule source de revenu.
      . . . . . . . . .
      Les Américains cultivent une méfiance persistante à l’égard des algorithmes dont les décisions pourraient affecter leur vie quotidienne. Dans une étude du Pew Research Center, 57 % des personnes interrogées pensent que l’examen automatisé des CV de candidats à l’embauche est « inacceptable ».

      Néanmoins, les responsables de Predictim confirment qu’ils se préparent à déployer leurs services à l’échelle nationale. Chez #Sittercity, une plateforme de recrutement de baby-sitters en ligne, visitée par des millions de parents, la direction va lancer, en début d’année prochaine, un programme pilote qui intégrera les notations de Predictim aux tests et vérifications d’antécédents actuellement en place.
      . . . . . . . . .
      Le travail d’extraction de données de #Predictim sur les réseaux sociaux et son intérêt pour l’analyse psychologique de masse n’est pas sans rappeler les ambitions de #Cambridge_Analytica , le cabinet en conseil politique qui a travaillé sur la campagne de Trump et entraîné Facebook dans un scandale mondial relatif à la protection de la vie privée. Mais les dirigeants de l’entreprise affirment qu’ils ont mis en place des gardes-fous internes et travaillent sur la protection des données personnelles des baby-sitters. « Si nous laissions fuiter les infos d’une baby-sitter, ce ne serait vraiment pas cool », a relevé Simonoff.

      Les experts craignent que les notations des systèmes d’intelligence artificielle, comme celles de Predictim, annoncent un futur dans lequel l’attribution de tout emploi, pas seulement de garde d’enfants, sera décidée par une machine. De nombreuses entreprises de recrutement à l’embauche construisent déjà ou investissent dans des systèmes qui peuvent analyser les CV de candidats à très grande échelle et obtenir une évaluation automatisée de la manière dont chacun d’eux pourraient travailler une fois en poste. Des systèmes d’intelligence artificielle de même type – comme #Jigsaw, une jeune entreprise d’informatique créée par Google – sont utilisés pour patrouiller sur Internet et débusquer dans les commentaires, le harcèlement, les menaces et la violence en ligne.
      . . . . . . . . .
      Mais il a été démontré régulièrement que les algorithmes de recrutement ne font pas apparaître le genre de préjugés subtils qui pourraient faire dérailler la carrière d’une personne. Ainsi, des sources ont confié à l’agence Reuters qu’Amazon avait arrêté le développement d’un algorithme de recrutement lorsqu’elle s’était aperçue que celui-ci avait injustement pénalisé les femmes – l’historique du recrutement de la société, dans un secteur informatique dominé par les hommes, avait appris au système que les caractéristiques masculines étaient préférables. La société a affirmé que l’outil n’avait jamais servi à évaluer les candidats (le fondateur et dirigeant d’Amazon est propriétaire du Washington Post).

      Certains experts pensent que de tels systèmes ont le pouvoir d’exacerber les préjugés liés à l’âge et aux origines raciales, y compris en signalant les mots ou les images issus de certains groupes plus que ceux issus d’autres groupes. Ils craignent également que Predictim puisse forcer de jeunes nounous à remettre des données personnelles uniquement en vue d’obtenir un boulot.
      . . . . . . . . .

      Source : The Washington Post, Drew Harwell, https://www.washingtonpost.com/gdpr-consent/?destination=%2ftechnology%2f2018%2f11%2f16%2fwanted-perfect-babysit - 23-11-2018
      Traduit par les lecteurs du site www.les-crises.fr. Traduction librement reproductible en intégralité, en citant la source.

      Drew Harwell est reporter national sur la technologie pour le compte du Washington Post, spécialisé en intelligence artificielle. Il a couvert par le passé les questions de commerce national et les entreprises de Trump.

      algorithme #intelligence_artificielle #prédiction #surveillance #facebook #santé #bigdata #google #big_data #prédictif #profiling #innovation #baby-sitters

  • Fuites de données à répétition : comment les applis tierces nous fragilisent
    https://www.latribune.fr/technos-medias/fuites-de-donnees-a-repetition-comment-les-applis-tierces-nous-fragilisent

    Les applications tierces, qui permettent de partager des données avec d’autres services, sont régulièrement à l’origine de piratages massifs. Explications sur le fonctionnement de ces applis, et leur détournement redoutable par les pirates informatiques.

    Elles sont souvent discrètes mais elles se cachent derrière des piratages massifs de données... Ce sont les applications tierces, là pour enrichir l’expérience utilisateur et collecter des données, qui gravitent autour des plateformes populaires comme Facebook, Twitter ou encore Google. Pour limiter les dérives observées, Mark Zuckerberg, Pdg et co-fondateur de Facebook, s’est dit "potentiellement intéressé" par l’utilisation de la #Blockchain sur son réseau social, dans une interview publiée mercredi sur sa page Facebook. Cette technologie de chaînes de blocs (lire une définition ici) serait utilisée pour stocker les données personnelles des utilisateurs, qui pourraient ensuite décider quelles données partager et avec qui. En parallèle, Uber a annoncé jeudi avoir détecté un bug dans le code de son appli, permettant aux pirates informatiques d’accéder aux données des applications tierces. Explications.

    ■ Pourquoi les applis tierces sont à l’origine de fuite de données ?
    Les applications tierces permettent d’apporter des services additionnels aux plateformes et réseaux sociaux pour enrichir l’expérience utilisateur : jeux, gifs, photos, vidéos... Ces applis tierces, difficilement quantifiables, forment de véritables galaxies autour des plateformes populaires. Prenons l’exemple de Twitter. L’application Thinglink permet de raccourcir les liens à publier sur le site de micro-blogging, quand Tweetdeck permet de faire de la veille et TheCounter propose des statistiques pour mesurer la popularité de ses messages... C’est d’ailleurs cette dernière application qui a été à l’origine du piratage massif de Twitter en 2017.

    En France, le petit oiseau bleu a vu plusieurs milliers de comptes hackés - dont des ministères, des médias ou encore des hommes politiques. Pour proposer ses statistiques, TheCounter - comme toutes les applis tierces - réclame l’autorisation d’accès aux comptes. Ces applis sont donc semblables à des « portes d’entrée » pour les pirates informatiques.

    ■ Comment les applis tierces se connectent entre elles ?
    Grâce à leurs utilisateurs. L’approbation de partager des données entre un réseau social et une appli tierce se fait en un clic, lors du téléchargement de l’appli en acceptant les fameuses conditions générales d’utilisation, ou en se connectant à un service avec la fonction « se connecter avec son compte Facebook », par exemple.

    Ce partage extensif de données est à l’origine du scandale Cambridge Analytica. Le cabinet d’analyse #Cambridge_Analytica est critiqué pour avoir capté de manière détournée, et sans consentement, les données personnelles de 87 millions d’utilisateurs Facebook à des fins politiques. Il a pu s’accaparer les précieuses données via l’application « thisisyourdigitallife », créée en 2013 par un universitaire de Cambridge. Lors du téléchargement de l’application, les utilisateurs concédaient un droit d’accès à leurs données personnelles Facebook - comme leur ville d’origine et leurs centres d’intérêt. Ce n’est pas tout : l’application pouvait également avoir accès aux « amis » des utilisateurs l’ayant téléchargée, sans leur consentement non plus.

    Deux mois après le scandale, Facebook avait annoncé avoir supprimé « environ 200 applications tierces », suspectées d’avoir détourné des données. Bien souvent, même lorsque l’application est supprimée, elle garde un accès aux données. « Difficile pour l’utilisateur d’en savoir plus sur l’utilisation réelle de ses données même après désinstallation », écrit la Cnil (Commission nationale de l’informatique et des libertés) dans une note de prévention sur son site.

    ■ Comment se protéger des fuites de données potentielles ?
    Mieux vaut prévenir que guérir. Le meilleur moyen pour éviter de voir ses données personnelles fuiter est encore de limiter leur accès à votre profil. Il est ainsi possible sur certaines plateformes, comme Facebook, de limiter les informations partagées avec les applications tierces.

    « Sur Facebook, vous pouvez personnaliser les informations complémentaires que vous souhaitez communiquer à l’application (comme l’adresse mail), limiter l’envoi de notifications, et faire en sorte qu’aucun de vos amis ne sache que vous l’utilisiez », détaille la Cnil dans une note explicative.

    "Il existe une option "Applications que d’autres utilisent" qui vous permet de limiter l’accès de vos amis à des informations vous concernant, notamment lorsqu’ils utilisent une application", poursuit le gendarme des données. Sur Twitter, il est possible de découvrir l’ensemble des applications tierces utilisées et d’en "révoquer l’accès" si besoin depuis l’onglet « Paramètres et confidentialité ».

    Dès lors qu’une application n’est plus utilisée, il est fortement recommandé de la supprimer. « Même si l’application est supprimée, il se peut qu’elle utilise toujours vos données ! », met en garde la Cnil. « Pour demander la suppression de ces données, contactez directement l’application, ou consultez sa politique de confidentialité. »

  • Reporter Shows The Links Between The Men Behind Brexit And The Trump Campaign : NPR
    https://www.npr.org/2018/07/19/630443485/reporter-shows-the-links-between-the-men-behind-brexit-and-the-trump-campaign

    The Guardian’s #Carole_Cadwalladr's investigation into #Cambridge_Analytica's role in #Brexit has led her to Russian connections and the #Trump campaign. She says British investigators are now “working very closely with the #FBI.”

    #Russie #NPR #Fresh_Air #investigation

  • Après le scandale Facebook, Cambridge Analytica met la clé sous la porte
    http://abonnes.lemonde.fr/pixels/article/2018/05/02/apres-le-scandale-facebook-cambridge-analytica-met-la-cle-sous-la-po

    Ben tiens.....

    « Accusations infondées »

    « Au cours des derniers mois, Cambridge Analytica a fait l’objet de nombreuses accusations infondées et, malgré les efforts de l’entreprise pour rectifier les faits, elle a été calomniée pour des activités qui non seulement sont légales, mais aussi largement acceptées comme faisant partie intégrante de la publicité en ligne dans les domaines politique comme commercial », a dénoncé la firme.

    « Le siège mené par la couverture médiatique a éloigné presque tous les clients et fournisseurs [de CA] », a-t-elle également déploré. Elle cite une enquête indépendante menée à sa demande, selon laquelle « rien » de ce que ses employés ont entendu ou vu dans les médias « ne reflète ce qu’ils font réellement pour vivre ».

    Dénonçant « un abus de confiance », Facebook a de son côté toujours farouchement démenti avoir laissé faire, affirmant ignorer que les données récoltées par CA via une application de tests psychologiques développée par un chercheur universitaire étaient utilisées à des fins politiques.

    #Cambridge_analytica #Facebook

  • Inside Cambridge Analytica’s Virtual Currency Plans - The New York Times
    https://www.nytimes.com/2018/04/17/technology/cambridge-analytica-initial-coin-offering.html

    SAN FRANCISCO — The embattled political data firm Cambridge Analytica quietly sought to develop its own virtual currency in recent months through a so-called initial coin offering, a novel fund-raising method that has come under growing scrutiny by financial regulators around the world.

    The offering was part of a broader, but still very private push that the firm was making into the nascent world of cryptocurrencies over the last year.

    Much like its acquisition of Facebook data to build psychological profiles of voters, the new business line pushed the firm into murky ethical and legal situations. Documents and emails obtained by The New York Times show that Cambridge Analytica’s efforts to help promote another group’s digital token, the Dragon Coin, associated the firm with a famous gangster in Macau who has gone by the nickname Broken Tooth.

    The goal of Cambridge Analytica’s own coin offering? Raise money that would pay for the creation of a system to help people store and sell their online personal data to advertisers, Brittany Kaiser, a former Cambridge Analytica employee, said in an interview. The idea was to protect information from more or less what the firm did when it obtained the personal data of up to 87 million Facebook users.

    “Who knows more about the usage of personal data than Cambridge Analytica?” Ms. Kaiser said. “So why not build a platform that reconstructs the way that works?”

    Mais Cambridge Analytica ne perd pas ses bonnes habitudes

    She also remembers they spoke about an array of potential campaigns. The most unusual idea involved sending virtual currencies to people in far-flung regions of Mexico. The payments would give people incentive to fill out surveys and get data that could then be used to help design campaigns for Mexican political candidates .

    #Cambridge_analytica #Cryptomonnaies #ICO #Données_personnelles

  • Cette fois il semblerait qu’on y soit : la #RNT (#radio_numérique_terrestre) débarque bien réellement en France, visant, à terme, à remplacer la #FM. Jusqu’à maintenant, il y avait des expérimentations locales (notamment en Provence), mais on passe au déploiement pérenne. Et pour faire passer la pilule, le #CSA communique plutôt sur la norme choisie : le #DAB+
    https://www.lalettre.pro/Derniere-etape-avant-le-lancement-du-DAB_a16065.html

    Le lancement du déploiement du DAB+ est prévu le 19 juin 2018 dans les Hauts-de-France. Dans ce but et conformément à son calendrier, le Conseil supérieur de l’audiovisuel donne aujourd’hui son agrément à 7 sites de diffusion DAB+.

    Cette première phase de déploiement du DAB + permettra aux auditeurs de capter le 19 juin prochain 39 radios en qualité numérique sur l’agglomération lilloise et entre 9 et 13 radios dans les autres bassins de vie de la région.

    #Radio_France, elle, préfère insister sur le fait que c’est pour mieux protéger vos données personnelles, si si :
    https://www.lalettre.pro/Cambridge-Analytica-sera-t-il-le-sauveur-de-la-RNT_a16072.html

    #Facebook permettra-t-il indirectement le développement de la technologie DAB ? Une question qui semblerait incongrue si #Cambridge_Analytica et Facebook n’avaient pas été, soit cités directement, soit évoqués lors d’allusions lors des auditions des six candidats à la présidence de Radio France devant les Conseillers du CSA.

    Tous ou presque ont donc évoqué les déboires de Cambridge Analytica et de Facebook pour aborder la problématique de la confidentialité des données que seule une diffusion hertzienne peut préserver. Dans leur ensemble, les candidats estiment qu’il ne faut pas que les #GAFA sachent qui écoute quoi et quand. Pour eux, il ne faut pas non plus que les radios dépendent systématiquement des GAFA pour assurer leur diffusion. Seule la diffusion hertzienne apporte une indépendance nécessaire aux opérateurs radio. Quand une radio passe par internet et par des diffuseurs externes, tels que les agrégateurs de radios, elle ne maitrise plus ses données. Ces données sont pourtant indispensables pour maîtriser un développement.

    Ce qui est d’autant plus comique que, pour ne parler que de lui, le deuxième A de GAFA correspond à #Amazon, à qui la radio publique ne cesse de faire des yeux doux, tantôt à travers #Alexa
    https://seenthis.net/messages/677962
    tantôt à travers #Audible
    https://seenthis.net/messages/676886
    Et que, par ailleurs, Radio France ne jure depuis des années plus que par les statistiques de #podcasts. Contre la captation des données d’écoute, donc, mais seulement par les autres.

  • « Désolé », Zuckerberg peine à convaincre devant le Sénat américain
    https://www.mediapart.fr/journal/international/110418/desole-zuckerberg-peine-convaincre-devant-le-senat-americain

    Mark Zuckerberg devant le Sénat américain, le 10 avril. © Mediapart Lors d’une audition devant le Sénat américain consacrée au scandale #Cambridge_Analytica, #Mark_Zuckerberg a multiplié les mea culpa et les actes de contrition. « C’était ma faute, et je suis désolé. J’ai lancé #Facebook, je le dirige, et je suis responsable de ce qui s’y passe », a déclaré le fondateur du réseau social.

    #International #Cnil

  • « Désolé », #Mark_Zuckerberg peine à convaincre devant le Sénat américain
    https://www.mediapart.fr/journal/international/110418/desole-mark-zuckerberg-peine-convaincre-devant-le-senat-americain

    Mark Zuckerberg devant le Sénat américain, le 10 avril. © Mediapart « C’était ma faute, et je suis désolé. J’ai lancé #Facebook, je le dirige, et je suis responsable de ce qui s’y passe », a déclaré mardi Mark Zuckerberg. Lors d’une audition devant le Sénat américain consacrée au scandale #Cambridge_Analytica, le fondateur du réseau social a multiplié les mea culpa et les actes de contrition.

    #International #Cnil

  • Au-delà de l’affaire Facebook. Pour un service public des données, par Evgeny Morozov (Les blogs du Diplo, 10 avril 2018)
    https://blog.mondediplo.net/2018-04-10-Pour-un-service-public-des-donnees

    Bonne nouvelle pour ceux d’entre nous qui mettent en garde contre les dangers de « l’extractivisme des données » depuis des années : la méfiance envers Facebook est de plus en plus vive.

    Enfin une preuve incontestable que sous la rhétorique grandiloquente de #Facebook, qui prétend « construire une communauté mondiale qui œuvre pour tous », se cache un projet agressif et cynique qui nous vampirise, dans le but de construire un aspirateur de données mondial. Comme d’autres dans ce secteur, Facebook se fait de l’argent en puisant nos #données_personnelles — qu’il fait émerger grâce à nos pokes et nos likes, à l’image des grands groupes du secteur énergétique qui forent des puits de pétrole : les profits avant tout, les conséquences sociales et individuelles attendront.

    En outre, plus grand monde ne croit en l’avenir numérique idéal où des publicités sur-mesure financeraient ce que Mark Zuckerberg appelle « l’infrastructure sociale ». Si cette dernière ne coûte rien financièrement, aux contribuables du moins, elle aurait un prix social et politique peut-être plus lourd encore que le pétrole bon marché des années 1970.

    Cette prise de conscience, aussi soudaine et brutale soit-elle, ne suffit pas. Facebook n’est que l’un des symptômes, non la cause de nos problèmes. À long terme, fustiger sa culture d’entreprise pourrait s’avérer aussi vain que de s’en prendre à soi-même.

    #Cambridge_Analytica

  • #Facebook : Personne ne parle du véritable coupable : #Cambridge_Analytica - La société britannique aurait récupéré les données de 50 millions d’utilisateurs pour élaborer un logiciel permettant de prédire le vote des électeurs - Les données pourraient être conservées en #Russie.
    https://fr.wikipedia.org/wiki/Cambridge_Analytica
    http://www.lepoint.fr/high-tech-internet/facebook-polemique-autour-de-l-utilisation-de-donnees-personnelles-19-03-201
    http://www.01net.com/actualites/cambridge-analytica-nouveaux-rebondissements-dans-l-affaire-qui-ebranle-faceb

  • #Facebook commence à informer les utilisateurs touchés par l’affaire #Cambridge_Analytica
    http://www.lemonde.fr/pixels/article/2018/04/10/facebook-commence-a-informer-les-utilisateurs-touches-par-l-affaire-cambridg

    « Nous avons banni le site This is Your Digital Life (…), car il a utilisé à mauvais escient certaines de vos informations Facebook en les partageant avec une entreprise nommée Cambridge Analytica. » Voilà le message que les millions d’utilisateurs de Facebook dont les données ont pu être aspirées indirectement par Cambridge Analytica découvrent depuis lundi 9 avril en se connectant au réseau social. L’entreprise reconnaît qu’il reste « beaucoup de travail à faire » et assure que ses employés s’engagent « à lutter contre les abus et à donner [à ses utilisateurs] le contrôle de [leur] vie privée ».

    Les autres utilisateurs, ceux dont les données n’ont, selon Facebook, pas été récupérées dans cette affaire, peuvent quant à eux voir apparaître un message les invitant à se rendre dans la section « Apps et sites Web » de leurs paramètres pour faire le tri dans les applications dont ils ne se servent plus.

  • “Le scandale Cambridge Analytica n’est pas une faille technique mais un problème politique” - Idées - Télérama.fr
    http://www.telerama.fr/idees/le-scandale-cambridge-analytica-nest-pas-une-faille-technique-mais-un-probl

    Interview de Zeynep Tufekci

    Cet incident, écriviez-vous dans le New York Times, est « une conséquence naturelle du modèle économique de Facebook »…

    Facebook comme Google attirent l’essentiel de l’attention car ce sont des mastodontes, mais n’oublions pas que tout le modèle de la publicité en ligne – et celui d’une majorité de médias – repose sur les mêmes fondations. Partout, le principe est identique : où que vous cliquiez, vous êtes suivi, ciblé, monétisé et vendu au plus offrant. Les pages que vous consultez, les contenus que vous publiez, toutes vos traces numériques sont utilisées à des fins commerciales. Qu’il s’agisse de Cambridge Analytica, d’un dictateur en herbe ou d’une marque d’aspirateurs importe peu, puisque c’est un système totalement asymétrique dans lequel vous ne connaissez pas l’identité des passeurs d’ordre. C’est le problème majeur d’Internet aujourd’hui. Dans cette « économie de l’attention », Facebook peut compter sur une infrastructure sans équivalent. Grâce à elle, la plateforme peut toucher deux milliards d’utilisateurs, écran par écran, sans même qu’ils s’en rendent compte.

    Faut-il craindre la multiplication d’épisodes de ce genre ?

    De toute évidence. Il est mécaniquement impossible de prédire l’utilisation qui sera faite de nos données dans les années à venir. C’est un puits sans fond ! Même si vous n’êtes pas sur Facebook, une quantité gigantesque d’informations à votre sujet circulent et permettent de vous profiler. Grâce aux progrès de l’intelligence artificielle, des algorithmes sont capables d’analyser vos amitiés, votre activité, vos modes de consommation. Nous figurons probablement tous dans des bases de données commerciales dont nous ignorons l’existence, mises en relation et croisées avec d’autres bases de données que nous ne connaissons pas davantage. Dans le cas de Cambridge Analytica, l’immense majorité des personnes siphonnées ignoraient tout de ce qui était en train de se passer.

    Réagissons-nous si tardivement à cause de cette opacité ?

    Pour une personne ordinaire, il est extrêmement difficile de réagir, car cette collecte est invisible, inodore et incolore. En tant qu’internaute, vous ne voyez rien d’autre que les contenus qui s’affichent sur votre écran.

    A ce titre, que pensez-vous de la réaction de Mark Zuckerberg ?

    Il s’est mollement excusé parce qu’il n’avait pas le choix. Mais il s’est quand même posé en victime, comme s’il avait été dupé par un tiers renégat ne respectant pas les règles d’un jeu qu’il a lui-même créé. Je pense que nous ne devrions croire aucune entreprise sur parole. Nous avons besoin de contrôle et de mécanismes de protection. Prenons l’exemple des voitures. Elles peuvent avoir des accidents ou présenter des risques pour l’environnement. Pour lutter contre ces facteurs négatifs, les gouvernements ont imposé des limitations de vitesse, le port de la ceinture de sécurité ou des normes environnementales. Ces changements ne sont pas intervenus par l’opération du Saint-Esprit : il a fallu les imposer. Et quand une entreprise ne respecte pas ces règles, elle est sanctionnée. L’économie liée à l’exploitation des données est encore un Far West à civiliser.

    Ces dernières semaines, les appels à la déconnexion de Facebook se sont multipliés. Est-ce une option viable ?

    Ça ne peut être qu’une décision individuelle. C’est le droit le plus strict de chacun, mais c’est un luxe qui ne résoudra pas le problème : dans de nombreux pays, Facebook est le seul moyen pour communiquer avec sa famille ou ses amis, et c’est un vecteur important d’organisation sociale. Il vaudrait mieux réfléchir au démantèlement de Facebook tout en réfléchissant à ses conséquences possibles : si nous ne réformons pas en profondeur le modèle économique du Web, des légions de petits Facebook pourraient en effet se montrer encore plus nocifs qu’une plateforme centralisée…

    #Zeynep_Tufekci #Facebook #Cambridge_analytica #Vie_privée #Données_personnelles

  • #Facebook, emblème du « capitalisme de surveillance »
    https://www.mediapart.fr/journal/international/070418/facebook-embleme-du-capitalisme-de-surveillance

    Le détournement de 87 millions de profils Facebook par #Cambridge_Analytica afin d’influer sur la campagne présidentielle américaine a Mark Zuckerberg lors du Mobile World Congress en février 2016 à Barcelone © Facebook plongé la société de Mark Zuckerberg dans une crise sans précédent en la mettant face à un dilemme en apparence insoluble : comment rassurer investisseurs et utilisateurs alors que son modèle économique repose par définition sur la collecte massive des données personnelles ?

    #International #capitalisme_de_surveillance #GAFAM

    • Même si Cambridge Analytica a bien dérobé quelque 87 millions de profils, c’est en fait quasiment toute l’économie du numérique qui repose sur une collecte massive des données des utilisateurs. Avant l’explosion du scandale, la société se vantait d’ailleurs de posséder des profils sur 220 millions d’Américains, des données obtenues légalement auprès des multiples « data brokers » ou vendeurs de données du pays. Ce modèle économique auquel sont irrémédiablement liés Facebook mais également Google ou Twitter a été théorisé sous l’expression de « capitalisme de surveillance ».

      Le concept a fait l’objet d’une première définition dans un article des universitaires John Bellamy Foster et Robert W. McChesney, publié en juillet 2014 sur le site Monthly Review. Dans celui-ci, les auteurs font du capitalisme de surveillance l’évolution naturelle du complexe militaro-industriel dénoncé par les président Dwight Eisenhower dans son célèbre discours de janvier 1961. Ils rappellent les origines militaires du Net et les efforts constants déployés par l’armée pour contrôler la recherche et les industries de pointe.

      L’article du Monthly Review en question, que j’avais pas vu passer : ▻https://seenthis.net/messages/328312

    • Avec aussi le concept de #surplus_comportemental développé par https://twitter.com/shoshanazuboff
      « [...] les utilisateurs ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont une source de matériaux bruts gratuits [...] »

      Dans un article publié en 2016 dans la Frankfurter Allgemeine Zeitung, elle explique comment « le capitalisme a été détourné par un projet de surveillance lucratif ». Ce détournement a eu lieu, raconte Shoshana Zuboff, lorsque Google a pris conscience du profit qu’il pouvait tirer des données comportementales de ses utilisateurs, données qu’elle désigne sous le terme de « surplus comportemental ».

      « Le succès dramatique de Google dans le “matching” des publicités et des pages a révélé la valeur transformationnelle de ce surplus comportemental comme moyen de générer des revenus et, finalement, de transformer les investissements en capital », écrit Shoshana Zuboff. « Dans ce contexte, les utilisateurs ne sont plus une fin en eux-mêmes. À la place, ils sont devenus un moyen de faire des profits dans un nouveau type de marché dans lequel les utilisateurs ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont une source de matériaux bruts gratuits qui nourrit un nouveau type de processus de fabrication », poursuit la professeure. « Le jeu ne consiste plus à vous envoyer un catalogue de vente par correspondance ou même à cibler la publicité en ligne. Le jeu consiste à vendre l’accès au flux en temps réel de votre vie quotidienne – votre réalité – afin de l’influencer directement et de modifier votre comportement pour faire des profits. »

    • Les références de l’article sont plus qu’intéressantes :
      – John Bellamy Foster et Robert W. McChesney sur le site Monthly Review sur le complexe militaro-industriel et le #capitalisme_de_surveillance
      https://monthlyreview.org/2014/07/01/surveillance-capitalism

      – Nicholas Confessore et Matthew Rosendbergmarch dans le NY Times sur le lien entre #Cambrige_Analytica et #Palantir
      https://www.nytimes.com/2018/03/27/us/cambridge-analytica-palantir.html

      – Shoshana Zuboff dans la Frankfurter Allgemeine Zeitung sur le #capitalisme_de_surveillance
      http://www.faz.net/aktuell/feuilleton/debatten/the-digital-debate/shoshana-zuboff-secrets-of-surveillance-capitalism-14103616.html
      => Article récemment traduit par l’équipe #Framalang
      https://framablog.org/2017/03/28/google-nouvel-avatar-du-capitalisme-celui-de-la-surveillance

  • Why (almost) everything reported about the Cambridge Analytica Facebook ‘hacking’ controversy is wrong
    https://medium.com/@CKava/why-almost-everything-reported-about-the-cambridge-analytica-facebook-hackin

    First, There was no hack.

    The data collected was scraped from #Facebook user profiles, after users granted permission for a third party app to access their data. You know those little confirmation windows that pop up when someone wants to play Candy Crush or use Facebook to log in, rather than make a new password, for a random site? Yeah those.

    A Cambridge academic called Aleksandr Kogan — NOT Cambridge Analytica and NOT the whistleblower Christopher Wylie — made a ‘Test Your Personality’ app, helped to promote it by paying people $2–4 to install it on Amazon’s Mechanical Turk crowdsourcing site, and used the permissions granted to harvest profile data. 270,000 users installed the app, so you might expect that 270,000 profiles were collected but the app actually collected data from 50 million profiles.

    50 million?!?

    Yes. You see back in the heady days of 2014, Facebook had a feature called ‘friends permission’ that allowed developers to access the profiles of not only the person who installed their app but all their friends too. The only way to prevent this from happening was to have toggled a privacy setting, which few Facebook users even knew existed (here is a blog from 2012 explaining how to do so). The friends permission feature is how Kogan multiplied 270,000 permissions into 50 million profiles worth of data.

    (…)

    The real story then is not that Kogan, Wylie, and Cambridge Analytica developed some incredibly high tech ‘hack’ of Facebook. It is that, aside from Kogan’s data selling, they used methods that were common place and permitted by Facebook prior to 2015. Cambridge Analytica has since the story broke been outed as a rather obnoxious, unethical company- at least in how it promotes itself to potential clients. But the majority of what is being reported in the media about its manipulative power is just an uncritical regurgitation of Cambridge Analytica (and Chris Wylie’s) self-promotional claims. The problem is that there is little evidence that the company can do what it claims and plenty of evidence that it is not as effective as it likes to pretend; see the fact that Ted Cruz is not currently president.

    No one is totally immune to marketing or political messaging but *there is little evidence that Cambridge Analytica is better than other similar PR or political canvassing companies at targeting voters. Political targeting and disinformation campaigns, including those promoted by Russia, certainly had an impact on recent elections but were they the critical factor? Did they have a bigger impact than Comey announcing he was ‘reopening’ the Hillary email investigation the week before the US election? Or Brexiteers claiming that £250 million was being stolen from the NHS by the EU every week? Colour me skeptical.

    To be crystal clear, I’m not arguing that Cambridge Analytica and Kogan were innocent. At the very least, it is clear they were doing things that were contrary to Facebook’s data sharing policies. And similarly Facebook seems to have been altogether too cavalier with permitting developers to access its users’ private data.

    What I am arguing is that #Cambridge_Analytica are not the puppet masters they are being widely portrayed as. If anything they are much more akin to Donald Trump; making widely exaggerated claims about their abilities and getting lots of #attention as a result.

  • Why the Cambridge Analytica Scandal Is a Watershed Moment for Social Media - Knowledge Wharton
    http://knowledge.wharton.upenn.edu/article/fallout-cambridge-analytica

    “We’re experiencing a watershed moment with regard to social media,” said Aral. “People are now beginning to realize that social media is not just either a fun plaything or a nuisance. It can have potentially real consequences in society.”

    The Cambridge Analytica scandal underscores how little consumers know about the potential uses of their data, according to Berman. He recalled a scene in the film Minority Report where Tom Cruise enters a mall and sees holograms of personally targeted ads. “Online advertising today has reached about the same level of sophistication, in terms of targeting, and also some level of prediction,” he said. “It’s not only that the advertiser can tell what you bought in the past, but also what you may be looking to buy.”

    Consumers are partially aware of that because they often see ads that show them products they have browsed, or websites they have visited, and these ads “chase them,” Berman said. “What consumers may be unaware of is how the advertiser determines what they’re looking to buy, and the Cambridge Analytica exposé shows a tiny part of this world.”

    A research paper that Nave recently co-authored captures the potential impact of the kind of work Cambridge Analytica did for the Trump campaign. “On the one hand, this form of psychological mass persuasion could be used to help people make better decisions and lead healthier and happier lives,” it stated. “On the other hand, it could be used to covertly exploit weaknesses in their character and persuade them to take action against their own best interest, highlighting the potential need for policy interventions.”

    Nave said the Cambridge Analytica scandal exposes exactly those types of risks, even as they existed before the internet era. “Propaganda is not a new invention, and neither is targeted messaging in marketing,” he said. “What this scandal demonstrates, however, is that our online behavior exposes a lot about our personality, fears and weaknesses – and that this information can be used for influencing our behavior.”

    In Golbeck’s research projects involving the use of algorithms, she found that people “are really shocked that we’re able to get these insights like what your personality traits are, what your political preferences are, how influenced you can be, and how much of that data we’re able to harvest.”

    Even more shocking, perhaps, is how easy it is to find the data. “Any app on Facebook can pull the kind of data that Cambridge Analytica did – they can [do so] for all of your data and the data of all your friends,” said Golbeck. “Even if you don’t install any apps, if your friends use apps, those apps can pull your data, and then once they have that [information] they can get these extremely deep, intimate insights using artificial intelligence, about how to influence you, how to change your behavior.” But she draws a line there: “It’s one thing if that’s to get you to buy a pair of shoes; it’s another thing if it’s to change the outcome of an election.”

    “Facebook has tried to play both sides of [the issue],” said Golbeck. She recalled a study by scientists from Facebook and the University of California, San Diego, that claimed social media networks could have “a measurable if limited influence on voter turnout,” as The New York Times reported. “On one hand, they claim that they can have a big influence; on the other hand they want to say ‘No, no, we haven’t had any impact on this.’ So they are going to have a really tough act to play here, to actually justify what they’re claiming on both sides.”

    Golbeck called for ways to codify how researchers could ethically go about their work using social media data, “and give people some of those rights in a broader space that they don’t have now.” Aral expected the solution to emerge in the form of “a middle ground where we learn to use these technologies ethically in order to enhance our society, our access to information, our ability to cooperate and coordinate with one another, and our ability to spread positive social change in the world.” At the same time, he advocated tightening use requirements for the data, and bringing back “the notion of informed consent and consent in a meaningful way, so that we can realize the promise of social media while avoiding the peril.”

    Historically, marketers could collect individual data, but with social platforms, they can now also collect data about a user’s social contacts, said Berman. “These social contacts never gave permission explicitly for this information to be collected,” he added. “Consumers need to realize that by following someone or connecting to someone on social media, they also expose themselves to marketers who target the followed individual.”

    In terms of safeguards, Berman said it is hard to know in advance what a company will do with the data it collects. “If they use it for normal advertising, say toothpaste, that may be legitimate, and if they use it for political advertising, as in elections, that may be illegitimate. But the data itself is the same data.”

    According to Berman, most consumers, for example, don’t know that loyalty cards are used to track their behavior and that the data is sold to marketers. Would they stop using these cards if they knew? “I am not sure,” he said. “Research shows that people in surveys say they want to maintain their privacy rights, but when asked how much they’re willing to give up in customer experience – or to pay for it – the result is not too much. In other words, there’s a difference between how we care about privacy as an idea, and how much we’re willing to give up to maintain it.”

    Golbeck said tools exist for users to limit the amount of data they let reside on social media platforms, including one called Facebook Timeline Cleaner, and a “tweet delete” feature on Twitter. _ “One way that you can make yourself less susceptible to some of this kind of targeting is to keep less data there, delete stuff more regularly, and treat it as an ephemeral platform, _ ” she said.

    Mais est-ce crédible ? Les médias sociaux sont aussi des formes d’archives personnelles.

    #Facebook #Cambridge_analytica

  • Alors comme ça, on veut quitter Facebook ?
    http://www.makery.info/2018/03/27/alors-comme-ca-on-veut-quitter-facebook

    L’affaire Cambridge Analytica fait vaciller le réseau social. Quelle stratégie adopter après ces révélations : supprimer son compte, exiger ses datas, passer au libre ? On savait qu’il y avait du rififi chez Facebook. Mais alors là, c’est le pompon. Depuis que The Guardian, The Observer et le New York Times ont révélé les pratiques plus que douteuses de l’entreprise Cambridge Analytica, la tentation de supprimer Facebook semble être plus grande que jamais dans la communauté aux 2,13 milliards d’amis. (...)

    #CambridgeAnalytica #Facebook #algorithme #thisisyourdigitallife #élections #manipulation #électeurs #comportement #données #publicité #BigData #marketing #prédictif (...)

    ##publicité ##profiling

  • Life Inside S.C.L., Cambridge Analytica’s Parent Company | The New Yorker
    https://www.newyorker.com/news/letter-from-the-uk/life-inside-scl-cambridge-analyticas-parent-company

    There were times during our conversation when the employee seemed as bemused as anybody that a company that was started in the early nineteen-nineties with some intuitive but eccentric ideas about group psychology—one of Oakes’s first ventures was selling aromas to stores, to persuade customers to buy more—was now at the center of a transatlantic conversation about voter rights, data privacy, and the integrity of the world’s most important social network. But the employee was also clear that access to big data, particularly in the form of Facebook, combined with S.C.L.’s long interest in psychological profiling and audience segmentation, had been able to equip political campaigns with digital weapons that most voters were unaware of. “You can get philosophical about this and say that Facebook being an advertising platform masquerading as a social platform is the start of the rot and the tool was always there,” the employee said. S.C.L.’s executives were the wrong people who came along at the wrong time. “There were always going to be dodgy fuckers willing to work for rich people, and the S.C.L. was just an example of the dodgy fucker.” (S.C.L. did not immediately respond to a request for comment, but the company claims that it destroyed the Facebook data, in October, 2015, and that it played no role in the Presidential election.)

    The employee welcomed the current attention on S.C.L.’s methodology and behavior, whether it was illegal, or whether it should have been. The leaders of the company were not interested in these questions. “Alexander is not constrained by the sort of worries we are seeing expressed right now,” the employee said. “It really is about getting money together.” The employee continued, “What is wonderful about now is this bit of it is being opened, and I think it is bloody important, because something as catastrophic as Brexit and Trump—the technical possibility of that—is achieved through this dark shit. And this dark shit can be done by fucking cowboys. And, for lots of people who worked for the organization, it wasn’t supposed to be this way.”

    Some of S.C.L.’s methods had merit. Oakes’s insight in forming the B.D.I. was to aim messages at social groups—rather than at individuals—and to place a low expectation on persuading people to change their minds. In a “classic S.C.L. project,” the employee explained, the company would use subcontractors, survey companies, and academics in the run-up to an election to create what it called a “super sample.” “We would speak to sixty thousand people, and we wouldn’t say, ‘Who are you going to vote for?’ ” the employee said. “We would say, ‘How do you feel about life?’ ” S.C.L.’s data concentrated on local concerns, such as housing, water shortages, or tribal conflict. “With all of that, we would delineate a strategy for them to win by focussing on targeted groups that we had identified within the population,” the employee said. “It is not so much, let’s make these people do this thing; it is, can we take this thing in such a way that the people who should get it do get it?”

    #Facebook #Cambridge_analytica

  • Cambridge Analytica demonstrates that Facebook needs to give researchers more access.
    https://slate.com/technology/2018/03/cambridge-analytica-demonstrates-that-facebook-needs-to-give-researchers-more

    In a 2013 paper, psychologist Michal Kosinski and collaborators from University of Cambridge in the United Kingdom warned that “the predictability of individual attributes from digital records of behavior may have considerable negative implications,” posing a threat to “well-being, freedom, or even life.” This warning followed their striking findings about how accurately the personal attributes of a person (from political leanings to intelligence to sexual orientation) could be inferred from nothing but their Facebook likes. Kosinski and his colleagues had access to this information through the voluntary participation of the Facebook users by offering them the results of a personality quiz, a method that can drive viral engagement. Of course, one person’s warning may be another’s inspiration.

    Kosinski’s original research really was an important scientific finding. The paper has been cited more than 1,000 times and the dataset has spawned many other studies. But the potential uses for it go far beyond academic research. In the past few days, the Guardian and the New York Times have published a number of new stories about Cambridge Analytica, the data mining and analytics firm best known for aiding President Trump’s campaign and the pro-Brexit campaign. This trove of reporting shows how Cambridge Analytica allegedly relied on the psychologist Aleksandr Kogan (who also goes by Aleksandr Spectre), a colleague of the original researchers at Cambridge, to gain access to profiles of around 50 million Facebook users.

    According to the Guardian’s and New York Times’ reporting, the data that was used to build these models came from a rough duplicate of that personality quiz method used legitimately for scientific research. Kogan, a lecturer in another department, reportedly approached Kosinski and their Cambridge colleagues in the Psychometric Centre to discuss commercializing the research. To his credit, Kosinski declined. However, Kogan built an app named thisismydigitallife for his own startup, Global Science Research, which collected the same sorts of data. GSR paid Mechanical Turk workers (contrary to the terms of Mechanical Turk) to take a psychological quiz and provide access to their Facebook profiles. In 2014, under the contract with the parent company of Cambridge Analytica, SCL, that data was harvested and used to build a model of 50 million U.S. Facebook users that included allegedly 5,000 data points on each user.

    So if the Facebook API allowed Kogan access to this data, what did he do wrong? This is where things get murky, but bear with us. It appears that Kogan deceitfully used his dual roles as a researcher and an entrepreneur to move data between an academic context and a commercial context, although the exact method of it is unclear. The Guardian claims that Kogan “had a licence from Facebook to collect profile data, but it was for research purposes only” and “[Kogan’s] permission from Facebook to harvest profiles in large quantities was specifically restricted to academic use.” Transferring the data this way would already be a violation of the terms of Facebook’s API policies that barred use of the data outside of Facebook for commercial uses, but we are unfamiliar with Facebook offering a “license” or special “permission” for researchers to collect greater amounts of data via the API.

    Regardless, it does appear that the amount of data thisismydigitallife was vacuuming up triggered a security review at Facebook and an automatic shutdown of its API access. Relying on Wylie’s narrative, the Guardian claims that Kogan “spoke to an engineer” and resumed access:

    “Facebook could see it was happening,” says Wylie. “Their security protocols were triggered because Kogan’s apps were pulling this enormous amount of data, but apparently Kogan told them it was for academic use. So they were like, ‘Fine’.”

    Kogan claims that he had a close working relationship with Facebook and that it was familiar with his research agendas and tools.

    A great deal of research confirms that most people don’t pay attention to permissions and privacy policies for the apps they download and the services they use—and the notices are often too vague or convoluted to clearly understand anyway. How many Facebook users give third parties access to their profile so that they can get a visualization of the words they use most, or to find out which Star Wars character they are? It isn’t surprising that Kosinski’s original recruitment method—a personality quiz that provided you with a psychological profile of yourself based on a common five-factor model—resulted in more than 50,000 volunteers providing access to their Facebook data. Indeed, Kosinski later co-authored a paper detailing how to use viral marketing techniques to recruit study participants, and he has written about the ethical dynamics of utilizing friend data.

    #Facebook #Cambridge_analytica #Recherche

  • Revealed : 50 million Facebook profiles harvested for Cambridge Analytica in major data breach | News | The Guardian
    https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election

    Paul-Olivier Dehaye, a data protection specialist, who spearheaded the investigative efforts into the tech giant, said: “Facebook has denied and denied and denied this. It has misled MPs and congressional investigators and it’s failed in its duties to respect the law.

    “It has a legal obligation to inform regulators and individuals about this data breach, and it hasn’t. It’s failed time and time again to be open and transparent.”

    We exploited Facebook to harvest millions of profiles. And built models to exploit that and target their inner demons
    Christopher Wylie

    A majority of American states have laws requiring notification in some cases of data breach, including California, where Facebook is based.

    Facebook denies that the harvesting of tens of millions of profiles by GSR and Cambridge Analytica was a data breach. It said in a statement that Kogan “gained access to this information in a legitimate way and through the proper channels” but “did not subsequently abide by our rules” because he passed the information on to third parties.

    Facebook said it removed the app in 2015 and required certification from everyone with copies that the data had been destroyed, although the letter to Wylie did not arrive until the second half of 2016. “We are committed to vigorously enforcing our policies to protect people’s information. We will take whatever steps are required to see that this happens,” Paul Grewal, Facebook’s vice-president, said in a statement. The company is now investigating reports that not all data had been deleted.

    Kogan, who has previously unreported links to a Russian university and took Russian grants for research, had a licence from Facebook to collect profile data, but it was for research purposes only. So when he hoovered up information for the commercial venture, he was violating the company’s terms. Kogan maintains everything he did was legal, and says he had a “close working relationship” with Facebook, which had granted him permission for his apps.

    Coût de l’opération : 1 million de dollars.

    The Observer has seen a contract dated 4 June 2014, which confirms SCL, an affiliate of Cambridge Analytica, entered into a commercial arrangement with GSR, entirely premised on harvesting and processing Facebook data. Cambridge Analytica spent nearly $1m on data collection, which yielded more than 50 million individual profiles that could be matched to electoral rolls. It then used the test results and Facebook data to build an algorithm that could analyse individual Facebook profiles and determine personality traits linked to voting behaviour.

    The algorithm and database together made a powerful political tool. It allowed a campaign to identify possible swing voters and craft messages more likely to resonate.

    “The ultimate product of the training set is creating a ‘gold standard’ of understanding personality from Facebook profile information,” the contract specifies. It promises to create a database of 2 million “matched” profiles, identifiable and tied to electoral registers, across 11 states, but with room to expand much further.

    #Facebook #Cambridge_analytica

  • Facebook : un test à la con et soudain la démocratie s’effondre | Slate.fr
    http://www.slate.fr/story/159379/facebook-cambridge-analytica-trump-democratie

    Le problème c’est qu’un président, ce n’est pas un tube de dentifrice. En délivrant un message politique différent à chaque catégorie d’électrices et d’électeurs, un message répété à l’infini, un message qui joue sur des émotions, on se situe exactement dans l’inverse du débat d’idées. Une membre de l’équipe numérique de campagne de Donald Trump a expliqué qu’une mère de famille intéressée par la garde d’enfant ne voudrait pas voir une pub pleine de guerre et de violence. L’équipe de Trump lui montrait alors un spot doux et chaleureux : « Il nous arrivait assez souvent de produire trente-cinq ou quarante-cinq mille itérations de ce type de pub au quotidien. »

    On est dans une forme de manipulation psychologique et émotionnelle. Cambridge Analytica explique que le vote se joue sur deux émotions : la peur et l’espoir. Et que les gens ne savent pas que quelque chose leur fait peur tant qu’on ne leur a pas montré. Évidemment, à Athènes, des orateurs pouvaient user de démagogie, mais ils le faisaient face à l’ensemble des citoyens en même temps. Ils n’allaient pas chez les votants la nuit pour les harceler avec leurs pires craintes. Cette manipulation est très efficacement renforcée par l’usage des fake news. (L’un des principaux investisseurs de Cambridge Analytica est également un des fondateurs de Breitbart News, site d’extrême droite soupçonné de fake news.)

    Cambridge Analytica ne s’arrête pas là. Dans un court et incroyable reportage (en anglais mais je vous le conseille), Channel 4 a filmé un dirigeant de l’entreprise en train d’expliquer qu’ils font appel à des sous-traitants qui recrutent des anciens agents des services secrets britanniques et israéliens : « On a employé une organisation différente pour un projet très réussi dans un pays d’Europe de l’Est, personne ne savait qu’ils étaient là, ils sont venus, ils ont fait le boulot, ils sont partis, et ils nous ont fourni du très bon matériel. »

    Cambridge Analytica est payé pour pratiquer une forme de « highjacking » de la démocratie. Savoir à quel point il fonctionne est impossible. Si vous avez une opinion désastreuse de Donald Trump, vous aurez tendance à penser que sa victoire est la preuve de la réussite de ces techniques de manipulation. Si vous détestez Obama, vous pourrez en tirer la même conclusion. On ne sait pas ce qui se passe dans la tête d’un électeur ou d’une électrice au moment de choisir un bulletin. Mais peu importe leur efficacité réelle, leur véritable impact sur nos vies démocratiques, ces pratiques sont condamnables. Il s’agit d’un détournement du modèle démocratique dans son fonctionnement même. Cambridge Analytica affirme l’avoir fait aux États-Unis, au Mexique, en Malaisie, avoir travaillé pour la campagne pro-Brexit, et bosser en ce moment au Brésil et en Chine.

    #Facebook #Cambridge_analytica #démocratie #Industrie_influence