• Devin Nunes and the Power of Keyword Signaling | WIRED
    https://www.wired.com/story/devin-nunes-and-the-dark-power-of-keyword-signaling

    We increasingly turn to search engines to seek out information. Since Google’s earliest days, marketers have relied on “search engine optimization” to try to maximize the likelihood that Google returns content that highlights their cause or company. In today’s media landscape, organizations and individuals also use these tactics to manipulate the algorithms behind Facebook/Instagram and Twitter feeds. The problem is, whether or not we’re aware, the key words we search are coded with political biases. My research demonstrates that it’s possible to position ideological searches to maximize the exposure of their content.

    When there is limited or no content available on a topic, it’s possible to game search engines to guarantee that certain keywords will be directed to content that includes these terms or is tagged accordingly. This is why conspiracy theorists were able to capitalize on the concept of a “crisis actor.” By producing a plethora of insidious content rife with the term and maximizing SEO, conspiracy theorists filled what Microsoft’s Michael Golebiewski and danah boyd referred to as a “data void.” Searches for “crisis actor” got conspiratorial results until other sources filled the void with more legitimate content debunking the theory.
    screenshot of a google search
    Courtesy of Francesca Tripodi

    To demonstrate how this works in politics, I Googled a few key phrases used in both of Nunes’ speeches. The results demonstrate how politicians and pundits can exploit data voids to create ideological information silos. During each hearing, Nunes describes “the Russia collusion hoax.” When you search for “collusion hoax,” the links returned support the position that investigations into the president are bogus. The top links are from a story in The New York Post published just last week that Dems are trying to block Barr’s probe into the “Russian collusion hoax” and a link to Amazon to purchase a book titled The Russia Hoax: The Illicit Scheme to Clear Hillary Clinton and Frame Donald Trump, by Fox News legal analyst Gregg Jarrett.

    Strategic signaling also drew attention to what the Mueller report did not focus on. On June 12, Nunes noted that the report had not procured any “useful information on figures who played key roles in the investigation such as Joseph Mifsud,” a Maltese academic and figure in the George Papadopoulos case, “or the Democrat paid operative, former spy Christopher Steele,” the British intelligence officer behind the now notorious pee tape allegations. In the days following Nunes’ remarks, the search returns were primarily conservative content published anywhere between two weeks to 12 minutes before Nunes’ speech. In addition to traditional conservative sources like Fox News, Washington Examiner, and National Review, there are also digital-first sources like the Daily Caller and the Daily Wire, as well as stories posted from more dubious publications like the Epoch Times.

    These findings reveal that existing studies on algorithms, filter bubbles, and misinformation online are missing a crucial component regarding the problem of political polarization, specifically data focused on how we access news and information. Epistemological frameworks can lead us into algorithmic rabbit holes. Understanding keyword signaling is an essential part of studying political polarization. While most focus on how output (e.g., search results or social media newsfeeds) keeps us in filter bubbles, more research is needed on how inputs are manipulated for political gain. This level of sophistication highlights how conservative groups systematically work to optimize their content for search and social media. Not unlike the tactics of Republican strategist Frank Luntz, political players and members of the right-wing media ecosystem are able to fill data voids with their own ideas and stories.

    #Politique_numérique #Moteurs_recherche #Faschosphère #Mots_clés #Fake_news

  • The New York Times published a story alleging ‘swing voters’ are repelled by impeachment. Turns out, they really interviewed Trump voters – Alternet.org
    https://www.alternet.org/2019/09/the-new-york-times-published-a-story-alleging-moderate-swing-voters-are-re

    This week, Sabrina Tavernise and other New York Times reporters have been focusing on swing voters and the issues that could sway them either for or against President Donald Trump in the 2020 election — including an impeachment inquiry in response to the Ukraine scandal. Tavernise, on Twitter, posted, “I talked with six swing voters today. Impeachment repelled every one of them. This could cost Dems at polls.” But pollster Matt McDermott responded that the voters Tavernise was referring to weren’t really swing voters, but committed conservatives or strong Trump supporters.

    McDermott, responding to Tavernise’s tweet, posted, “No, the New York Times did not talk to six ‘swing voters’ about impeachment. The article quotes a handful of devout GOP voters who the NYT has repeatedly interviewed multiple times.”

    The New York Times article that McDermott was referring to rang with the headline, “Elated, Furious, Wary: Impeachment Divides Voters, Like Everything Trump.”

    McDermott, director of Whitman Insight Strategies, specifically discussed some of the voters the Times had interviewed and explained why he didn’t consider them swing voters but rather, staunch conservatives or Trump loyalists.

    For example, a Tennessee woman named Donna Burgraff was interviewed. McDermott notes that the Times presented Donna as an example of a swing voter who “doesn’t favor impeachment. The problem? NYT interviewed the same woman last year. She voted for Trump and the Republicans again in the midterm.”

    McDermott notes that another person presented by the Times as a swing voter, Trisha Hope, has repeatedly attended Trump rallies. Hope, McDermott tweets, “admits she’s been to 23 Trump campaign rallies. 23!…. She’s a Trump fanatic, not a swing voter.”

    Reggie Dickerson is also presented by the Times as a swing voter, but Dickerson, McDermott points out, “was highlighted in an AP story last year entitled ‘In the heart of Trump country, his base remains unshaken.’ Reggie has a portrait of Robert E. Lee hanging in his living room. No, Reggie is not a swing voter.”

    McDermott asserts, “The NYT is repeating its exact same 2016 reporting antics, presenting devout Trump supporters as some sort of forgotten swing constituency. Why does this keep happening, and why do they keep going back to the same individuals for interviews?”

    #Fake_news #Micro_trottoir #Journalisme #new_York_Times

  • « Regarde, j’ai vu ça sur Facebook ! » : quand nos bavardages nourrissent les fake news
    http://theconversation.com/regarde-jai-vu-ca-sur-facebook-quand-nos-bavardages-nourrissent-les

    Que ce soit sur Facebook ou dans un groupe WhatsApp, au téléphone ou au comptoir d’un café, les réactions des individus face aux informations qu’ils reçoivent peuvent être multiples et variées. Or, il est possible qu’au sein de ces niches conversationnelles, la circulation de certaines « fake news » soit favorisée par les bavardages désinhibés et familiers que chacun d’entre nous peut avoir, avec ses proches, dans sa vie quotidienne.

    En effet, lors de ces contextes de communication informelle, nous pouvons nous permettre de discuter d’une façon plus relâchée. Il est ainsi probable que nous ne soyons pas forcément vigilants et tatillons sur la crédibilité d’un contenu informationnel car ce qui compte pour nous est d’un tout autre ordre : faire rire nos meilleurs amis ; provoquer notre belle-mère ; ou encore montrer à notre collègue – celui qui sait toujours tout sur tout – que cette fois-ci c’est nous qui avons raison.
    Les « fake news » sont massivement likées, commentées et partagées : et alors ?

    Lorsque l’on parle du phénomène de la désinformation, il est important de ne pas se focaliser uniquement sur les volumes de « fake news » partagées sur les réseaux sociaux, mais d’étudier également plus finement la manière dont elles sont reçues et interprétées par les individus dans différents contextes de la vie sociale. Et cela pour deux raisons majeures.

    Tout d’abord, parce que pris à l’état brut, ces nombres absolus ne veulent pas dire grand-chose. Par exemple, il a été montré que les 20 « fake news » les plus partagées pendant la campagne électorale américaine de 2016 ont suscité 8,7 millions de likes, partages et commentaires sur Facebook.

    A priori vertigineux, ce chiffre, qui a soulevé beaucoup d’inquiétudes auprès du grand public en raison de son importante couverture médiatique, a bien moins fière allure si on le met perspective avec le nombre total des interactions des utilisateurs américains du réseau social sur la même période car il ne représente alors plus que 0,006 % !

    Ensuite parce que ces traces numériques sont bien laconiques par rapport aux commérages, parlementages ou ergotages que la réception de « fake news » est susceptible d’engendrer dans la vie réelle. Car après tout, est-ce parce qu’une « fake news » a été partagée par des milliers d’internautes que chacun d’entre eux y a cru ?

    En effet, comme l’explique le sociologue Dominique Cardon, l’essor des réseaux sociaux a libéré la prise de parole en public.

    Désormais, tout le monde peut parler de n’importe quoi à n’importe qui, et cela au sein même de l’espace public. De cette manière, les conversations ordinaires des internautes sont venues se greffer aux informations médiatiques diffusées sur le web – lesquelles sont alors devenues des objets de discussions à demi joueuses et moqueuses.
    Les conversations quittent les espaces privés et cercles d’amis, projetées dans l’espace public qu’offrent les réseaux sociaux. Prakhar Amba/Flickr, CC BY-SA

    Elles ne sont non plus murmurées, dans des espaces privés, au sein de contextes de communication interpersonnelle, mais désormais exhibées au sein d’espaces de visibilité en « clair-obscur ». Dominique Cardon utilise cette expression pour souligner que, pour autant qu’ils soient visibles, ces bavardages sont remplis de sous-entendus et d’indices complices destinés à n’être compréhensibles que pour un cercle restreint : les proches du réseau relationnel des internautes.

    Or cette nouvelle structure de la visibilité a ainsi favorisé l’apparition de nouveaux registres d’énonciation plus familiers et désinhibés.

    Le modèle économique des plates-formes joue précisément de cet enchevêtrement entre logiques algorithmiques et dynamiques de sociabilité. En favorisant les contenus qui suscitent le plus d’interactions, les algorithmes de classement de l’information structurent en effet le marché cognitif.

    Sans doute est-ce ainsi pour cela que les « fake news » les plus diffusées sur Facebook en France et aux États-Unis ont été surtout des rumeurs grossières et stupéfiantes telles que : « Une femme augmente son quotient intellectuel en buvant du sperme tous les jours pendant un an » ou encore : « Une babysitter a fini aux urgences après avoir inséré le bébé dans son vagin ».
    Influencer les Unes des médias traditionnels

    Or ces bavardages numériques pourraient finir par imposer des thématiques au débat public en s’infiltrant jusque dans les rédactions, souvent en quête de clics pour monétiser leur audience.

    Aux États-Unis, par exemple, une étude de Harvard a montré que certains grands médias traditionnels avaient plus facilement couverts des informations provenant de rumeurs ou de ragots anecdotiques que des faits établis. Cette tendance générale les aurait ainsi incités à se concentrer plus facilement sur les scandales qui ont égrené la campagne présidentielle qu’aux programmes des candidats.

    Ainsi, en seulement six jours le New York Times a en effet mis autant de fois à la Une le scandale lié à la boîte e-mail d’Hillary Clinton que toutes les thématiques de son programme publiées au cours des soixante-neuf jours qui ont précédé les élections américaines.

    #Fake_news #Médias_sociaux #Médias

  • Est-il vrai que le gouvernement n’a pas financé de pub pour le grand débat, comme l’a dit Sibeth Ndiaye ? - Libération
    https://www.liberation.fr/checknews/2019/09/06/est-il-vrai-que-le-gouvernement-n-a-pas-finance-de-pub-pour-le-grand-deba

    Contrairement à ce qu’a affirmé la porte-parole du gouvernement sur France Inter, l’exécutif a bien dépensé plus d’un million d’euros dans un plan de communication.

  • Fraude exagérée des pauvres, fraude dissimulée des riches : les éditocrates ont choisi leur camp 10 septembre 2019 -Frustration La Revue

    Comme chaque mois, un nouveau sujet anti-pauvres arrive à la table des éditocrates, qui s’acharnent à coup d’édito et de plateaux unanimes pour s’indigner de l’incurie de leurs concitoyens. Ce début septembre, c’est un rapport parlementaire (LREM) consacré à la fraude aux cotisations sociales qui met le feu aux poudres médiatiques.

    Effectivement, alors qu’en France la protection sociale est financée à 61% par des cotisations (le reste par l’impôt, la fameuse CSG entre autres), l’Agence centrale des organismes de Sécurité sociale (Acoss) a sorti en juin dernier une note estimant le montant de la fraude liée au travail dissimulé entre 6,8 et 8,4 milliards d’euros au régime général. Au total, la fraude patronale aux cotisations sociales représenterait la somme considérable de 25 milliards d’euros par an selon le dernier rapport de la Cour des comptes (février 2018). Il y a de quoi s’indigner, effectivement !

    Sauf que, sauf que, on nous souffle à l’oreille que ce n’est pas cette fraude là qui a rempli les colonnes de vos journaux en ligne et occupé vos chroniqueurs télé et radios. La fraude patronale (25 milliards), c’est deux-trois articles par an. La fraude des particuliers, c’est des dizaines par mois !

    Pourtant, la fraude aux prestations sociales (percevoir des prestations auxquels on n’a en réalité pas le droit), est estimée à … 1 milliard par an. Et une bonne moitié est recouvré par des contrôles.

    Le rapport parlementaire LREM est venu apporter un nouvel élément de preuve à tous ceux qui s’en foutent des chiffres (tout en criant à longueur de journée contre les “mensonges des populistes”) et pensent que le Français moyen, pauvre, ou l’étranger, est un fieffé menteur. Il y aurait des “assurés fantômes” à l’assurance maladie, car le nombre de carte vitale serait bien supérieur à la population française. Une info choc qui n’a manqué de faire les gros titres, tant par son caractère spectaculaire (“assurés fantômes”, une expression qui pousse au clic) que par la confirmation du fait journalistique bien connu selon lequel les Français sont des salauds profiteurs – sans même parler des étrangers vivant en France, qui sont profiteurs ET potentiels terroristes.

    Depuis, il a été démontré que le rapport était en grande partie “fake”, comme disent les journaleux. Les estimations de fraude sociale proviennent d’une étude réalisée par l’université de Portsmouth, basée sur d’autres pays et système sociaux que le nôtre – on laisse quand même publier n’importe quoi à l’Assemblée Nationale – et non, il n’y a pas davantage de carte vitale en circulation en France que d’habitants. https://www.lemonde.fr/les-decodeurs/article/2019/09/05/y-a-t-il-vraiment-84-millions-de-cartes-vitale-actives-en-france_5506868_435

    Mais le mal est fait. Et en cela, les éditocrates bourgeois procèdent exactement comme les idéologues d’extrême-droite ou les “populistes” qu’ils se targuent de combattre : ils balancent “une fausse information” où une approximation, sans la vérifier, parce qu’elle confirme leurs préjugées de classe (quand l’extrême-droite cherche à confirmer ses préjugés racistes), ils ergotent des heures de grande écoute dessus https://www.telerama.fr/television/fraude-sociale-les-mauvais-comptes-font-les-bons-ennemis,n6411523.php et quand les éléments sont infirmés par des analyses un peu plus poussées, ils passent à autre chose. Ni ne s’excusent, ni proposent une autre analyse, ni dédouanent les gens qu’ils attaquaient. Comme ils l’ont fait avec la prétendue “invasion” de l’hôpital de la Pitié-Salpétrière par les gilets jaunes, comme ils le font continuellement en disant que les Français travaillent moins que les autres. https://www.frustrationlarevue.fr/les-fake-news-cest-mal-sauf-quand-il-sagit-de-detruire-notre-mode Les “fake news”, c’est mal, sauf quand il s’agit de détruire notre modèle social, salir les opposants au régime, décrédibiliser un mouvement citoyen.

    Extrême-droite, extrême-bourgeoisie, même moyen, même fin ?

    Source : https://www.frustrationlarevue.fr/fraude-exageree-des-pauvres-fraude-dissimulee-des-riches-les-edit

     #fake_news #en_vedette #facebook #médias #manipulation #journalisme #fake #propagande #surveillance #racisme #twitter #désinformation #france #internet #politique #réseaux_sociaux #merdias #journulliste #médiacrates #imposture

  • The Pentagon Wants to Use #DARPA to #Police #Internet News – Rolling Stone
    https://www.rollingstone.com/politics/political-commentary/darpa-fake-news-internet-censorship-879671

    Il pourra s’agir de vraies ou de fausses #fake_news du moment qu’elles « sèment la discorde ». A l’inverse celles qui renforcent l’ordre établi ne seront jamais considérées comme telles a priori,...

    Fake news has a long history in America. Its most pernicious incarnation is never the work of small-time scam artists. The worst “fake news” almost always involves broad-scale deceptions foisted on the public by official (and often unnamed) sources, in conjunction with oligopolistic media companies, usually in service of rallying the public behind a dubious policy objective like a war or authoritarian crackdown.

    #SemaFor #MediFor #surveillance #répression #pentagone #états-unis

  • Algorithmes : où sont les dangers ?
    http://theconversation.com/algorithmes-ou-sont-les-dangers-120543

    Pourquoi avons-nous spontanément tendance à croire qu’à l’origine de nos maux se cache un agent animé par une volonté de nuire ? Plusieurs mécanismes psychologiques permettent d’en rendre compte, et notamment certains biais cognitifs – des erreurs systématiques de raisonnement. L’humain tend naturellement à raisonner de manière téléologique, c’est-à-dire à penser que si un évènement se produit, celui-ci se produit dans un but particulier. Par extension, nous pourrons avoir tendance à croire que l’évènement a été voulu par un agent conscient, ce dernier fut-il invisible. Ce type de raisonnement se retrouve dans nombre de croyances, allant du créationnisme à diverses théories du complot. Tout particulièrement pour expliquer les évènements ayant des conséquences négatives, il semble que nous privilégions les causes intentionnelles aux causes accidentelles.

    On parle de « biais d’intentionnalité » pour désigner cette tendance à spontanément chercher une intention consciente derrière les évènements. Si dans nombreux cas ce biais nous amènera à des conclusions hâtives et souvent fautives, il comporte un avantage important : il permet d’identifier clairement et rapidement un responsable, et donc d’agir contre celui-ci là où une réflexion plus fine, scientifique, prendra davantage de temps… temps durant lequel le coupable intuitivement identifié pourra continuer de nuire ! Dans la mesure où le biais d’intentionnalité (et le raisonnement téléologique de façon générale) s’observe dès la petite enfance, on peut supposer qu’il est issu de notre histoire évolutive.

    Ainsi, le biais d’intentionnalité comporte une utilité adaptative qui était d’autant plus grande à l’époque où les sociétés étaient à la fois moins complexes et plus violentes. La désignation d’un coupable (qui sera bien souvent un groupe social particulier, perçu comme une entité monolithique : les élites, les banquiers, Big Pharma, les multinationales, les immigrés, les Juifs…), est un puissant facteur de mobilisation collective. Outre cet intérêt adaptatif, il est de plus en plus clair que les expressions conspirationnistes du biais d’intentionnalité ont d’autant plus de chance d’apparaître à la suite d’un évènement générant de la peur et de l’incertitude. La désignation d’un coupable permet également de soulager l’inconfort mental provoqué par cet état d’incertitude et de peur.

    L’utilisation généralisée des algorithmes est adossée à une série de phénomènes qui préoccupent de plus en plus les chercheurs en sciences sociales : dérégulation généralisée du marché de l’information, isolement des individus dans des bulles idéologiques, viralité d’informations douteuses, perpétuation de stéréotypes (notamment par les moteurs de recherche)… Mais également, dans des registres plus dramatiques, krachs boursiers et décisions de justice iniques à l’égard des minorités. Tous ces phénomènes ont en commun qu’ils n’ont pas été délibérément provoqués par un agent conscient. Il s’agit d’effets émergents, c’est-à-dire des effets collectifs plus ou moins imprévisibles qui découlent de l’agrégation d’actions individuelles non concertées – cette dernière précision étant d’une importance capitale.

    Notre cerveau semble cablé pour rechercher des coupables derrière les maux qui frappent la société. Cette intuition, si elle peut dans nombre de cas s’avérer fautive ou à tout le moins non fondée, comporte certains avantages : elle encourage dans certains cas à se mobiliser, et à agir contre le coupable présumé – quand bien même celui-ci serait en réalité innocent. Néanmoins, le cas des algorithmes – des « weapons of math destruction » – rappelle que quand bien même nous peinons à imaginer qu’un problème social puisse advenir en l’absence d’une volonté malveillante, de telles situations sont bien réelles, et constituent des enjeux majeurs pour la société. Concernant les algorithmes, on peut par exemple s’interroger sur la nécessité de rendre leur fonctionnement moins opaque. En effet, cette opacité empêche leur analyse critique, et par la même la responsabilisation de leurs concepteurs – quand bien même ceux-ci seraient animés par les meilleures intentions qui soient.

    #Algorithmes #Fake_news #Complotisme

  • Opinion | How an Online Mob Created a Playbook for a Culture War - The New York Times
    https://www.nytimes.com/interactive/2019/08/15/opinion/what-is-gamergate.html

    On August 15, 2014, an angry 20-something ex-boyfriend published a 9,425-word screed and set in motion a series of vile events that changed the way we fight online. The post, which exhaustively documented the last weeks of his breakup with the video game designer Zoë Quinn, was annotated and punctuated with screenshots of their private digital correspondence — emails, Facebook messages and texts detailing fights and rehashing sexual histories. It was a manic, all-caps rant made to go viral.

    And it did. The ex-boyfriend’s claims were picked up by users on Reddit and 4chan and the abuse began. Ms. Quinn and her immediate family members were threatened. Her private information was exposed, including old nude photos from a past relationship. Chat rooms popped up to discuss the best ways to “ruin her life” and fantasize about elaborate ways of killing her.

    Using fake Twitter accounts, 4chan users posed as “angry feminists” and got the hashtags #EndFathersDay and #WhitesCantBeRaped to trend globally. At a tech conference in 2013, in an incident called Donglegate, Adria Richards, a tech consultant and woman of color, tweeted about a sexist joke uttered during a keynote speech. Her tweet went viral, and Ms. Richards was fired, doxxed, received death threats and had “images of her beheaded, or her face photoshopped onto the body of porn stars.” Not all of the hoaxes succeeded: 4chan campaigns like “Operation Freebleeding” (where trolls pretended to be feminists rejecting tampons as patriarchal tools of oppression) failed to stoke culture war flames.

    “The energy and ideology of this movement weren’t new but Gamergate was when the movement evolved and the monster grew a voice box,” Whitney Phillips, an assistant professor at Syracuse who studies online harassment and media manipulation, told me. “All the anger, all the toxicity and fear of being replaced by a culture more focused on social justice — it all came together in a spectacularly awful way.”

    Unlike its predecessors, Gamergate jumped out of the obscure fever swamps of the internet and into mainstream consciousness, in part because its arrival coincided with a peculiar online moment in which social media platforms were becoming more mainstream. People who were unfamiliar with the chaotic underbelly of internet culture could be easily tricked or manipulated by its worst actors. “The clash of anonymous imageboard culture with the parts of social media where people live and work created the divide underlying Gamergate,” Jay Allen, a freelance writer, wrote of this dynamic in 2014.

    Crucially, Gamergate emerged during the internet’s shift from a largely anonymous or pseudonymous culture to one centered around personality-driven influencers. And, unlike previous abuse campaigns led by armies of unknown internet users, Gamergate attracted the attention of then-men’s rights bloggers like Mike Cernovich and Roosh V, right-wing political correctness monitors like Christina Hoff Sommers and middling journalists like Milo Yiannopoulos, then a writer for Breitbart.

    “Gamergate really prototyped the rise of harassment influencers,” Ms. Phillips told me, arguing that the size and intensity of the controversy quickly attracted opportunists who saw the conflict as a way to gain large followings stoking the culture war flames. In turn, these personalities extended the conflict, highlighting new controversies. The fact that these influencers were real, identifiable people only further legitimized the event for its followers.

    Today, five years later, the elements of Gamergate are frighteningly familiar: hundreds of thousands of hashtag-swarming tweets; armies of fake Twitter accounts; hoaxes and disinformation percolating in murky chat rooms and message boards before spreading to a confused mainstream media; advertiser boycotts; crowdfunding campaigns; racist, sexist and misogynist memes; YouTube shock jocks; D-list celebrities hand-wringing about political correctness on Twitter; Milo Yiannopoulos, Steve Bannon and Breitbart; Candace Owens.

    Gamergate’s DNA is everywhere on the internet, and the ubiquity of Gamergate’s influence has even spawned a winking trope: Everything Is Gamergate.

    Gamergate wasn’t the birth of a brand-new culture war, it was a rallying cry. And its trollish successes in intimidating women, deceiving clueless brands and picking up mainstream coverage taught a once-dormant subculture powerful lessons about manipulating audiences and manufacturing outrage. Five years on, no lesson feels more prescient than the fact that its supposed central premise — a broad reckoning regarding journalistic ethics in video games — was based on an easily (and frequently) debunked lie.

    Gamergate is occasionally framed as a battle for the soul of the internet between a diverse, progressive set and an angry collection of white males who feel displaced. And it is that, too. But its most powerful legacy is as proof of concept of how to wage a post-truth information war.

    The lesson of Gamergate — the one we feel reverberating throughout our politics every day in 2019 — is that there’s a sinister power afforded to those brazen enough to construct their own false realities and foist them on others.

    #Gamergate #Fake_news #Trolls #Faschosphère

  • The world’s top deepfake artist is wrestling with the monster he created - MIT Technology Review
    https://www.technologyreview.com/s/614083/the-worlds-top-deepfake-artist-is-wrestling-with-the-monster-he-cr

    Misinformation has long been a popular tool of geopolitical sabotage, but social media has injected rocket fuel into the spread of fake news. When fake video footage is as easy to make as fake news articles, it is a virtual guarantee that it will be weaponized. Want to sway an election, ruin the career and reputation of an enemy, or spark ethnic violence? It’s hard to imagine a more effective vehicle than a clip that looks authentic, spreading like wildfire through Facebook, WhatsApp, or Twitter, faster than people can figure out they’ve been duped.

    As a pioneer of digital fakery, Li worries that deepfakes are only the beginning. Despite having helped usher in an era when our eyes cannot always be trusted, he wants to use his skills to do something about the looming problem of ubiquitous, near-perfect video deception.

    Li isn’t your typical deepfaker. He doesn’t lurk on Reddit posting fake porn or reshoots of famous movies modified to star Nicolas Cage. He’s spent his career developing cutting-edge techniques to forge faces more easily and convincingly. He has also messed with some of the most famous faces in the world for modern blockbusters, fooling millions of people into believing in a smile or a wink that was never actually there. Talking over Skype from his office in Los Angeles one afternoon, he casually mentions that Will Smith stopped in recently, for a movie he’s working on.

    Actors often come to Li’s lab at the University of Southern California (USC) to have their likeness digitally scanned. They are put inside a spherical array of lights and machine vision cameras to capture the shape of their face, facial expressions, and skin tone and texture down to the level of individual pores. A special-effects team working on a movie can then manipulate scenes that have already been shot, or even add an actor to a new one in post-production.

    Shortly after joining USC, Li created facial tracking technology used to make a digital version of the late actor Paul Walker for the action movie Furious 7. It was a big achievement, since Walker, who died in a car accident halfway through shooting, had not been scanned beforehand, and his character needed to appear in so many scenes. Li’s technology was used to paste Walker’s face onto the bodies of his two brothers, who took turns acting in his place in more than 200 scenes.

    The movie, which grossed $1.5 billion at the box office, was the first to depend so heavily on a digitally re-created star. Li mentions Walker’s virtual role when talking about how good video trickery is becoming. “Even I can’t tell which ones are fake,” he says with a shake of his head.

    La vague des repentis s’élargit... Mais c’est intéressant cette façon de voir : tant que ce sont quelques personnes bien intentionnées, les technologies sont magiques, mais quand cela devient accessible à tout le monde, les problèmes arrivent. On a vu ce discours se répéter depuis que l’internet s’est ouvert au public.

    Underneath the digital silliness, though, is an important trend: AI is rapidly making advanced image manipulation the province of the smartphone rather than the desktop. FaceApp, developed by a company in Saint Petersburg, Russia, has drawn millions of users, and recent controversy, by offering a one-click way to change a face on your phone. You can add a smile to a photo, remove blemishes, or mess with your age or gender (or someone else’s). Dozens more apps offer similar manipulations at the click of a button.

    Not everyone is excited about the prospect of this technology becoming ubiquitous. Li and others are “basically trying to make one-image, mobile, and real-time deepfakes,” says Sam Gregory, director of Witness, a nonprofit focused on video and human rights. “That’s the threat level that worries me, when it [becomes] something that’s less easily controlled and more accessible to a range of actors.”

    Fortunately, most deepfakes still look a bit off. A flickering face, a wonky eye, or an odd skin tone make them easy enough to spot. But just as an expert can remove such flaws, advances in AI promise to smooth them out automatically, making the fake videos both simpler to create and harder to detect.

    Even as Li races ahead with digital fakery, he is also troubled by the potential for harm. “We’re sitting in front of a problem,” he says.

    (Medifor : programme de la DARPA our reconnaître les deepfakes)

    Earlier this year, Matt Turek, DARPA program manager for MediFor, asked Li to demonstrate his fakes to the MediFor researchers. This led to a collaboration with Hany Farid, a professor at UC Berkeley and one of the world’s foremost authorities on digital forensics. The pair are now engaged in a digital game of cat-and-mouse, with Li developing deepfakes for Farid to catch, and then refining them to evade detection.

    Farid, Li, and others recently released a paper outlining a new, more powerful way to spot deepfakes. It hinges on training a machine-learning algorithm to recognize the quirks of a specific individual’s facial expressions and head movements. If you simply paste someone’s likeness onto another face, those features won’t be carried over. It would require a lot of computer power and training data—i.e., images or video of the person—to make a deepfake that incorporates these characteristics. But one day it will be possible. “Technical solutions will continue to improve on the defensive side,” says Turek. “But will that be perfect? I doubt it.”

    #Fake_news #deepfakes #Intelligence_artificielle #Art #Cinéma

    • Et c’est bien pour ça que pour les techniques complexes, ce n’est jamais « non mais ça dépend comment on utilise l’outil », car une fois que que la technique est généralisée, elle induit en elle-mêmes des problèmes plus importants (et très souvent immensément plus importants) que ses quelques avantages (quand il y en a…). Les technoptimistes se repentissent toujours trop tard…

  • « Malik Oussekine n’a pas reçu de coups de la police » : la fake news d’un directeur du Figaro - Acrimed | Action Critique Médias
    https://www.acrimed.org/Malik-Oussekine-n-a-pas-recu-de-coups-de-la

    Lundi 5 août, le directeur adjoint du Figaro Magazine, Jean-Christophe Buisson, intervenait dans « On refait le monde » sur RTL. L’occasion d’asséner plusieurs contrevérités sur la mort de Malik Oussekine, étudiant tué par la police en 1986, sans être jamais contredit. Un épisode qui montre une nouvelle fois que les producteurs de « fake news » ne sont pas toujours dépourvus de carte de presse…

    Jean-Christophe Buisson est formel ce 5 août au micro de RTL : si tout le monde considère que Malik Oussekine a été victime de violences policières, « ce n’est factuellement pas le cas ». Et le directeur adjoint du Figaro Magazine de préciser que l’étudiant n’aurait « pas reçu de coups » et qu’il serait « mort avec son problème d’insuline ». Peu importe que l’autopsie réalisée alors concluait « à un décès consécutif à un état de choc », des suites de coups reçus dans les côtes selon l’article du Monde du 9 décembre 1986. Ou que les policiers en cause aient été condamnés par la justice.

    Sur le plateau de RTL, aucune contradiction... au contraire, le présentateur Vincent Parizot semble acquiescer aux propos de Jean-Christophe Buisson (« C’est mieux de réagir un peu à froid, vous voulez dire »), laissant entendre que les critiques faites à la police à propos de la mort de Steve Maia Caniço sont hâtives. « Quand on réagit à chaud, on dit souvent des bêtises » ajoute, très inspiré, un autre invité.

    #fake_news #Journalisme #Editocratie

  • Man Who Built The Retweet : “We Handed A Loaded Weapon To 4-Year-Olds”
    https://www.buzzfeednews.com/article/alexkantrowitz/how-the-retweet-ruined-the-internet

    Developer Chris Wetherell built Twitter’s retweet button. And he regrets what he did to this day.

    “We might have just handed a 4-year-old a loaded weapon,” Wetherell recalled thinking as he watched the first Twitter mob use the tool he created. “That’s what I think we actually did.”

    Wetherell, a veteran tech developer, led the Twitter team that built the retweet button in 2009. The button is now a fundamental feature of the platform, and has been for a decade — to the point of innocuousness. But as Wetherell, now cofounder of a yet-unannounced startup, made clear in a candid interview, it’s time to fix it. Because social media is broken. And the retweet is a big reason why.

    After the retweet button debuted, Wetherell was struck by how effectively it spread information. “It did a lot of what it was designed to do,” he said. “It had a force multiplier that other things didn’t have.”

    “We would talk about earthquakes,” Wetherell said. “We talked about these first response situations that were always a positive and showed where humanity was in its best light.”

    But the button also changed Twitter in a way Wetherell and his colleagues didn’t anticipate. Copying and pasting made people look at what they shared, and think about it, at least for a moment. When the retweet button debuted, that friction diminished. Impulse superseded the at-least-minimal degree of thoughtfulness once baked into sharing. Before the retweet, Twitter was largely a convivial place. After, all hell broke loose — and spread.

    In the early 2010s, Facebook’s leadership was looking for ways to drive up engagement. Having previously failed to acquire Twitter, they looked to its product for inspiration.

    The allure of going viral via the retweet had drawn publications, journalists, and politicians to Twitter en masse. And their presence shined most prominently during the 2012 election, a big moment for Twitter and a relative dud for Facebook. So Facebook, in a now all too familiar move copied Twitter, adding a trending column, hashtags, and a retweet clone.

    In 2014, Wetherell realized the retweet button was going to be a major problem when the phrase “ethics in game journalism” started pouring into a saved search for “journalism” he had on Twitter. The phrase was a rallying cry for Gamergate — a harassment campaign against women in the game industry — and Wetherell, after seeing that first batch of tweets, watched it closely.

    As Gamergate unfolded, Wetherell noticed its participants were using the retweet to “brigade,” or coordinate their attacks against their targets, disseminating misinformation and outrage at a pace that made it difficult to fight back. The retweet button propelled Gamergate, according to an analysis by the technologist and blogger Andy Baio. In his study of 316,669 Gamergate tweets sent over 72 hours, 217,384 were retweets, or about 69%.

    The game took another dark turn during the 2016 presidential campaign, when impulse-sparked sharing caused outrage and disinformation to flourish on both Twitter and Facebook. It’s one thing to copy and paste a link that says Hillary Clinton is running a pedophile ring in the basement of a pizza shop — and share it under your own name. It’s another to see someone else post it, remember that you don’t like Hillary Clinton, and impulsively hit the share or retweet button.

    “We have some evidence that people who are more likely to stop and think are better at telling true from false,” David Rand, an associate professor at MIT who studies misinformation, told BuzzFeed News. “Even for stuff that they are motivated to believe, people who stop and think more are less likely to believe the false stuff.”

    The benefits of creating such content accrued disproportionately to the fringe. When someone retweets something, they’re sharing the content with their followers, but also sending a signal to the person they’re amplifying, said Anil Dash, a blogger and tech entrepreneur. The more fringe the original tweeter, the more valuable the retweet.

    “If I retweet the New York Times, they don’t care,” Dash said. “But extreme content comes from people who are trying to be voices, who are trying to be influential in culture, and so it has meaning to them, and so it earns me status with them.”

    The pursuit of that status has driven many Twitter users to write outrageous tweets in the hope of being retweeted by fringe power users. And when they do get retweeted, it sometimes lends a certain credibility to their radical positions.

    The retweet and share, in other words, incentivize extreme, polarizing, and outrage-inducing content.

    A full rollback of the share and retweet buttons is unrealistic, and Wetherell doesn’t believe it’s a good idea. Were these buttons universally disabled, he said, people could pay users with large audiences to get their message out, giving them disproportionate power.
    "Oh no, we put power into the hands of people.”

    To rein in the excesses of the retweet, Wetherell suggested the social media companies turn their attention toward audiences. When thousands of people retweet or share the same tweet or post, they become part of an audience. A platform could revoke or suspend the retweet ability from audiences that regularly amplify awful posts, said Wetherell. “Curation of individuals is way too hard, as YouTube could attest,” Wetherell said. “But curation of audiences is a lot easier.”

    Another solution might be to limit on the number of times a tweet can be retweeted. Facebook is experimenting with an approach of this nature, although not in its main product. Earlier this year, WhatsApp, which is owned by Facebook, limited the number of people to which a message could be forwarded to five at a time, in response to quick-spreading rumors and disinformation. “The forward limit significantly reduced forwarded messages around the world,” WhatsApp said in a blog post. “We’ll continue to listen to user feedback about their experience, and over time, look for new ways of addressing viral content.”

    MIT’s Rand suggested another idea: preventing people from retweeting an article if they haven’t clicked on the link. “That could make people slow down,” he said. “But even more than that, it could make people realize the problematic nature of sharing content without having actually read it.”

    Whatever the solution, Wetherell looks at the retweet very differently than he once did — a lesson that he thinks has broader implications. “I remember specifically one day thinking of that phrase: We put power in the hands of people,” he said. “But now, what if you just say it slightly differently: Oh no, we put power into the hands of people.”

    #Twitter #Retweet #Médias_sociaux #Viralité #Fake_news #Cyberharcèlement

  • Man Who Built The #Retweet: “We Handed A Loaded Weapon To 4-Year-Olds”
    https://www.buzzfeednews.com/article/alexkantrowitz/how-the-retweet-ruined-the-internet

    The button that ruined the internet — and how to fix it.

    Developer Chris Wetherell built Twitter’s retweet button. And he regrets what he did to this day.

    We might have just handed a 4-year-old a loaded weapon,” Wetherell recalled thinking as he watched the first Twitter mob use the tool he created. “That’s what I think we actually did.

    Wetherell, a veteran tech developer, led the Twitter team that built the retweet button in 2009. The button is now a fundamental feature of the platform, and has been for a decade — to the point of innocuousness. But as Wetherell, now cofounder of a yet-unannounced startup, made clear in a candid interview, it’s time to fix it. Because social media is broken. And the retweet is a big reason why.
    […]
    But the button also changed Twitter in a way Wetherell and his colleagues didn’t anticipate. Copying and pasting made people look at what they shared, and think about it, at least for a moment. When the retweet button debuted, that friction diminished. Impulse superseded the at-least-minimal degree of thoughtfulness once baked into sharing. Before the retweet, Twitter was largely a convivial place. After, all hell broke loose — and spread.

    #gamergate

    • “If I retweet the New York Times, they don’t care,” Dash said. “But extreme content comes from people who are trying to be voices, who are trying to be influential in culture, and so it has meaning to them, and so it earns me status with them.”

      The pursuit of that status has driven many Twitter users to write outrageous tweets in the hope of being retweeted by fringe power users. And when they do get retweeted, it sometimes lends a certain credibility to their radical positions.

      The retweet and share, in other words, incentivize extreme, polarizing, and outrage-inducing content.

      #rumeur #fake_news #harcèlement #réseaux_sociaux #extrémisme

  • Aux sources de la désinformation en santé, la confiance brisée
    https://www.mediapart.fr/journal/france/270719/aux-sources-de-la-desinformation-en-sante-la-confiance-brisee

    Les réseaux sociaux ont-ils provoqué l’épidémie de rougeole en laissant prospérer les « antivax » ? Pour les spécialistes réunis récemment à Paris, la rupture de confiance s’explique plutôt par « les scandales sanitaires à répétition » ou la « mendicité scientifique ».

    #INTERNET #fake_news,_sante,_réseaux_sociaux,_désinformation

  • Anonymat, représailles ciblées et faux comptes : comment des macronistes se sont radicalisés en ligne
    https://www.lemonde.fr/les-decodeurs/article/2019/07/06/anonymat-represailles-ciblees-et-faux-comptes-voyage-dans-la-macronie-numeri

    La majorité et le chef de l’Etat multiplient les mises en garde contre les fausses informations et les dangers des réseaux sociaux. Dans le monde numérique, des « marcheurs » ont pourtant adopté des méthodes peu en phase avec ces principes.

    Groupes privés, partages industrialisés, « cibles » désignées à la « riposte » collective, comptes anonymes démultipliés, faux profils, violence des propos… Depuis l’été 2018 et l’affaire Benalla, certains « marcheurs » qui peuplent les réseaux sociaux ont changé d’attitude : loin de la « bienveillance » préconisée par le chef de l’Etat pendant la campagne présidentielle, une partie de la Macronie numérique s’est durcie et convertie à des méthodes jusqu’alors pratiquées par d’autres acteurs du champ politique, notamment aux extrêmes.

    Twitter compte aujourd’hui environ 15 millions de profils actifs en France, bien loin de Facebook qui en aligne plutôt 30 millions. Mais le réseau à l’oiseau bleu (son icône) est celui des « décideurs » et des « influenceurs » : stars, politiciens, journalistes, communicants en ont fait leur canal privilégié, tant pour y diffuser leur actualité que pour s’informer. Ce qui explique sans doute également que les militants de tout bord y soient très actifs, dans l’espoir de « toucher » ces influents et d’obtenir une visibilité.

    S’agit-il d’une pratique organisée ? Officiellement, il n’est pas question de lever des armées d’anonymes. Mais la galaxie macroniste est structurée par des dizaines de groupes de messageries privés, appelés « boucles », notamment sur l’application Telegram, très populaire dans la politique française. Un membre de la communication numérique du parti confirme que LRM coordonne les actions grâce à cet outil. « Ces boucles nous donnent les liens de Tweet, posts Facebook, vidéos YouTube à partager en masse », confirme un militant.

    #Fake_news #Mobilisations_numériques #Twitter

  • Complotisme : YouTube est-il responsable des contenus publiés ?
    https://www.ladn.eu/media-mutants/tv-et-nouvelles-images/youtube-rend-responsables-suggestions-videos

    Face aux critiques, la plateforme a mis en avant ses outils de contrôle des recommandations de vidéo et estime que c’est aux utilisateurs de faire le ménage.

    Ne dites plus jamais que c’est de la faute de YouTube si vous trouvez une vidéo complotiste ou contenant de fausses informations dans votre fil de recommandations. C’est en tout cas le message qu’ont tenté de faire passer Romain Cabrolier et Justine Ryst, respectivement manager et directrice en charge des partenariats sur la plateforme.

    Les utilisateurs sont responsables, même les plus jeunes

    Effectivement, il suffit de regarder un coup d’œil aux commentaires des vidéos de Lama Fâché pour voir que de nombreux internautes ne prennent pas pour argent comptant les « informations » diffusées. Les compteurs de likes, eux, s’emballent. Et peu importe que le public visé soit... les adolescents. Pour YouTube, ça ne change rien : même s’ils n’ont pas le recul nécessaire pour utiliser les outils à leur disposition, ils sont responsables de ce qu’ils regardent.
    Comment la plateforme veut rééquilibrer l’information

    Plutôt que de supprimer l’infox, YouTube préfère pousser d’autres types de contenus censés « équilibrer » l’information.

    YouTube essaye donc de pousser du contenu anti-fake news, mais refuse toujours le titre d’éditeur.

    #YouTube #fake_news #Plateforme

  • Cory Doctorow: Fake News Is an Oracle – Locus Online
    https://locusmag.com/2019/07/cory-doctorow-fake-news-is-an-oracle

    In the same way, science fiction responds to our societal ideomotor responses. First, the authors write the stories about the futures they fear and rel­ish. These futures are not drawn from a wide-open field; rather, they make use of the writer’s (and audience’s) existing vocabulary of futuristic ideas: robots, internets and AIs, spaceships and surveil­lance devices. Writers can only get away with so much exposition in their fiction (though I’ve been known to push the limits) and so the imaginative leaps of a work of fiction are constrained by the base knowledge the writer feels safe in assuming their readers share.

    So the writers write the stories. Then the editors choose some of those stories to publish (or the writers publish them themselves). Then readers choose some of those stories to elevate to the discourse, making them popular and integrating them into our vocabulary about possible futures, good and bad. The process of elevation is complicated and has a lot of randomness in it (lucky breaks, skilled agents, PR wins, a prominent reviewer’s favor), but the single incontrovertible fact about a SF work’s popularity is that it has captured the public’s imagination. The warning in the tale is a warning that resonates with our current anxieties; the tale’s inspiration thrums with our own aspirations for the future.

    Reading a writer’s fiction tells you a lot about that writer’s fears and aspira­tions. Looking at the awards ballots and bestseller lists tells you even more about our societal fears and aspirations for the future. The system of writers and readers and editors and critics and booksellers and reviewers act as a kind of oracle, a societal planchette that our hands rest lightly upon, whose movements reveal secrets we didn’t even know we were keeping.

    Which brings me to “fake news.”

    “Fake news” is a nearly useless term, encompassing hoaxes, conspiracy theories, unfalsifiable statements, true facts spoken by people who are seek­ing to deceive audiences about the identity of the speaker, and as a catch-all meaning, “I read a thing on the internet that I disagree with.”

    But for all that, “fake news” is useful in one regard: the spread of a given hoax, or unfalsifiable statement, or truth delivered under color of falsehood, or conspiracy, or objectionable idea undeniably tells you that the idea has caught the public imagination. The fake news that doesn’t catch on may have simply been mishandled, but the fake news that does catch on has some plausibility that tells you an awful lot about the world we live in and how our fellow humans perceive that world.

    The anti-vaxers have a point. Not about the safety of vaccines. I believe they are 100% wrong about vaccines and that everyone who can should get a full schedule of vaccines for themselves and their children.

    But anti-vaxers have a point about the process.

    About 20 years ago, Purdue Pharma introduced a new blockbuster pain­killer to replace its existing flagship product, MS Contin, whose patent had expired. The new drug, Oxycontin, was said to be safe and long-lasting, with effects that would last an incredible 12 hours, without provoking the fast adaptation response characteristic of other opioids, which drives users to take higher and higher doses. What’s more, the company claimed that the addictive potential of opioids was vastly overstated, citing a one-paragraph letter to the New England Journal of Medicine penned by Boston University Medical Center’s Dr. Hershel Jick, who claimed that an internal, un-reviewed study showed that opioids could be safely given at higher doses, for longer times, than had been previously thought.

    Purdue Pharma weaponized the “Jick Letter,” making it one of the most-cited references in medical research history, the five most consequential sentences in the history of NEJM. Through a cluster of deceptive tactics – only coming to light now through a string of state lawsuits – Purdue cre­ated the opioid epidemic, which has killed more than 200,000 Americans and counting, more than died in the Vietnam War. Purdue made $31 billion. The Sackler family, owners of Purdue, are now richer than the Rockefellers.

    The regulators had every reason to know something terrible was going on, from the small town pharmacies ordering millions of pills to the dead piling up on the streets of American cities and towns. The only way they could miss the opioid crisis and its roots in junk science was if they were actively seeking not to learn about it – and no surprise, given how many top regulators come from industry, and have worked at an opioid giant (and more: they are often married to pharma execs, they’re godparents to other pharma execs’ kids, they’re executors of pharma execs’ estates – all the normal, tight social bonds from the top players in concentrated industries).

    Ten years ago, if you came home from the doctor’s with a prescription for oxy, and advice that they were not to be feared for their addictive potential, and an admonition that pain was “the fourth vital sign,” and its under-treatment was a great societal cruelty, you might have met someone who said that this was all bullshit, that you were being set up to be murdered by a family of ruthless billionaires whose watchdog had switched sides.

    You might have called that person an “opioid denier.”

    #Fake_news #Cory_Doctorow #Science_fiction #Vaccins #Opioides

  • Les «deepfakes», ces vidéos hyper réalistes bientôt au service des fake news ?
    https://www.rtbf.be/info/medias/detail_les-deepfakes-ces-videos-hyper-realistes-bientot-au-service-des-fake-new

    Au départ, les deepfakes permettaient surtout à incruster le visage d’une star dans un film porno ou à faire dire des énormités à des personnalités politiques. Mais aujourd’hui, la technologie étant plus accessible, la crainte est qu’elle soit utilisée à des fins de propagande ou de chantage. Réticent à l’idée de prendre position à ce sujet, le PDG de Facebook Mark Zuckerberg vient finalement de déclarer qu’il serait "sensé que le réseau social se dote d’une politique spécifique en la matière".
    "Nos ennemis peuvent nous faire dire n’importe quoi, quand ils le souhaitent"

    Quoi de plus parlant qu’un exemple ? L’an dernier, une vidéo publiée par le média Buzzfeed a été massivement commentée. On y apercevait l’ex-président américain Barack Obama déclarer face à la caméra que “Donald Trump est un abruti total”. Barack Obama ferait-il une telle déclaration publiquement ? Probablement pas. Et en effet : c’est en réalité l’acteur Jordan Peele qui est derrière ce "deepfake" bluffant (voir ci-dessous).

    "Nos ennemis peuvent nous faire dire n’importe quoi, quand ils le souhaitent […] ’Nous devons être plus prudents avec ce que nous trouvons sur internet”, précise l’acteur.

    Arrêter de croire aux vidéos ?

    Dans un webdoc consacré aux deepfake, CNN s’interroge également sur l’impact que ces vidéos pourraient avoir sur notre rapport à la vérité. “L’audio et la vidéo apparaissent depuis plus d’un siècle comme le socle de la vérité", écrit CNN. Pourtant, "malgré des preuves vidéos, certains questionnent déjà des événements comme l’Holocauste ou les attentats du 11 septembre (...) le conspirationnisme va encore empirer (...) Le risque principal de ces deepfakes est qu’elles altèrent pour toujours la confiance”.

    Ainsi, explique Xavier de La Porte, chroniqueur de France Inter, "toute image circulant dans les réseaux deviendrait par essence suspecte, l’image numérique basculerait dans le monde du faux, de la fabrication, on n’y croirait plus du tout”. Et à l’inverse, "quelqu’un qui aura été filmé en train de dire ou faire quelque chose de répréhensible ou de gênant pourra toujours, en l’absence d’autre source, crier au ’deepfake’".

    #Deepfakes #Fake_news #Fake_Obama

  • Facebook , gangster aux 55 milliards de dollars Pia de Quatrebarbes - 21 Juin 2019 - Solidaire
    https://www.solidaire.org/articles/facebook-gangster-aux-55-milliards-de-dollars

    Un chiffre d’affaire de plus de 55 milliards de dollars en 2018 : en quinze ans, le réseau aux 2,2 milliards « d’amis » a engrangé un paquet de fric sur nos informations, quitte à s’asseoir sur quelques lois. Un « #gangster_numérique », a tranché le parlement britannique dans un rapport au vitriol... Comment le réseau social qui voulait « rendre le monde meilleur » en est-il arrivé la ?


    Photo Wachiwit /iStock

    En 2008, quand Facebook débarque en France, c’est la ruée sur les « murs ». On y voit alors un formidable moyen de communiquer, partager des photos, personne ne s’y informe encore, mais on y dissémine naïvement des informations aux quatre vents : scolarité, opinion, statut amoureux....et déjà on #like. Rien de grave a priori, #Mark_Zuckerberg, le concepteur du réseau souhaite alors « rendre le monde meilleur ». Pas « le conquérir, seulement rendre les gens plus ouverts et connectés ».

    L’histoire est typique des innovations du web. 4 ans auparavant, dans sa chambre de Harvard, à Boston, le petit génie veut rencontrer des filles, il crée alors avec des camarades un #trombinoscope des étudiants, « The Facebook ». Les universités américaines s’y branchent, puis les lycées et collèges – Il suffit d’avoir 13 ans et une adresse mail. Et bientôt le monde entier : 2,2 milliards d’utilisateurs, un chiffre d’affaires de 55 milliards de dollars, et le 3e site internet le plus visité.

    De ses utilisateurs, il sait à peu près tout !
    Mais 15 ans après, sa firme est devenue un « gangster numérique au dessus des lois ». La sentence est venue mi-février de la Commission du numérique, de la culture et des médias du #Parlement_britannique. Pendant 18 mois, elle a planché sur le scandale #Cambridge_Analytica. Une centaine de témoins ont été auditionnés, mais le PDG de Facebook, lui, a refusé... A la lecture des 110 pages, on comprend pourquoi et comment #Mark_Zuckerberg a choisi « le profit avant la vie privée ».

    Comprenons bien : Que Facebook sait-il de ses utilisateurs ? A peu près tout ! « La pratique la plus problématique, c’est la captation systématique de nos données personnelles », explique Sylvain Steer, enseignant en droit et membre de l’association la Quadrature du Net. Pour les « amis », ce sont donc les contenus publics, les messages privés sur #Messenger, la listes des personnes, pages et groupes suivis, la façon dont on utilise le service et accède aux contenus et les informations sur l’appareil (adresse IP, fichiers présents, mouvements de la souris, accès au GPS et à l’appareil photo).

    Pour ceux qui n’ont pas de compte, la firme de Palo Alto a la solution : le « profil fantôme ». Les #cookies, les boutons « J’aime » et « Partager » affichés sur de nombreux sites, transmettent à Facebook les informations de navigation... En bref, Facebook s’accorde un pouvoir de surveillance de masse.

    Et quand Mark Zuckerberg répète à tout va, « Facebook ne vend pas les données », le parlement Britannique répond : il ment. En cause, le modèle économique : « la gratuité » pour l’utilisateur contre la monétisation de ses données. « Facebook vend aux annonceurs des catégories de publicité. Ce sont l’ensemble des caractéristiques sociales, économiques et comportementales que le réseau associe à chaque utilisateur afin de mieux le cibler », explique Sylvain Steer. « Avec l’argument fallacieux que c’est pour nous proposer des contenus de la façon la plus adaptée : sous entendu la plus subtile ». Facebook est donc avant tout « une #régie_publicitaire », analyse Yann Le Pollotech, chargé des questions numériques au PCF. 98 % de son chiffre d’affaires mondial provient de la publicité ciblée.

    L’accès aux données des téléphones
    Le réseau ouvre aussi ses données à des développeurs tiers contre rémunération « 250 000 dollars de publicités par an », écrivait le PDG dans un mail obtenu par les parlementaires britanniques. Facebook nie, explique que l’idée n’avait jamais été appliquée. En 2015, pourtant il restreint l’accès sauf pour une liste de 150 entreprises, dont Apple, Amazon, Netflix, ou Airbnb ou encore le site de rencontre #Tinder. Et là, c’est open bar ! Et Zuckerberg écrivait : « je ne vois pas de cas où des données ont été diffusées de développeurs à développeurs et ont causé un réel problème pour nous »... Raté ! 3 ans après, Cambridge Analytica allait prouver le contraire. La société, basée à Londres, a siphonné les données de 87 millions de comptes. La cheville ouvrière de la campagne numérique de Donald Trump en 2016, a réalisé un micro ciblage des électeurs.

    Parmi les autres pépites du rapport : l’accès aux données des téléphones. En 2015, la nouvelle version de l’application sur mobiles #Android pouvait avoir accès au journal des appels téléphoniques. Un cadre de Facebook s’inquiète dans un mail interne que les utilisateurs s’en rendent compte. « Ça serait très risqué : des journalistes (..) qui écrivent des articles sur “Facebook qui utilise sa mise à jour pour espionner votre vie privée” », écrit le cadre. Car le but de la firme, est bel et bien de tout savoir.... Pour cela, il faut capturer l’utilisateur et faire en sorte qu’il y reste. Et le pousser à partager toujours plus d’informations.

    Les #Fake_News rentrent dans cette catégorie. C’est parce qu’elles sont beaucoup plus partagées que Facebook les laisse se propager... Le sociologue Dominique Cardon limite leur portée dans un livre salvateur (1). Pendant la campagne américaine, ces « fake news » ont été le plus consultées par les 10% des électeurs les plus convaincus, y écrit-il. Pour Yann Le Pollotech aussi, « il faut se méfier de ce concept. Depuis que les hommes communiquent, il y a de la #désinformation. Mais ici, il y a aussi une sorte de racisme social : les fake news ne concerneraient que les moins diplômés.. et les gilets jaunes ! A chacun ses Fakes news ; celle des #CSP_+ [cadres supérieurs, NdlR], c’est que les cheminots partent à la retraite à 50 ans avec un pont d’or. Mais ce n’est pas à Facebook de décider ce qui est de l’ordre du complot ou de la #vérité. La seule manière de les éviter : c’est la délibération, le débat démocratique ».

    Mais ce n’est pas le programme du géant. Lui, il a un autre objectif : « enfermer les internautes dans son monde, son univers. Plus que du gangster, cela relève de la #mafia, au sens où c’est aussi une organisation sociale », continue Yann Le Pollotech. Dans ce système, Facebook compte aussi la messagerie #Whatsapp (1,5 milliard d’utilisateurs) et le site de partage de photos et vidéos #Instagram (1 milliard). Et avec elles, toutes leurs données ! En 2014, au moment du rachat de Whatsapp pour 19 milliards de dollars, Zuckerberg promettait « de ne pas combiner les données des comptes Facebook et Whatsapp. Bien sûr, il l’a fait deux ans après », continue Sylvain Steer.

    Depuis les scandales continuent : le 20 mars, Facebook reconnaissait ne pas protéger les #mots_de_passe de centaines de millions de comptes. En février, d’autres applications donnaient accès à Facebook à leurs données : une application pour suivre son cycle menstruel, de sport, de santé... En septembre, 50 millions de comptes étaient piratées.

    Un modèle basé sur l’illégalité
    Que font les législateurs ? En Europe, ils ont franchi une première étape avec le Règlement général pour la protection des données ( #RGPD ), entré en vigueur le 28 mai dernier. Ce dernier impose des formes de consentement éclairé et libre. Mais « Facebook continue de violer les textes, car tout son modèle économique est illégal », rappelle Sylvain Steer. Une plainte collective a été déposée, la CNIL Irlandaise – là où est le siège social de Facebook en Europe- l’examine. Sauf qu’elle prend son temps. « Bien sûr, Facebook comme les autres, fait un lobbying pour retarder sa mise en conformité et prolonger son business », continue-t-il.

    Le Parlement britannique veut la fin du far west... Sauf que Facebook, comme #Google « à force de ne pas être réglementés, se sont imposés comme des autorités centralisatrices sur internet. Les États au lieu de le limiter, continuent à lui déléguer des pouvoirs ». La France en tête, « les gouvernements, demandent à ces plateformes géantes de devenir juges et modérateurs des contenus en ligne. Ce qui devrait être de l’ordre de la justice ou du service public », poursuit Sylvain Steer ... Ou comment les gouvernements donnent à Facebook les clés de la censure. Zuckerberg, lui, s’excuse, encore une fois, et promet « de changer ». En attendant, le nombre d’utilisateurs recule, les jeunes désertent la plateforme... Mais pour Instagram. Et restent ainsi dans le monde clos de Facebook.

    Culture numérique, Dominique Cardon, Les presses de Sciences Po, sorti en février, 19 euros, 428 pages
    (Article paru dans le journal L’Humanité -Dimanche du 28 mars 2019)

    #facebook #surveillance #internet #algorithme #censure #réseaux_sociaux #publicité #données #bigdata #profiling #manipulation #marketing #domination #web #voleur de vies #escroc #gangster #fric

  • A new deepfake detection tool should keep world leaders safe—for now - MIT Technology Review
    https://www.technologyreview.com/s/613846/a-new-deepfake-detection-tool-should-keep-world-leaders-safefor-no

    An AI-produced video could show Donald Trump saying or doing something extremely outrageous and inflammatory. It would be only too believable, and in a worst-case scenario it might sway an election, trigger violence in the streets, or spark an international armed conflict.

    Fortunately, a new digital forensics technique promises to protect President Trump, other world leaders, and celebrities against such deepfakes—for the time being, at least. The new method uses machine learning to analyze a specific individual’s style of speech and movement, what the researchers call a “softbiometric signature.”

    The team then used machine learning to distinguish the head and face movements that characterize the real person. These subtle signals—the way Bernie Sanders nods while saying a particular word, perhaps, or the way Trump smirks after a comeback—are not currently modeled by deepfake algorithms.

    In experiments the technique was at least 92% accurate in spotting several variations of deepfakes, including face swaps and ones in which an impersonator is using a digital puppet. It was also able to deal with artifacts in the files that come from recompressing a video, which can confuse other detection techniques. The researchers plan to improve the technique by accounting for characteristics of a person’s speech as well. The research, which was presented at a computer vision conference in California this week, was funded by Google and DARPA, a research wing of the Pentagon. DARPA is funding a program to devise better detection techniques.

    The problem facing world leaders (and everyone else) is that it has become ridiculously simple to generate video forgeries with artificial intelligence. False news reports, bogus social-media accounts, and doctored videos have already undermined political news coverage and discourse. Politicians are especially concerned that fake media could be used to sow misinformation during the 2020 presidential election.

    Some tools for catching deepfake videos have been produced already, but forgers have quickly adapted. For example, for a while it was possible to spot a deepfake by tracking the speaker’s eye movements, which tended to be unnatural in deepfakes. Shortly after this method was identified, however, deepfake algorithms were tweaked to include better blinking.

    “We are witnessing an arms race between digital manipulations and the ability to detect those, and the advancements of AI-based algorithms are catalyzing both sides,” says Hao Li, a professor at the University of Southern California who helped develop the new technique. For this reason, his team has not yet released the code behind the method .

    Li says it will be particularly difficult for deepfake-makers to adapt to the new technique, but he concedes that they probably will eventually. “The next step to go around this form of detection would be to synthesize motions and behaviors based on prior observations of this particular person,” he says.

    Li also says that as deepfakes get easier to use and more powerful, it may become necessary for everyone to consider protecting themselves. “Celebrities and political figures have been the main targets so far,” he says. “But I would not be surprised if in a year or two, artificial humans that look indistinguishable from real ones can be synthesized by any end user.”

    #fake_news #Deepfake #Video #Détection

  • « Macrongate » : quand des néonazis américains cherchaient à faire basculer la présidentielle française
    https://www.lemonde.fr/pixels/article/2019/06/15/macrongate-quand-des-neonazis-americains-cherchaient-a-faire-basculer-la-pre

    Deux ans après l’élection présidentielle française, de nouveaux documents montrent l’implication d’un groupe de suprémacistes américains dans des opérations de déstabilisation politique.

    #Alt_right #Fake_news #fachosphère

  • The “Drunk Pelosi” video shows that cheapfakes can be as damaging as deepfakes.
    https://slate.com/technology/2019/06/drunk-pelosi-deepfakes-cheapfakes-artificial-intelligence-disinformation.html

    The A.I.-generated “deepfake” video implicitly but unmistakably calls for Facebook to make a public statement on its content moderation polices. The platform has long been criticized for permitting the spread of disinformation and harassment, but it became particularly acute recently, when the company said that it would not remove the “Drunk Pelosi” video.

    On Thursday, the House Permanent Select Committee on Intelligence will hold an open hearing on A.I. and the potential threat of deepfake technology to Americans. Many technology researchers believe that deepfakes—realistic-looking content developed using machine learning algorithms—will herald a new era of information warfare. But as the “Drunk Pelosi” video shows, slight edits of original videos may be even more difficult to detect and debunk, creating a cascade of benefits for those willing to use these digital dirty tricks.

    The video, posted to a self-described news Facebook page with a fan base of about 35,000, depicted Nancy Pelosi slurring her words and sounding intoxicated. However, when compared with another video from the same event, it was clear even to nonexperts that it had been slowed down to produce the “drunken” effect. Call it a “cheapfake”—it was modified only very slightly. While the altered video garnered some significant views on Facebook, it was only after it was amplified by President Donald Trump and other prominent Republicans on Twitter that it became a newsworthy issue. The heightened drama surrounding this video raises interesting questions not only about platform accountability but also about how to spot disinformation in the wild.

    “Cheapfakes” rely on free software that allows manipulation through easy conventional editing techniques like speeding, slowing, and cutting, as well as nontechnical manipulations like restaging or recontextualizing existing footage that are already causing problems. Cheapfakes already call into question the methods of evidence that scientists, courts, and newsrooms traditionally use to call for accountability

    Many will never know the video was a fake, but the advantages it gave to pundits will echo into the future. It’s a recent example of what legal theorists Bobby Chesney and Danielle Citron call the liar’s dividend . Those wishing to deny the truth can create disinformation to support their lie, while those caught behaving badly can write off the evidence of bad behavior as disinformation. In a new survey from Pew Research Center, 63 percent of respondents said that they believe altered video and images are a significant source of confusion when it comes to interpreting news quality. That loss of trust works in favor of those willing to lie, defame, and harass to gain attention.

    As Daniel Kreiss and others have pointed out, people don’t just share content because they believe it. They do it for a host of reasons, not the least of which is simply because a message speaks to what users see as an implicit truth of the world even as they know it is not factually true. Researchers have found that creating and sharing hateful, false, or faked content is often rewarded on platforms like Facebook.

    The looming threat of the deepfake is worth attention—from politicians, like at the upcoming hearing; from journalists; from researchers; and especially from the public that will ultimately be the audience for these things. But make no mistake: Disinformation doesn’t have to be high tech to cause serious damage.

    #Fake_news #Deep_fake #Cheap_fake #Nancy_Pelosi #Médias_sociaux

  • Deepfakes have got Congress panicking. This is what it needs to do. - MIT Technology Review
    https://www.technologyreview.com/s/613676/deepfakes-ai-congress-politics-election-facebook-social

    In response, the House of Representatives will hold its first dedicated hearing tomorrow on deepfakes, the class of synthetic media generated by AI. In parallel, Representative Yvette Clarke will introduce a bill on the same subject. A new research report released by a nonprofit this week also highlights a strategy for coping when deepfakes and other doctored media proliferate.

    The deepfake bill
    The draft bill, a product of several months of discussion with computer scientists, disinformation experts, and human rights advocates, will include three provisions. The first would require companies and researchers who create tools that can be used to make deepfakes to automatically add watermarks to forged creations.

    The second would require social-media companies to build better manipulation detection directly into their platforms. Finally, the third provision would create sanctions, like fines or even jail time, to punish offenders for creating malicious deepfakes that harm individuals or threaten national security. In particular, it would attempt to introduce a new mechanism for legal recourse if people’s reputations are damaged by synthetic media.

    “This issue doesn’t just affect politicians,” says Mutale Nkonde, a fellow at the Data & Society Research Institute and an advisor on the bill. “Deepfake videos are much more likely to be deployed against women, minorities, people from the LGBT community, poor people. And those people aren’t going to have the resources to fight back against reputational risks.”

    But the technology has advanced at a rapid pace, and the amount of data required to fake a video has dropped dramatically. Two weeks ago, Samsung demonstrated that it was possible to create an entire video out of a single photo; this week university and industry researchers demoed a new tool that allows users to edit someone’s words by typing what they want the subject to say.

    It’s thus only a matter of time before deepfakes proliferate, says Sam Gregory, the program director of Witness. “Many of the ways that people would consider using deepfakes—to attack journalists, to imply corruption by politicians, to manipulate evidence—are clearly evolutions of existing problems, so we should expect people to try on the latest ways to do those effectively,” he says.

    The report outlines a strategy for how to prepare for such an impending future. Many of the recommendations and much of the supporting evidence also aligns with the proposals that will appear in the House bill.

    The report found that current investments by researchers and tech companies into deepfake generation far outweigh those into deepfake detection. Adobe, for example, has produced many tools to make media alterations easier, including a recent feature for removing objects in videos; it has not, however, provided a foil to them.

    The result is a mismatch between the real-world nature of media manipulation and the tools available to fight it. “If you’re creating a tool for synthesis or forgery that is seamless to the human eye or the human ear, you should be creating tools that are specifically designed to detect that forgery,” says Gregory. The question is how to get toolmakers to redress that imbalance.

    #Deepfake #Fake_news #Synthetic_media #Médias_de_synthèse #Projet_loi