• https://aoc.media/analyse/2022/02/03/une-politique-du-meme

    Une politique du mème
    Par Albin Wagener
    Enseignant-chercheur en sciences du langage
    Ces derniers jours, l’image partagée sur Twitter d’un post-it mis en scène sur le bureau du président est ensuite devenue l’objet de nombreux « mèmes » sur les réseaux sociaux. On aurait bien tort de ne pas prendre au sérieux ces icônes issues de la culture underground, et de confiner les mèmes au simple domaine du numérique. Virales jusqu’à être mobilisées dans des manifestations, récupérées par des forces politiques d’extrême droite, ces productions graphiques polysémiques sont politiques par essence et bien loin d’être innocentes.

    Cela fait maintenant plusieurs années que les mèmes ont investi le champ numérique, devenant ainsi des objets incontournables de la culture web : des boards alternatifs (tels que 4chan ou Reddit) aux réseaux sociaux les plus majoritaires, ces petites vignettes qui combinent texte et image, souvent avec humour, sont devenues une manière d’exprimer un avis, de commenter l’actualité et même de marquer son engagement politique.
    C’est le propre de ces petits objets anodins que l’on confine souvent très injustement au simple domaine du numérique (ou du digital, sachant que les deux termes ne signifient pas exactement la même chose – contrairement à ce qu’un réflexe anglophobe commun tendrait à nous faire croire) : on estime qu’ils font partie d’une forme de mode, qu’ils ne sont là que pour signaler la circulation éphémère de traits d’humour potache, ou bien qu’ils sont d’abord l’apanage d’une culture des « jeunes » (sans que l’on sache très bien ce que cela signifie). Ce faisant, on a alors la tentation de ne pas prendre les mèmes au sérieux.

    Et bien on a tort, tout simplement. Prendre les mèmes à la légère, c’est ignorer le rôle qu’ils ont joué dans les motivations de l’auteur des attentats de Christchurch, en Nouvelle-Zélande, dont la consommation et la production de mèmes sur les forums d’extrême-droite ont été déterminantes pour son passage à l’acte. C’est également ignorer le fait que la figure de l’illustre « Pepe the Frog » a fini par être intégralement récupérée par l’alt-right conservatrice américaine, faisant de cette étrange grenouille verte l’emblème d’une communauté zélée de supporters trumpistes, particulièrement active dans ce qui deviendra par la suite l’assaut du Capitole.
    En outre, les mèmes ne sont pas un simple objet cantonné à l’espace numérique ; tout au contraire, ils sont postdigitaux par essence. Rappelons ici les travaux de Florian Cramer, qui précise la chose suivante : « en s’inspirant (…) du post-punk, du postcolonialisme et de Mad Max, le terme “post-digital”, dans son sens le plus facile à appréhender, décrit l’état de confusion des médias, des arts et du design après leur digitalisation[1] ». L’époque postdigitale dans laquelle nous vivons abolit, d’une certaine manière, les frontières entre ce qui se passe au sein des espaces numériques et ce qui se passe en-dehors, dynamitant ainsi les frontières artificielles entre « réel » et « virtuel », au profit d’une société qui se vit comme un nouvel ensemble de continuités complexes.
    Il en va de même pour les mèmes[2] : faciles à comprendre, à décoder et à ré-encoder pour de nouvelles utilisations, les mèmes deviennent des objets sociaux à part entière. Pour Limor Shifman, « dans cette ère hyper-mémétique, la circulation de copies et de dérivatifs par les utilisateurs constitue une logique prédominante (…). En ce sens, les copies deviennent plus importantes que ce qui est “original”[3] » ; en d’autres termes, c’est précisément parce que les mèmes font écho à cette nouvelle ère de reproductibilité et de légitimité de la copie, permise au départ par l’environnement participatif et collaboratif de ce que l’on appelle le web 2.0 (soit cette évolution d’internet permise par les réseaux sociaux et les encyclopédies collaboratives comme Wikipedia), que leur succès est considérable – une référence plus qu’évidente à la notion de folksonomie, développée entre autres par Olivier Le Deuff[4].
    Les mèmes participent à la réimplantation de la culture du web dans un espace qui le dépasse largement.
    Mais depuis quelques années, la dimension politique des mèmes a pris un nouveau tournant, puisque bon nombre de ces objets emblématiques ont fini par s’inviter sur les pancartes de manifestations diverses et variées, dans plusieurs pays du monde. À Hong-Kong, aux États-Unis, en Inde, en Allemagne, en Algérie ou en France, des manifestant.e.s de plusieurs pays se mettent à utiliser ces objets au sein d’événements bien réels, désormais également relayés et immortalisés au sein d’espaces numériques. Les mèmes participent ainsi à la réimplantation de la culture du web dans un espace qui le dépasse largement ; plus encore, ils deviennent l’emblème d’une véritable culture commune, puisqu’il est à noter que ces références fleurissent sur les pancartes de bon nombre de pays, lorsqu’il s’agit de porter des slogans et des idées dans des manifestations.
    Bref : depuis plusieurs années, la trajectoire des mèmes s’est très clairement éloignée de leur caractère confidentiel des débuts, cantonné à certains forums underground de connaisseurs, désireux de conserver jalousement le positionnement alternatif de ces drôles d’objets de communication. En réalité, les mèmes sont de redoutables vecteurs de transmission d’information – redoutables car très efficaces : en ce sens, ils reposent sur une dimension duale, au moins dans un prime abord. En effet, chaque mème de sorte à combiner à la fois un topème (soit un sujet sur lequel le mème porte un commentaire) et un référème (soit un contexte de culture populaire qui lui sert de support). Prenons un exemple : les créations mémétiques du compte « les Tintinades » ont précisément pour référème permanent l’univers de Tintin, mais font varier les topèmes au gré des envies ou de l’actualité.
    C’est précisément la force des mèmes : l’important n’est pas nécessairement les sujets qu’ils abordent, mais le fait qu’ils prennent appui sur des référèmes issus de la culture pop pour aborder ces sujets. Critiquer une mesure politique néolibérale en utilisant par exemple une image des Simpson peut s’avérer infiniment plus efficace ou viral que le commentaire d’un éditorialiste sur une chaîne d’information en continu ; bien évidemment, l’objet du mème ne sera pas de développer un argumentaire complexe, mais au contraire de le synthétiser dans une sorte de version .zip d’un discours particulier. Et c’est là l’autre particularité des mèmes – sa troisième dimension donc, si l’on peut dire, au-delà des dimensions de topème et de référème. En ce sens, le même est plus proche du signe peircien que du signe saussurien, pour reprendre cette distinction sémiotique.
    En d’autres termes, le mème n’est pas simplement un artefact communicationnel qui combine sujet de conversation et support culturel : il constitue une façon de transmettre des états mentaux et affectifs de manière relativement précise[5]. C’est plus particulièrement le cas des gifs, ces petites vidéos courtes, animées et répétitives, qui sont souvent utilisées dans des cas analogues aux mèmes (et qui en constituent pourtant une forme différente) : on y distingue souvent des personnages qui passent par des émotions différentes, avec des transitions fines, et l’expression d’états cognitifs ou mentaux qui permettent de s’identifier plus aisément au message transmis. Dans cette optique, les mèmes représentent souvent des morceaux (ou chunks) d’humanité : on peut y figurer la surprise, la déception, la colère, la tristesse ou encore l’incompréhension – là où un argumentaire purement langagier demanderait des précisions lexicales que le mème parvient souvent à transcender.
    Ce n’est pas simplement l’utilisation des mèmes dans le champ politique qui les transforme en objets politiques ; ils sont politiques par essence.
    Les mèmes permettent donc d’exprimer beaucoup de choses : il est non seulement possible de les utiliser pour produire un commentaire politique ou une critique sur l’état du monde ou de la société, mais également de transmettre l’exacte état affectif dans lequel on se trouve au moment où on produit cette critique ou ce commentaire. Cette nuance est de taille, et hisse le mème au rang des productions langagières qui produisent une communication d’une toute nouvelle forme, capable non seulement de transmettre un message, mais également de partager une émotion, tout en cimentant des communautés qui partagent les mêmes références culturelles. À ce titre, il est d’ailleurs important de revenir sur cette notion de référème.
    En effet, énormément de mèmes et de gifs mettent en lumière des scènes issues de films, de séries ou de dessins animés majoritairement issus de studios de production massivement nord-américains : qu’il s’agisse de Parks & Recreation, des franchises Marvel ou encore de BoJack Horseman, c’est l’ensemble du panthéon audio-visuel et du soft power culturel états-unien qui se retrouve très souvent mobilisé dans ces mèmes.
    Cette réalité n’a rien d’anecdotique, tout au contraire : à partir du moment où l’on sait que la manifestation des émotions et des états affectifs est culturelle, et que les manifestations proposées dans les mèmes sont jouées par des comédien.ne.s, on est en droit de se demander dans quelle mesure le mème ne participe pas, involontairement ou non (tout comme celles et ceux qui les créent et les transmettent) à la diffusion d’une hégémonie culturelle particulièrement pernicieuse, puisqu’elle s’appuie à la fois sur l’humour et la convivialité des références partagées pour s’inscrire dans le paysage médiatique et démocratique.
    En tant que nouveaux objets langagiers, les mèmes ont de multiples atouts qui les rendent particulièrement adaptés aux évolutions de nos sociétés, et qui permettent l’expression de messages complexes, sous des atours apparemment anodins. Mais comme tout objet langagier, les mèmes ne sont pas innocents : situés dans des pratiques à la fois permises par des affordances techniques et enracinées dans une culture numérique collaborative, ils constituent également des artefacts culturels qui installent et modifient nos références en matière de culture populaire, tout en alimentant les représentations sociales en matière d’expression des états affectifs et mentaux.
    En ce sens, ce n’est pas simplement l’utilisation des mèmes dans le champ politique qui les transforme en objets politiques ; ils sont politiques par essence, dans leur tridimensionnalité, leur contexte d’utilisation et les conditions de leur viralité. Reflets de l’époque qui les a enfantés, les mèmes sont également les précurseurs d’une époque à venir, qui permet de fusionner des éléments complexes au sein de frontières floues, où se jouent luttent d’influence, batailles sociales et guerres politiques.
     
    NDLR : Albin Wagener publiera en avril 2022 aux Éditions de l’université Grenoble-Alpes Mémologie. Théorie postdigitale des mèmes.
    Albin Wagener
    [1] Florian Cramer, « What is “post-digital” ? » dans David M. Berry et Michael Dieter, Postdigital aesthetics : art, computation and design, Palgrave MacMillan, 2015, p. 12-26

    [2] Consulter à ce titre l’encyclopédie mémétique en ligne KnowYourMeme : https://knowyourmeme.com.

    [3] Limor Shifman, « Memes in a digital world : Reconciling with a conceptual troublemaker », Journal of Computer-Mediated Communication, 18, 2013, pp. 362–377

    [4] Olivier Le Deuff, « Folksonomies : les usagers indexent le web », Bulletin des bibliothèques de France, 51 (4), 2006, pp. 66-70 https://bbf.enssib.fr/consulter/bbf-2006-04-0066-002

    [5] Voir Albin Wagener, « Mèmes, gifs et communication cognitivo-affective sur Internet. L’émergence d’un nouveau langage humain », Communication, 37(1), 2020 https://journals.openedition.org/communication/11061

    #mème #langage #production_langagière_politique #détournement #web2.0 #virtualité #viralité #postdigital

  • « Bientôt des limitations de vitesse sur Facebook ou Twitter »
    https://www.lemonde.fr/idees/article/2020/11/26/bientot-des-limitations-de-vitesse-sur-facebook-ou-twitter_6061168_3232.html

    Chronique. Un réseau social qui ralentit ses utilisateurs et la propagation des contenus sur sa plate-forme, ce n’est pas courant. Pourtant, pendant la présidentielle américaine, Twitter a ajouté un écran pour inviter les internautes à lire le contenu d’un article avant de le partager avec leurs abonnés. Les utilisateurs ont aussi été incités à ajouter un commentaire plutôt que de simplement retweeter de façon passive. Dans le même esprit, les membres de Facebook qui souhaitaient partager un contenu lié à l’élection ont d’abord vu un message les dirigeant vers un centre de ressources fiables sur le scrutin.

    L’enjeu touche même au modèle économique des réseaux sociaux, fondé sur la publicité ciblée et donc sur la viralité, qui augmente les interactions avec le contenu. La limiter, pour Facebook ou Twitter, ferait baisser leurs revenus à court terme mais pourrait être un pari de long terme. Par ailleurs, il se pourrait que ce débat favorise l’émergence de nouveaux modèles : publics, associatifs ou même payants.

    #Médias_sociaux #Viralité #Régulation #Editorialisation

  • Covid hoaxes are using a loophole to stay alive—even after being deleted | MIT Technology Review
    https://www.technologyreview.com/2020/04/30/1000881/covid-hoaxes-zombie-content-wayback-machine-disinformation

    Pandemic conspiracy theorists are using the Wayback Machine to promote ’zombie content’ that avoids content moderators and fact-checkers.

    by Joan Donovan archive page
    April 30, 2020

    PHOTO BY CHRIS HALL ON UNSPLASH
    Since the onset of the pandemic, the Technology and Social Change Research Project at Harvard Kennedy’s Shorenstein Center, where I am the director, has been investigating how misinformation, scams, and conspiracies about covid-19 circulate online. If fraudsters are now using the virus to dupe unsuspecting individuals, we thought, then our research on misinformation should focus on understanding the new tactics of these media manipulators. What we found was a disconcerting explosion in “zombie content.”

    While the original page failed to spread fake news, the version of the page saved on the Internet Archive’s Wayback Machine absolutely flourished on Facebook. With 649,000 interactions and 118,000 shares, the engagement on the Wayback Machine’s link was much larger than legitimate press outlets. Facebook has since placed a fact-check label over the link to the Wayback Machine link too, but it had already been seen a huge number of times.

    There are several explanations for this hidden virality. Some people use the Internet Archive to evade blocking of banned domains in their home country, but it is not simply about censorship. Others are seeking to get around fact-checking and algorithmic demotion of content.

    When looking for more evidence of hidden virality, we searched for “web.archive.org” across platforms. Unsurprisingly, Medium posts that were taken down for spreading health misinformation have found new life through Wayback Machine links. One deleted Medium story, “Covid-19 had us all fooled, but now we might have finally found its secret,” violated Medium’s policies on misleading health information. Before Medium’s takedown, the original post amassed 6,000 interactions and 1,200 shares on Facebook, but the archived version is vastly more popular—1.6 million interactions, 310,000 shares, and still climbing. This zombie content has better performance than most mainstream media news stories and, yet it only exists as an archived record.

    Perhaps the most alarming element to a researcher like me is that these harmful conspiracies permeate private pages and groups on Facebook. This means researchers have access to less than 2 % of the interaction data, and that health misinformation circulates in spaces where journalists, independent researchers and public health advocates can not assess or counterbalance these false claims with facts. Crucially, if it weren’t for the Internet Archive’s records we would not be able to do this research on deleted content in the first place, but these use cases suggest that the Internet Archive will soon have to address how their service can be adapted to deal with disinformation.

    Hidden virality is growing in places where Whatsapp is popular because it’s easy to forward misinformation through encrypted channels and evade content moderation. But when hidden virality happens on Facebook with health misinformation, it is particularly disconcerting. More than 50% of Americans rely on Facebook for their news, and still, after many years of concern and complaint, researchers have a very limited window into the data. This means it’s nearly impossible to ethically investigate how dangerous health misinformation is shared on private pages and groups.

    All of this is a threat for public health in a different way than political or news misinformation, because people do quickly change their behaviors based on medical recommendations.

    #Fake_news #Viralité #Internet_archive #zombie_content #Joan_Donovan

  • Sco pa tu manaa, le « #mème de l’été »
    https://www.marianne.net/societe/sco-pa-tu-manaa-le-premier-meme-de-l-ete-que-personne-ne-comprend

    Et sur le fond, que veut signifier l’internaute qui partage une photo avec l’expression « sco pa tu manaa » ?

    Albin Wagener, enseignant-chercheur en sciences du langage à l’unversité de Nantes, spécialisé dans l’étude des réseaux sociaux : Chacun y met un peu ce qu’il veut, mais je comprends ça comme un moyen d’attirer l’#attention de ses suiveurs sur quelque chose. C’est une invitation au questionnement, parfois au troisième ou quatrième degré. Chacun peut mettre son grain de sel, ça met du lien, sans se prendre au sérieux, et c’est ça qui fait du bien.

    Sait-on comment est apparu ce mème ?

    Non, et c’est un peu la marque de fabrique des phénomènes viraux sur internet. Mais grosso modo, le processus est toujours le même. La phrase est d’abord lancée sur un forum anglophone comme 4Chan, Reddit ou 9Gag, puis quelque temps plus tard, elle bifurque sur Twitter, où elle rencontre un grand succès, parfois après avoir été traduite en français. Mais comment savoir pourquoi, parmi des milliers de mèmes, c’est celui-là qui finit par percer ? Il y a là un mystère. Parfois, ils représentent des figures de la pop culture, facilement identifiables, comme Keanu Reeves, qui fait l’objet d’énormément de mèmes. Dans le cas de « sco pa tu manaa », c’est tout le contraire. On peut supposer que justement, parce que chacun peut se l’approprier, ce mème a une portée plus universelle, ce qui favorise sa diffusion.

    Sur les #mèmes et leur #viralité, voir @fil en 2001 dans le @mdiplo : https://www.monde-diplomatique.fr/2001/11/RIVIERE/8153

    Grand biologiste néodarwinien, Richard Dawkins nomme « mèmes » ces fragments d’idées ou de discours dotés, à l’instar des gènes de la biologie, d’une faculté de reproduction. Pour les théoriciens modernes de l’évolution des espèces, les êtres vivants ne sont que des véhicules pour les gènes, conduisant ceux-ci d’une génération à la suivante. Les gènes montés à bord d’un « bon » véhicule — soit par chance, soit par leur implication directe dans la conduite de ce véhicule — seront, de génération en génération, plus nombreux, et sortiront gagnants de l’évolution.

    Dans le cyberespace (la partie numérique du monde dans lequel évoluent les mèmes) et la noosphère (l’ensemble des pensées humaines, selon une expression trouvant son origine chez Teilhard de Chardin), un mème sort gagnant s’il est capable de monter rapidement à bord d’un grand nombre de « bons véhicules ». Spécialistes de ce type d’infection sans intervention humaine, les « vers » et autres virus informatiques exploitent les failles des logiciels les plus répandus, s’exécutent sur la machine cible qui les répercute vers des centaines de nouvelles cibles, dans une boucle exponentielle.

  • 8chan, Megaphone for Gunmen, Has Gone Dark. ‘Shut the Site Down,’ Says Its Creator. - The New York Times
    https://www.nytimes.com/2019/08/04/technology/8chan-shooting-manifesto.html

    Mr. Brennan started the online message board as a free speech utopia. But now, 8chan is known as something else: a megaphone for mass shooters, and a recruiting platform for violent white nationalists.

    And it has become a focal point for those seeking to disrupt the pathways of online extremism. On Sunday, critics characterized the site as a breeding ground for violence, and lobbied the site’s service providers to get it taken down. One of those providers, Cloudflare, a service that protects websites against cyberattacks, said it would stop working with 8chan on Sunday night and the site went dark about 3 a.m. Eastern time. And Mr. Brennan, who stopped working with the site’s current owner last year, called for it to be taken offline before it leads to further violence.

    “Shut the site down,” Mr. Brennan said in an interview. “It’s not doing the world any good. It’s a complete negative to everybody except the users that are there. And you know what? It’s a negative to them, too. They just don’t realize it.”

    The site remained on the fringes until 2014, when some supporters of GamerGate — a loose reactionary collection of anti-feminist video gamers — flocked to 8chan after being kicked off 4chan.

    Since GamerGate, 8chan has become a catchall website for internet-based communities whose behavior gets them evicted from more mainstream sites. It hosts one of the largest gatherings of supporters of QAnon, who claim that there is an international bureaucracy plotting against the Trump administration. And it has been an online home for “incels,” men who lament being “involuntarily celibate,” and other fringe movements.

    “8chan is almost like a bulletin board where the worst offenders go to share their terrible ideas,” said Jonathan Greenblatt, the chief executive of the Anti-Defamation League. “It’s become a sounding board where people share ideas, and where these kinds of ideologies are amplified and expanded on, and ultimately, people are radicalized as a result.”

    8chan has been run out of the Philippines by Jim Watkins, a United States Army veteran, since 2015, when Mr. Brennan gave up control of the site.

    Mr. Brennan, who has a condition known as brittle-bone disease and uses a wheelchair, has tried to distance himself from 8chan and its current owners. In a March interview with The Wall Street Journal, he expressed his regrets over his role in the site’s creation , and warned that the violent culture that had taken root on 8chan’s boards could lead to more mass shootings.

    After the El Paso shooting, he seemed resigned to the fact that it had.

    “Another 8chan shooting?” he tweeted on Saturday. “Am I ever going to be able to move on with my life?”

    #8chan #Hate_speech #Terrorisme #Extrême_droite #Viralité

  • The El Paso Shooting and the Virality of Evil | The New Yorker
    https://www.newyorker.com/news/news-desk/the-el-paso-shooting-and-the-virality-of-evil

    The national conversation will now turn, as it should, to gun control, to mental illness, and to the President’s practice of exacerbating racial tensions, which has been one of his avocations for decades and now appears to be his central reëlection strategy. But there’s also a more specific question: what can be done about the fact that so many of these terrorists—in Pittsburgh, in Poway, in Christchurch, in El Paso—seem to find inspiration in the same online spaces? Each killer, in the moment, may have acted alone, but they all appear to have been zealous converts to the same ideology—a paranoid snarl of raw anger, radical nationalism, unhinged nihilism, and fears of “white genocide” that is still referred to as “fringe,” although it’s creeping precariously close to the mainstream. On many social networks that bill themselves as bulwarks of “free speech,” including Gab, 4chan, and 8chan, this way of thinking is so dominant that it is often taken for granted. In April, the Anti-Defamation League wrote that such platforms “serve as round-the-clock white supremacist rallies.”
    Read More

    Past New Yorker coverage of mass shootings and the battle over gun control.

    Can these platforms simply be shut down? The answer is complicated, but basically binary: there is a lot that private companies can do to censor speech, but much less that the government can do. The United States has some of the most expansive free-speech protections in the world. There are exceptions, such as incitement to violence, but the bar to prove incitement is quite high. In the nineteen-sixties, a Ku Klux Klan leader was arrested under an Ohio law that prohibited advocating “crime, sabotage, violence, or unlawful methods of terrorism.” But the Supreme Court—at the time, arguably the most liberal Court in American history—ruled unanimously that the Klan leader’s First Amendment rights had been violated. This case, Brandenburg v. Ohio, laid out the standard that still applies: the government can only censor speech if it is “directed to inciting or producing imminent lawless action” and “likely to incite or produce such action.” Some of the recent white-supremacist manifestos might meet this standard, and yet, even if one or several of them could be banned, this wouldn’t necessarily apply to the platforms on which the manifestos are posted. According to Section 230 of the Communications Decency Act, “no provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider.” In other words, a site’s owner is not liable for the content on that site. In March, the Washington Post reported that the owner of 8chan, Jim Watkins, an American living in the Philippines, had “built a technical fortress to guard 8chan from potential takedowns.” The site’s founder, Fredrick Brennan, who no longer works at the company, told the Post that Watkins was “content to lose money” on the site: “8chan is like a boat to Jim.” A boat may be full of snakes, or explosives, but this doesn’t guarantee that the government will be able to seize it.

    #8chan #Terrorisme #Viralité

  • Man Who Built The Retweet : “We Handed A Loaded Weapon To 4-Year-Olds”
    https://www.buzzfeednews.com/article/alexkantrowitz/how-the-retweet-ruined-the-internet

    Developer Chris Wetherell built Twitter’s retweet button. And he regrets what he did to this day.

    “We might have just handed a 4-year-old a loaded weapon,” Wetherell recalled thinking as he watched the first Twitter mob use the tool he created. “That’s what I think we actually did.”

    Wetherell, a veteran tech developer, led the Twitter team that built the retweet button in 2009. The button is now a fundamental feature of the platform, and has been for a decade — to the point of innocuousness. But as Wetherell, now cofounder of a yet-unannounced startup, made clear in a candid interview, it’s time to fix it. Because social media is broken. And the retweet is a big reason why.

    After the retweet button debuted, Wetherell was struck by how effectively it spread information. “It did a lot of what it was designed to do,” he said. “It had a force multiplier that other things didn’t have.”

    “We would talk about earthquakes,” Wetherell said. “We talked about these first response situations that were always a positive and showed where humanity was in its best light.”

    But the button also changed Twitter in a way Wetherell and his colleagues didn’t anticipate. Copying and pasting made people look at what they shared, and think about it, at least for a moment. When the retweet button debuted, that friction diminished. Impulse superseded the at-least-minimal degree of thoughtfulness once baked into sharing. Before the retweet, Twitter was largely a convivial place. After, all hell broke loose — and spread.

    In the early 2010s, Facebook’s leadership was looking for ways to drive up engagement. Having previously failed to acquire Twitter, they looked to its product for inspiration.

    The allure of going viral via the retweet had drawn publications, journalists, and politicians to Twitter en masse. And their presence shined most prominently during the 2012 election, a big moment for Twitter and a relative dud for Facebook. So Facebook, in a now all too familiar move copied Twitter, adding a trending column, hashtags, and a retweet clone.

    In 2014, Wetherell realized the retweet button was going to be a major problem when the phrase “ethics in game journalism” started pouring into a saved search for “journalism” he had on Twitter. The phrase was a rallying cry for Gamergate — a harassment campaign against women in the game industry — and Wetherell, after seeing that first batch of tweets, watched it closely.

    As Gamergate unfolded, Wetherell noticed its participants were using the retweet to “brigade,” or coordinate their attacks against their targets, disseminating misinformation and outrage at a pace that made it difficult to fight back. The retweet button propelled Gamergate, according to an analysis by the technologist and blogger Andy Baio. In his study of 316,669 Gamergate tweets sent over 72 hours, 217,384 were retweets, or about 69%.

    The game took another dark turn during the 2016 presidential campaign, when impulse-sparked sharing caused outrage and disinformation to flourish on both Twitter and Facebook. It’s one thing to copy and paste a link that says Hillary Clinton is running a pedophile ring in the basement of a pizza shop — and share it under your own name. It’s another to see someone else post it, remember that you don’t like Hillary Clinton, and impulsively hit the share or retweet button.

    “We have some evidence that people who are more likely to stop and think are better at telling true from false,” David Rand, an associate professor at MIT who studies misinformation, told BuzzFeed News. “Even for stuff that they are motivated to believe, people who stop and think more are less likely to believe the false stuff.”

    The benefits of creating such content accrued disproportionately to the fringe. When someone retweets something, they’re sharing the content with their followers, but also sending a signal to the person they’re amplifying, said Anil Dash, a blogger and tech entrepreneur. The more fringe the original tweeter, the more valuable the retweet.

    “If I retweet the New York Times, they don’t care,” Dash said. “But extreme content comes from people who are trying to be voices, who are trying to be influential in culture, and so it has meaning to them, and so it earns me status with them.”

    The pursuit of that status has driven many Twitter users to write outrageous tweets in the hope of being retweeted by fringe power users. And when they do get retweeted, it sometimes lends a certain credibility to their radical positions.

    The retweet and share, in other words, incentivize extreme, polarizing, and outrage-inducing content.

    A full rollback of the share and retweet buttons is unrealistic, and Wetherell doesn’t believe it’s a good idea. Were these buttons universally disabled, he said, people could pay users with large audiences to get their message out, giving them disproportionate power.
    "Oh no, we put power into the hands of people.”

    To rein in the excesses of the retweet, Wetherell suggested the social media companies turn their attention toward audiences. When thousands of people retweet or share the same tweet or post, they become part of an audience. A platform could revoke or suspend the retweet ability from audiences that regularly amplify awful posts, said Wetherell. “Curation of individuals is way too hard, as YouTube could attest,” Wetherell said. “But curation of audiences is a lot easier.”

    Another solution might be to limit on the number of times a tweet can be retweeted. Facebook is experimenting with an approach of this nature, although not in its main product. Earlier this year, WhatsApp, which is owned by Facebook, limited the number of people to which a message could be forwarded to five at a time, in response to quick-spreading rumors and disinformation. “The forward limit significantly reduced forwarded messages around the world,” WhatsApp said in a blog post. “We’ll continue to listen to user feedback about their experience, and over time, look for new ways of addressing viral content.”

    MIT’s Rand suggested another idea: preventing people from retweeting an article if they haven’t clicked on the link. “That could make people slow down,” he said. “But even more than that, it could make people realize the problematic nature of sharing content without having actually read it.”

    Whatever the solution, Wetherell looks at the retweet very differently than he once did — a lesson that he thinks has broader implications. “I remember specifically one day thinking of that phrase: We put power in the hands of people,” he said. “But now, what if you just say it slightly differently: Oh no, we put power into the hands of people.”

    #Twitter #Retweet #Médias_sociaux #Viralité #Fake_news #Cyberharcèlement

  • Researcher explores what causes maps to go viral on the web

    https://phys.org/news/2018-08-explores-viral-web.html

    As the 2016 presidential election was heating up, the statistical news website FiveThirtyEight released a projection map suggesting the distribution of votes if only women voted.

    The map, sent out in a tweet by FiveThirtyEight founder Nate Silver, quickly went viral on social media and was viewed millions of times. That viral cartography event, and what quickly followed, is the subject of research conducted by Anthony Robinson, assistant professor of geography at Penn State.

    The map spawned a series of copycat maps, many of which also went viral. They range from serious offshoots along racial lines, “What if Only People of Color Voted,” to silly, “What if Only Goats Voted,” to the hard-to-verify, “What if Only Taxpayers Voted.”

    #cartographie #internet #viralité

  • YouTube Executives Ignored Warnings, Let Toxic Videos Run Rampant - Bloomberg
    https://www.bloomberg.com/news/features/2019-04-02/youtube-executives-ignored-warnings-letting-toxic-videos-run-rampant

    Wojcicki’s media behemoth, bent on overtaking television, is estimated to rake in sales of more than $16 billion a year. But on that day, Wojcicki compared her video site to a different kind of institution. “We’re really more like a library,” she said, staking out a familiar position as a defender of free speech. “There have always been controversies, if you look back at libraries.”

    Since Wojcicki took the stage, prominent conspiracy theories on the platform—including one on child vaccinations; another tying Hillary Clinton to a Satanic cult—have drawn the ire of lawmakers eager to regulate technology companies. And YouTube is, a year later, even more associated with the darker parts of the web.

    The conundrum isn’t just that videos questioning the moon landing or the efficacy of vaccines are on YouTube. The massive “library,” generated by users with little editorial oversight, is bound to have untrue nonsense. Instead, YouTube’s problem is that it allows the nonsense to flourish. And, in some cases, through its powerful artificial intelligence system, it even provides the fuel that lets it spread.

    Mais justement NON ! Ce ne peut être une “bibliothèque”, car une bibliothèque ne conserve que des documents qui ont été publiés, donc avec déjà une première instance de validation (ou en tout cas de responsabilité éditoriale... quelqu’un ira en procès le cas échéant).

    YouTube est... YouTube, quelque chose de spécial à internet, qui remplit une fonction majeure... et également un danger pour la pensée en raison de “l’économie de l’attention”.

    The company spent years chasing one business goal above others: “Engagement,” a measure of the views, time spent and interactions with online videos. Conversations with over twenty people who work at, or recently left, YouTube reveal a corporate leadership unable or unwilling to act on these internal alarms for fear of throttling engagement.

    In response to criticism about prioritizing growth over safety, Facebook Inc. has proposed a dramatic shift in its core product. YouTube still has struggled to explain any new corporate vision to the public and investors – and sometimes, to its own staff. Five senior personnel who left YouTube and Google in the last two years privately cited the platform’s inability to tame extreme, disturbing videos as the reason for their departure. Within Google, YouTube’s inability to fix its problems has remained a major gripe. Google shares slipped in late morning trading in New York on Tuesday, leaving them up 15 percent so far this year. Facebook stock has jumped more than 30 percent in 2019, after getting hammered last year.

    YouTube’s inertia was illuminated again after a deadly measles outbreak drew public attention to vaccinations conspiracies on social media several weeks ago. New data from Moonshot CVE, a London-based firm that studies extremism, found that fewer than twenty YouTube channels that have spread these lies reached over 170 million viewers, many who were then recommended other videos laden with conspiracy theories.

    So YouTube, then run by Google veteran Salar Kamangar, set a company-wide objective to reach one billion hours of viewing a day, and rewrote its recommendation engine to maximize for that goal. When Wojcicki took over, in 2014, YouTube was a third of the way to the goal, she recalled in investor John Doerr’s 2018 book Measure What Matters.

    “They thought it would break the internet! But it seemed to me that such a clear and measurable objective would energize people, and I cheered them on,” Wojcicki told Doerr. “The billion hours of daily watch time gave our tech people a North Star.” By October, 2016, YouTube hit its goal.

    YouTube doesn’t give an exact recipe for virality. But in the race to one billion hours, a formula emerged: Outrage equals attention. It’s one that people on the political fringes have easily exploited, said Brittan Heller, a fellow at Harvard University’s Carr Center. “They don’t know how the algorithm works,” she said. “But they do know that the more outrageous the content is, the more views.”

    People inside YouTube knew about this dynamic. Over the years, there were many tortured debates about what to do with troublesome videos—those that don’t violate its content policies and so remain on the site. Some software engineers have nicknamed the problem “bad virality.”

    Yonatan Zunger, a privacy engineer at Google, recalled a suggestion he made to YouTube staff before he left the company in 2016. He proposed a third tier: Videos that were allowed to stay on YouTube, but, because they were “close to the line” of the takedown policy, would be removed from recommendations. “Bad actors quickly get very good at understanding where the bright lines are and skating as close to those lines as possible,” Zunger said.

    His proposal, which went to the head of YouTube policy, was turned down. “I can say with a lot of confidence that they were deeply wrong,” he said.

    Rather than revamp its recommendation engine, YouTube doubled down. The neural network described in the 2016 research went into effect in YouTube recommendations starting in 2015. By the measures available, it has achieved its goal of keeping people on YouTube.

    “It’s an addiction engine,” said Francis Irving, a computer scientist who has written critically about YouTube’s AI system.

    Wojcicki and her lieutenants drew up a plan. YouTube called it Project Bean or, at times, “Boil The Ocean,” to indicate the enormity of the task. (Sometimes they called it BTO3 – a third dramatic overhaul for YouTube, after initiatives to boost mobile viewing and subscriptions.) The plan was to rewrite YouTube’s entire business model, according to three former senior staffers who worked on it.

    It centered on a way to pay creators that isn’t based on the ads their videos hosted. Instead, YouTube would pay on engagement—how many viewers watched a video and how long they watched. A special algorithm would pool incoming cash, then divvy it out to creators, even if no ads ran on their videos. The idea was to reward video stars shorted by the system, such as those making sex education and music videos, which marquee advertisers found too risqué to endorse.

    Coders at YouTube labored for at least a year to make the project workable. But company managers failed to appreciate how the project could backfire: paying based on engagement risked making its “bad virality” problem worse since it could have rewarded videos that achieved popularity achieved by outrage. One person involved said that the algorithms for doling out payments were tightly guarded. If it went into effect then, this person said, it’s likely that someone like Alex Jones—the Infowars creator and conspiracy theorist with a huge following on the site, before YouTube booted him last August—would have suddenly become one of the highest paid YouTube stars.

    In February of 2018, the video calling the Parkland shooting victims “crisis actors” went viral on YouTube’s trending page. Policy staff suggested soon after limiting recommendations on the page to vetted news sources. YouTube management rejected the proposal, according to a person with knowledge of the event. The person didn’t know the reasoning behind the rejection, but noted that YouTube was then intent on accelerating its viewing time for videos related to news.

    #YouTube #Economie_attention #Engagement #Viralité

  • La tuerie de Christchurch en direct sur Facebook : l’échec des géants numériques
    https://www.franceinter.fr/emissions/geopolitique/geopolitique-19-mars-2019

    La diffusion a duré 17 longues minutes, et la première ministre néo-zélandaise s’est étonnée que Facebook n’ait pas bloqué plus vite ces images atroces. Mais le contrôle s’effectue a posteriori sur ces plateformes, et ce n’est qu’une fois alertées qu’elles sont passées à l’acte. Mais le mal était fait, et se propageait à grande vitesse.

    Les chiffres sont extravagants : Facebook a annoncé avoir retiré dans les 24 heures quelque 1 million et demi de copies de la vidéo du terroriste, dont 1,2 million en phase de chargement, donc avant diffusion.

    C’est encore plus spectaculaire chez YouTube, la plateforme de vidéo. Dans les heures qui ont suivi la tuerie, les vidéos de Christchurch étaient téléchargées au rythme d’une par seconde, plus vite que la capacité de YouTube à les effacer ; d’autant que, pour échapper aux système automatiques, des versions éditées et à peine modifiées de la vidéo étaient mises en ligne, plus difficiles à déceler. Dépassées, les équipes de YouTube ont dû désactiver pour la première fois certaines fonctionnalités pour freiner la viralité.

    #réseaux_sociaux #viralité #algorithmes #diffusion

  • La plate-forme de romans et de nouvelles Wattpad lance sa maison d’édition
    https://www.lemonde.fr/pixels/article/2019/02/06/la-plate-forme-de-romans-et-de-nouvelles-wattpad-lance-sa-maison-d-edition_5

    Wattpad, la plate-forme collaborative consacrée à la publication sur Internet de romans et de nouvelles, a annoncé la création de sa propre maison d’édition. Très populaire, Wattpad se présente pour l’instant sous la forme d’un site et d’une application mobile, et compte une importante communauté qui publie majoritairement des fanfictions, des récits de romance et des romans à destination des jeunes adultes, souvent mis en ligne chapitre par chapitre.

    Six premiers titres ont été annoncés par Wattpad, et seront publiés en anglais cet automne. Certains ont déjà connu un important succès en ligne – Cupid’s Match, de Lauren Palphreyman, a déjà été lu plus de 40 millions de fois, selon les chiffres de l’entreprise. En revanche, I’m a Gay Wizard, de V. S. Santon, n’a été lu « que » 400 000 fois.
    Algorithme de sélection

    Comme le relève le site spécialisé ActuaLitté, Wattpad aura recours à un logiciel développé en interne pour repérer les textes les plus prometteurs parmi les 565 millions publiés sur la plate-forme. Ce programme, baptisé Story DNA, se base sur les technologies d’apprentissage automatique (deep learning), très utilisées pour analyser le contenu de textes et en « comprendre » le sens.

    Ce logiciel « déconstruit les histoires pour faire ressortir les composants fondamentaux, comme la structure des phrases, le vocabulaire utilisé, ou la grammaire », explique Ashleigh Gardner, responsable adjointe de Wattpad Studios, dans un entretien au site The Bookseller. Story DNA combine ces éléments aux chiffres d’audience, dont le temps passé par les lecteurs et lectrices sur un titre. « Ces données uniques nous permettent de découvrir en amont les histoires qui seront les best-sellers de demain », affirme Ashleigh Gardner.

    #Wattpad #Edition #Algorithme #Sélection #Viralité

  • Why Did the New Gillette Ad Backfire so Horrendously?
    https://blog.usejournal.com/why-did-the-new-gillette-ad-backfire-so-horrendously-c8b13d4bbb1b

    People do not want to be instructed on morality by corporations that sell consumer goods.

    Advertising is not the realm of moral instruction. When you deliver a moral message that you want to have a lasting impact, there is literally no worse way to undermine that message than by sticking a corporate logo on the end of it. It comes across as instinctively shallow, opportunistic and self-serving. This style of morally intuitive advertising was a very common tactic in the 60’s and 70’s, but that’s because viewers were generally speaking: “marketing illiterate”. People didn’t see many ads and they didn’t understand the ploys that advertisers used to get them to put their wallets on the line. However, our generation is very different. We have grown up surrounded by ads, and we have developed a relatively good sense for ads that employ shifty tactics.

    Gillette is a company that sells razors and and other shaving aids. It is not a place that people go to for lessons on moral principles, and when viewers feel as though they are being lectured by a brand on already inflammatory principles such as their own emotional intelligence, or the fundamentals of their behaviour, they are quick to react in a way that defends their ideals from such unnecessary and uninvited prodding.

    Personally, I don’t see anything wrong with the message in the film clip. It is important that men call out sexist and derogatory behaviour when they see it. But when a corporation whose sole function is to sell devices that remove facial hair, begin to assert that it is their place to tell men how they can be more morally responsible, it’s no wonder why some feel as though Gillette have played the wrong note.

    I realised that the moderators of Gillette’s Youtube account had in fact been deleting the negative comments that were gathering the most likes beneath the video. If you visit the video HERE you will find that all the negative comments will have time-stamps that are less than a few hours old, and there are repeated comments saying that their comments have been deleted before. It’s multi-million dollar corporation acting like a nervous teen deleting negative comments on their instagram photos.

    Doing this not only reflects the lack of solitude and confidence that Gillette have in their new campaign, because they are so obviously fearful of criticism; it speaks to the heart of their issue. They are so concerned with their public image, they are willing to do anything that delivers them social praise. Which means that they are also willing to make an advertisement that is so obviously an effort to monetise “progressive” social movements, and reflects such an icky form of capitalistic opportunism that even people unconcerned by the warring politics of SJW’s and right-wingers are weighing in on the sheer stupidity of it’s campaign

    #Gillette #Publicité #Viralité

    • Pas d’accord du tout. La communication des entreprises prétend transmettre des valeurs depuis belle lurette, et c’est un des fondements de la pub.

      En l’occurence, la communication des marques de rasoirs pour homme, c’est entièrement basé sur la promotion de la virilitude du type à la mâchoire carrée qui séduit les femmes. Si en plus il se met du pschitt sous les bras, les top-mannequins qu’il croise dans les escalators s’évanouissent sur son passage.

      Alors si ça « backfire » (mon œil) sur la pub Gilette américaine, c’est à cause du changement de message : la tradition des rasoirs pour homme, c’est la virilité limite toxique (et au-delà), et soudain ça serait la promotion de valeurs respectueuses. C’est pas le fait que Gilette se met à transmettre des valeurs – ce qui a toujours été son fond de commerce, mais clairement parce que le message ne correspond pas aux attentes des bas du front virilistes (Apple fait des pubs avec plein de ce genre de valeurs, et ça n’a jamais « backfiré »).

      Bref, autant que je suis d’accord avec le côté hypocrite et opportuniste de la pub, mais pour le coup, le type passe à mon avis totalement à côté du « scandale » (au point que c’en est suspect) : les US sont une société divisée, avec une droite ultra-réactionnaire en roue libre, dont la principale activité (et seule source de vague « légitimité »), c’est la traque aux SJW, aux valeurs progressistes et tout ce qui s’y apparente. La moindre expression de White supremacy se pose désormais en victime de la bien-pensance (souvent avec le soutien du Président-qui-touite), et je peine vraiment à comprendre comment on peut passer autant de temps à délibérer dans quelles toilettes les transsexuel·les vont pisser.

      Bref : à mon avis, encore une saloperie bien faf du shithole country, et certainement pas un refus informé et progressiste de la récupération de valeurs modernes par les pubards.

    • Arno*, je suis d’accord avec toi. Je ne dépose pas ici uniquement des choses avec lesquelles je suis OK, mais des lectures que j’estime intéressantes, et qui peuvent me servir pour faire des cours, des conférences ou écrire des bêtises.

      En l’occurrence, l’auteur de l’article est bien un masculiniste choqué par la pub. Mais l’argument qui consiste à dire que ce n’est pas aux entreprises qui vendent des produits de faire des leçons de morale doit être pris en compte (on pourrait dire idem sur la pub Dove...). J’imagine que la même personne doit aussi dire que les lois et règles sont des atteintes aux libertés individuelles. Le libertarianisme est partout sur internet, et notamment dans les blogs.

      Bref, je garde aussi les (mauvais) arguments pour mieux pouvoir les contrer. Cf les cours que j’ai pu donner sur la publicité et le rôle des stéréotypes, et de l’organisation des normes sociales via l’univers marchand...

  • affordance.info : L’algorithme de la marque jaune.
    https://www.affordance.info/mon_weblog/2018/12/algorithme-marque-jaune.html
    https://www.affordance.info/.a/6a00d8341c622e53ef022ad37fa10e200c-600wi

    par Olivier Ertzscheid

    Ce qui sera visible sur votre mur sera donc (en plus des critères précédents) choisi en fonction de votre « intérêt » et de votre proximité avec la personne qui a posté un contenu ; en fonction de la « performance » du contenu en lui-même (sa viralité en gros) ; en fonction de la capacité de la personne qui a posté un contenu à poster des contenus en général très performants (ce qui explique la « prime » de visibilité et d’audience ainsi donnée à certains comptes dans le mouvement des Gilets Jaunes) ; en fonction du « type » de contenu (un post avec uniquement du texte sera moins partagé qu’un post avec des liens, qui lui-même sera moins viral qu’une bonne image qui elle-même l’est souvent moins qu’une très courte vidéo) ; et enfin en fonction de « l’actualité » du contenu, le fait qu’il soit récent et/ou qu’il renvoie à des événements récents (et donc toujours capables de mobiliser facilement notre attention).

    Si on regarde, par exemple, le fonctionnement de Google et de son algorithme Pagerank, le problème y semble assez évident et il peut être formulé comme suit :

    Dans une grande très quantité de pages indexées, comment trouver celles répondant le mieux à une requête donnée ? Réponse : les plus « pertinentes » seront les plus « populaires », et cette popularité sera déterminée par le nombre de liens hypertextes pointant vers elles.

    Simple. Basique.
    Et Facebook donc, quel problème cherche-t-il à résoudre ?

    Facebook cherche-t-il à trouver des contenus répondant le mieux à une requête ? Non puisque nous ne posons (presque) jamais de question à Facebook.

    Facebook cherche-t-il à déterminer la popularité et la pertinence d’un contenu ? Non plus. En tout cas pas fondamentalement.

    Fondamentalement, Facebook cherche à nous contraindre à interagir avec des contenus de la plateforme pour disposer de profils « qualifiés » (= décrits et caractérisés aussi finement que possible). Facebook appelle cela « l’engagement ». L’algorithme de Facebook cherche donc à résoudre le problème de l’engagement. Problème qui peut être décrit de la manière suivante :

    Comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas ?

    Je répète : le problème de l’algorithme de Facebook est de savoir comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas.

    Et comme il a mis en place plein d’outils pour y parvenir (souvenez-vous que ses ingénieurs ont suivi des cours de persuasion technologique), pour peu que des contenus nous concernent, même un peu, même de loin, ou que nous les recherchions, même secondairement, même anecdotiquement, le volume d’interaction monte en flèche. Et le chiffre d’affaire de Facebook avec.

    Je le répète donc une troisième (et dernière) fois, le problème de l’algorithme de Facebook est de savoir comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas.

    C’est cela, le problème de Facebook. Juste cela. Et c’est parce que c’est cela le problème de Facebook que nous avons collectivement un problème avec Facebook et que Facebook a également tout un tas de nouveaux problèmes dont il faudra bien qu’il finisse par répondre devant la justice et peut-être pas uniquement devant la justice fiscale. Et si l’algorithme de Facebook cherche à résoudre ce problème particulier c’est à la fois pour entretenir son propre modèle économique et pour pallier son incapacité à produire une forme de désir de questionnement

    Et dans le cadre de ce problème, la question de la « vérité » ou même de la « véracité » est entièrement escamotée au seul profit de l’engagement :

    "Facebook est une machine à produire de l’engagement. Google est une machine à produire de la popularité. Ce qui veut dire que le régime de vérité de Google est celui de la popularité. Est « vrai » dans l’écosystème Google, au regard des critères de l’algorithme de Google, ce qui est populaire. (...) Est « vrai » dans l’écosystème Facebook ce qui permet de produire de l’engagement, d’être « atteint » (le fameux « reach ») et, par effet de bord, de « porter atteinte ». Peu importe que cela soit « vérifiable », peu importe que cela soit « populaire » (effet de l’illusion de la majorité), il suffit, dans le régime de vérité de Facebook, que cela produise de l’engagement."

    Cette vidéo et ces images sont bien sûr tout à fait authentiques. Et cette scène et ce qui a suivi c’est ... Bref. « Ces images terribles sont la preuve à charge d’un dérapage, qui tutoie les procédés de vengeance vidéo, ou revenge porn, plus proches de la loi du talion que du maintien de l’ordre », écrit André Gunthert. Mais là n’est pas mon sujet.

    Dès que cette vidéo est « sortie » (c’était en fin de matinée hier), je l’ai vue rediffusée ("partagée") par un très grand nombre de mes « amis » ou « amis d’amis » Facebook sans qu’ils aient matériellement ou intellectuellement pu prendre le temps d’en vérifier l’authenticité. Sur le coup beaucoup de titres de presse ont bien sûr immédiatement fait des « papiers » pour générer de l’audience mais l’essentiel de ces « papiers » ne comportaient aucun élément factuel sur l’authenticité, de la vidéo, sur sa date de tournage, sur son auteur, etc. Rien. A ce moment là, et « à ce moment là » est le point important de cette phrase, à ce moment là rien ne permettait d’indiquer que cette vidéo et ces images n’étaient pas fausses ou décontextualisées ou montées ou filmées dans d’autres manifestations dans d’autres contextes.

    Et pourtant des gens qui n’ont sociologiquement rien de « Gilets Jaunes », des gens qui sont par ailleurs à peu près parfaitement éduqués à l’image et à son analyse, des gens qui ne se méfient pas « des médias » ou qui n’y voient pas un ennemi, des gens parmi mes amis et mes « amis d’amis » ont instantanément partagé cette vidéo sans jamais se poser la question de son authenticité au moment où ils lui servaient de caisse de résonance. Exactement de la même manière que chez « les Gilets Jaunes », plein de gens rediffusent et partagent exactement de la même manière des vidéos et des images sans jamais se poser la question de leur authenticité au moment où ils les partagent.

    Ma démonstration s’arrête là puisqu’elle n’avait pour objet que d’essayer de vous convaincre que la question des Fake News n’est pas simplement une question « d’éducation aux médias », qu’elle n’est pas non plus une question « de classe » (sociale), mais qu’elle n’est qu’une question de biais cognitif et d’architecture technique toxique. Comme je l’avais déjà analysé ici.

    L’AFP Factuel et d’autres comptes de médias ont ensuite plus tard dans l’après-midi attesté que la vidéo était authentique et ont produit tous les éléments de contexte nécessaires. Mais même si ce temps de Fact-Checking fut très rapide (bravo d’ailleurs aux différents médias), il fut une éternité à l’échelle de la temporalité « virale ».

    #Facebook #Viralité #Culture_numérique #Algorithmes

  • affordance.info : Autodafécebook. De l’interdiction des livres sur Facebook et de l’inquisition de certaines formes instrumentales de viralité.
    http://affordance.typepad.com/mon_weblog/2018/03/de-linterdiction-des-livres-sur-facebook-et-de-linquisition-de-l
    http://www.affordance.info/.a/6a00d8341c622e53ef01bb09f9ae7d970d-600wi

    Par Olivier Ertzscheid

    L’histoire occupe probablement une bonne partie de votre mur Facebook depuis quelques jours. L’histoire c’est celle du livre « on a chopé la puberté » publié par les éditions Milan Jeunesse.

    Il ne s’agissait bien sûr que d’un extrait et très peu de journaux et de journalistes ont fait le travail d’aller lire en intégralité l’ouvrage, beaucoup préférant se contenter de décrire la montée du bad buzz sur les réseaux sociaux en reprenant d’ailleurs uniquement les éléments visuels déjà jetés en pâture. Exception notable, cet article de Madmoizelle paru le 2 Mars qui fut l’un des rares (le seul ?) à prendre le temps de rappeler que les extraits diffusés ne rendaient pas compte de l’ensemble et devaient à tout le moins être regardés avec davantage de circonspection et dans le contexte général de l’ouvrage, bien moins caricatural que ce qu’en donnaient à voir les extraits choisis.

    Quelques jours plus tard, 148 249 personnes avaient signé une pétition réclamant, et obtenant le retrait du livre paru à ... 5000 exemplaires.

    Ce qui est en train de se jouer c’est que nous avons tous pris conscience de l’immense pouvoir que nous conférait la viralité.

    Et que les grandes plateformes, où ce sentiment de toute puissance est seul à pouvoir se construire et s’exercer, jouent l’exacerbation de manière systématique, programmatique.

    Dans cette affaire comme dans d’autres les mécanismes de la viralité sont tout à fait connus et documentés, comme le sont les effets souvent pervers qui l’alimentent : tyrannie des agissants et autres biais cognitifs surjouent une indignation qui vise surtout à marquer notre appartenance opportuniste à une agitation organisée en catharsis d’on ne sait plus vraiment trop quoi, plutôt que notre adhésion sincère aux thèses à l’origine de ladite agitation.

    Puisqu’il est à peu près certain que jamais les plateformes ne renonceront à instrumentaliser cette viralité qui est le paradigme premier de leur modèle d’affaire, puisqu’il est également certain qu’il faudra encore beaucoup de temps pour que le design attentionnel en vienne à intégrer des perspectives éthiques « by default », alors il faut nous éduquer à ces grammaires du pulsionnel qui font de la viralité une forme de partage qui ne vise rien d’autre que la reproduction de sa propre et formidable inertie en se nourrissant d’une hystérisation qu’elle secrète elle-même. Nous éduquer donc à ces grammaires du pulsionnel, et s’efforcer d’y éduquer nos proches. Ou nous en éloigner avec eux par différents moyens.

    #Edition #Censure #Médias_sociaux #Viralité #Olivier_Ertzscheid

  • Autodafécebook. De l’#interdiction des #livres sur Facebook et de l’inquisition de certaines formes instrumentales de viralité.
    http://affordance.typepad.com/mon_weblog/2018/03/de-linterdiction-des-livres-sur-facebook-et-de-linquisition-de-l
    http://www.affordance.info/.a/6a00d8341c622e53ef01bb09f9ae7d970d-600wi

    Ni les plateformes qui instrumentalisent la #viralité sur la base de nos courroux artificiels, ni nous-mêmes qui trop souvent condamnons sans voir et rejetons sans savoir, ne sommes prêts à assumer collectivement cette #responsabilité, et en un sens c’est assez heureux, car le gouvernement d’un peuple de 2,5 milliards de voisins entassés dans une promiscuité de chaque instant ne serait pas vraiment très sain.

    Puisqu’il est à peu près certain que jamais les plateformes ne renonceront à instrumentaliser cette viralité qui est le paradigme premier de leur modèle d’affaire, puisqu’il est également certain qu’il faudra encore beaucoup de temps pour que le design attentionnel en vienne à intégrer des perspectives éthiques « by default », alors il faut nous éduquer à ces grammaires du pulsionnel qui font de la viralité une forme de partage qui ne vise rien d’autre que la reproduction de sa propre et formidable inertie en se nourrissant d’une hystérisation qu’elle secrète elle-même. Nous éduquer donc à ces grammaires du pulsionnel, et s’efforcer d’y éduquer nos proches. Ou nous en éloigner avec eux par différents moyens.

    • Je comprend pas que le texte finisse par une pétition. Est-ce qu’on le trouve sur fesse-bouc ce texte qui semble très viral vu qu’il est deja 8 fois sur seenthis. L’appel a la censure je désapprouve clairement. Etrangement en france l’appelé au boycott est censuré. Dire ce qui pose problème dans le livre c’est une chose différente de le faire interdire.
      #backlash #zuckerberk

    • Sérieux, vous avez déjà vu une pétition changer quoi que ce soit ? Accuser les rézosocios est une façon commode de se défausser sur le fond.

      C’est Milan qui a décidé de retirer ce livre, pas fesse-bouc. L’autrice a aussi décidé de laisser tomber ses personnages malgré le soutien de son éditeur.

      D’accord, Milan c’est pas grand chose, par rapport à Nathan par exemple, mais on ne peut pas dire qu’ils se défendent sérieusement, même — ou surtout — « dans un contexte où il semble impossible d’avoir un débat serein ».

      Ben oui, ils auraient pu se poser la question avant.

      (Je précise quand même parce que j’ai posté un peu vite qu’évidemment il n’est pas question de cautionner a priori des méthodes d’intimidation sur des individus mais d’interroger les choix et explications toujours pas convaincants de la maison d’édition. Pour moi il s’agit moins d’une question de censure que d’un choix éditorial pas complètement assumé, en bien ou en mal, après coup.)

  • La vidéo du « rat qui se douche » ne montre pas du tout un « rat qui se douche » - vidéo Dailymotion
    https://www.dailymotion.com/video/x6dydz1


    C’est un dur rappel à la l’immuable loi d’internet : derrière une vidéo virale peut parfois se cacher une réalité bien moins mignonne qu’au premier clic. À l’image des chiens qui se tiennent sur leurs pattes arrières, le « rat qui prend sa douche », qui a conquis les réseaux sociaux comme une traînée de poudre, s’est avéré être moins un remake du film Ratatouille qu’une mauvaise mise en scène (voir la vidéo en tête d’article).

    #Fake_news #Vidéos #Viralité

  • A la recherche du tiers perdu d’Anderlecht - Blog
    https://ici.brussels/blog-1

    Le sud-ouest de la commune est tout simplement rayé des cartes, et avec lui une partie de #Forest, transformant le tracé tortueux de la limite communale en ligne droite digne de la Conférence de Berlin au XIXe siècle, quand les puissances coloniales se partagèrent l’Afrique à grands coups de règle graduée. Six cents hectares de terrain sont ainsi passés à la trappe, soit quinze fois la taille des greens et bunkers du Royal Amicale #Anderlecht Golf Club, eux aussi situés dans la zone fatidique.

    #wikipedia #cartographie #fake-map ^^ #viralité

  • « Pour être efficace, une photographie doit être simple »
    http://abonnes.lemonde.fr/big-browser/article/2017/05/10/pour-etre-efficace-une-photographie-doit-etre-simple_5125688_4832693

    Certaines photos sont plus fortes que les mots. Un cliché d’un photographe amateur représentant une jeune fille de 16 ans confrontée à un sympathisant néonazi, pris le 1er mai lors d’une manifestation d’extrême droite à Brno, en République tchèque, a eu une grande résonance en ligne.

    Cette photographie s’inscrit dans la tradition des clichés stéréotypant des figures antithétiques. Quelques semaines auparavant, c’est l’image d’une manifestante à Birmingham, en Angleterre, défiant calmement du regard un militant du groupuscule d’extrême droite English Defence League, qui était devenue virale.

    Vincent Lavoie, historien de la photographie et professeur d’histoire de l’art à l’université du Québec, à Montréal (Canada), analyse pour Big Browser les raisons de cet engouement.

    Ces images ne sont pas des icônes, du moins pas encore, et je doute même qu’elles le deviennent. Elles s’inscrivent plutôt à l’intérieur d’une série d’images semblables, réunies autour de la reprise de certains motifs. Leur répétition – une polarité idéologique doublée d’une polarité du genre – explique en partie leur popularité, attestée par les « like » et les « retweet », nouveaux indices de la valeur sociale des images.

    #image #viralité

  • Comment la photo d’une manifestante contre un groupe d’extrême droite anglais est devenue virale
    http://www.lemonde.fr/big-browser/article/2017/04/11/comment-la-photo-d-une-manifestante-contre-un-groupe-d-extreme-droite-anglai

    Tête haute, regard direct et léger sourire de défi, Saffiyah Khan fait face à un manifestant d’un groupuscule d’extrême droite anglais, l’English Defence League (EDL), lors d’une manifestation dans la ville de Birmingham, en Angleterre. Cette jeune fille, jusqu’alors anonyme, est devenue en l’espace de quelques jours une véritable icône de résistance pacifique sur les réseaux sociaux. La photographie, prise le samedi 7 avril, a été relayée par de nombreux médias britanniques comme The Guardian, The Telegraph, The Mirror ou encore la BBC.

    #résistance #viralité #médias_sociaux

  • Internet, raison et sentiments
    https://www.franceculture.fr/emissions/la-grande-table-2eme-partie/internet-raison-et-sentiments


    http://media.radiofrance-podcast.net/podcast09/12360-28.12.2016-ITEMA_21179411-1.mp3

    Le web - et notamment via les réseaux sociaux - est devenu un espace majeur pour le partage des émotions. Les sentiments vécus lors de chaque événement, collectif ou privé, trouve un terrain d’expression sur le net. Mieux, si le partage de nos émotions est un élément fondamental de la vie sociale, le moyen numérique permettrait encore plus au groupe de bénéficier d’une expérience particulière. L’expression des émotions semble être néanmoins exacerbée dans cette relation dématérialisée. On constate en effet que l’émergence d’Internet modifie la définition sociale des émotions. Que devient notre vie émotionnelle dans un environnement qui exclut toute présence physique ? Quelles nouvelles formes d’échanges émotionnels Internet crée-t-il ? On en parle avec le sociologue Dominique Cardon.

    "La grande transformation numérique est en train de bouleverser la forme de l’espace public. Or, on applique à cette nouveauté beaucoup de critères, de raisonnements, d’interprétations qui viennent de la forme ancienne de l’espace publique. Et du coup, on a du mal à comprendre la nouveauté."

    #filter_bubble #personnalisation #médias_sociaux etc.

    Où j’apprends qu’il y a eu une tribune pour des États généraux du Web indépendant ? On a du en parler ici forcément.

    Et aussi que Google a mis en place un Google actu inversé (qui ne recense que les infos dont tout le monde se fout).

    J’irais chercher les liens plus tard.

  • Est-ce que #Facebook rachète ces boîtes parce qu’il ne connaît pas (encore) tous les secrets de la #viralité ? Ou par réflexe hégémonique ?

    #Facebook buys CrowdTangle, the tool publishers use to win the internet
    http://www.theverge.com/2016/11/11/13594338/facebook-acquires-crowdtangle

    CrowdTangle joins Facebook’s existing publisher analytics tools, which include Signal (for discovering which news stories are trending) and Page Insights (which offer analytics tools for pages.) “Thanks to this partnership, our platform is only going to get more powerful,” CrowdTangle’s founders said in a blog post. “All of our partners can not only expect the same quality of product, level of support, and pace of innovation they have come to expect from us, but they should and can expect even more from us going forward.”

    Sur la viralité des #hoax et les moyens de les repérer :

    · How Fake News Goes Viral : A Case Study
    http://www.nytimes.com/2016/11/20/business/media/how-fake-news-spreads.html

    · Reuters built an #algorithm to flag and verify breaking news on Twitter
    http://www.theverge.com/2016/12/1/13804542/reuters-algorithm-breaking-news-twitter

  • Inside Facebook’s (Totally Insane, Unintentionally Gigantic, Hyperpartisan) Political-Media Machine — The New York Times, 28/08/2016
    http://www.nytimes.com/2016/08/28/magazine/inside-facebooks-totally-insane-unintentionally-gigantic-hyperpartisan-poli

    The #Facebook product, to users in 2016, is familiar yet subtly expansive. Its algorithms have their pick of text, photos and video produced and posted by established media organizations large and small, local and national, openly partisan or nominally unbiased. But there’s also a new and distinctive sort of operation that has become hard to miss: political news and advocacy pages made specifically for Facebook, uniquely positioned and cleverly engineered to reach audiences exclusively in the context of the news feed. These are news sources that essentially do not exist outside of Facebook, and you’ve probably never heard of them. They have names like Occupy Democrats; The Angry Patriot; US Chronicle; Addicting Info; RightAlerts; Being Liberal; Opposing Views; Fed-Up Americans; American News; and hundreds more. Some of these pages have millions of followers; many have hundreds of thousands.

    #médias «#information»

  • Près de 60 % d’entre vous ne liront pas ce billet
    http://ici.radio-canada.ca/nouvelles/techno/2016/06/21/001-etude-twitter-media.shtml

    Il n’y a pas si longtemps, le Pew Research Center indiquait que plus de 60 % de la génération Y obtenait ses infos politiques sur Facebook. C’est d’autant plus préoccupant quand on sait que l’information qui circule sur le réseau social serait elle-même manipulée par une équipe éditoriale.

    [...]

    En analysant les tweets contenant un lien court vers cinq sources d’information, les chercheurs ont élaboré un genre de carte pour retracer la trajectoire d’une nouvelle dite virale sur Twitter. Bien sûr, les nouvelles virales sont, par définition, largement relayées. Cela dit, elles ne sont pas nécessairement lues. Alors, quelle valeur pour ces nouvelles ? Pourquoi mettre tant l’accent sur le fait de relayer si cela ne se traduit pas en réels lecteurs ?

    TL ;DR

    #Buzz_(marketing) #Facebook #Génération_Y #Information #Réseau_social_(internet) #Twitter #Viralité

    • Mieux vaut, et de loin, qu’ils se réinforment grâce aux réseaux sociaux, plutôt que de continuer à gober les méRdiats du système et leur propagande. Sur les réseaux sociaux, on trouve des sources d’informations libres, notamment sur le conflit au Donbass et sur le Moyen Orient, alors que la télé-poubelle et la totalité de la presse « libre » est totalement acquise à un camp.

  • I worked on Facebook’s Trending team – the most toxic work experience of my life | The Guardian
    https://www.theguardian.com/technology/2016/may/17/facebook-trending-news-team-curators-toxic-work-environment

    Most, if not all, of what you’ve read about Facebook’s Trending team in Gizmodo over the past few weeks has been mischaracterized or taken out of context. There is no political bias that I know of and we were never told to suppress conservative news. There is an extraordinary amount of talent on the team, but poor management, coupled with intimidation, favoritism and sexism, has resulted in a deeply uncomfortable work environment. Employees I worked with were angry, depressed and left voiceless – especially women.