• It’s the (Democracy-Poisoning) Golden Age of Free Speech | WIRED
    https://www.wired.com/story/free-speech-issue-tech-turmoil-new-censorship

    Par Zeynep Tufekci

    In today’s networked environment, when anyone can broadcast live or post their thoughts to a social network, it would seem that censorship ought to be impossible. This should be the golden age of free speech.

    And sure, it is a golden age of free speech—if you can believe your lying eyes. Is that footage you’re watching real? Was it really filmed where and when it says it was? Is it being shared by alt-right trolls or a swarm of Russian bots? Was it maybe even generated with the help of artificial intelligence? (Yes, there are systems that can create increasingly convincing fake videos.)

    Or let’s say you were the one who posted that video. If so, is anyone even watching it? Or has it been lost in a sea of posts from hundreds of millions of content pro­ducers? Does it play well with Facebook’s algorithm? Is YouTube recommending it?

    Maybe you’re lucky and you’ve hit a jackpot in today’s algorithmic public sphere: an audience that either loves you or hates you. Is your post racking up the likes and shares? Or is it raking in a different kind of “engagement”: Have you received thousands of messages, mentions, notifications, and emails threatening and mocking you? Have you been doxed for your trouble? Have invisible, angry hordes ordered 100 pizzas to your house? Did they call in a SWAT team—men in black arriving, guns drawn, in the middle of dinner?

    These companies—which love to hold themselves up as monuments of free expression—have attained a scale unlike anything the world has ever seen; they’ve come to dominate media distribution, and they increasingly stand in for the public sphere itself. But at their core, their business is mundane: They’re ad brokers. To virtually anyone who wants to pay them, they sell the capacity to precisely target our eyeballs. They use massive surveillance of our behavior, online and off, to generate increasingly accurate, automated predictions of what advertisements we are most susceptible to and what content will keep us clicking, tapping, and scrolling down a bottomless feed.

    So what does this algorithmic public sphere tend to feed us? In tech parlance, Facebook and YouTube are “optimized for engagement,” which their defenders will tell you means that they’re just giving us what we want. But there’s nothing natural or inevitable about the specific ways that Facebook and YouTube corral our attention. The patterns, by now, are well known. As Buzzfeed famously reported in November 2016, “top fake election news stories generated more total engagement on Facebook than top election stories from 19 major news outlets combined.”

    For Facebook, YouTube, and Twitter, all speech —whether it’s a breaking news story, a saccharine animal video, an anti-Semitic meme, or a clever advertisement for razors— is but “content,” each post just another slice of pie on the carousel. A personal post looks almost the same as an ad, which looks very similar to a New York Times article, which has much the same visual feel as a fake newspaper created in an afternoon.

    What’s more, all this online speech is no longer public in any traditional sense. Sure, Facebook and Twitter sometimes feel like places where masses of people experience things together simultaneously. But in reality, posts are targeted and delivered privately, screen by screen by screen. Today’s phantom public sphere has been fragmented and submerged into billions of individual capillaries. Yes, mass discourse has become far easier for everyone to participate in—but it has simultaneously become a set of private conversations happening behind your back. Behind everyone’s backs.

    The most effective forms of censorship today involve meddling with trust and attention, not muzzling speech itself. As a result, they don’t look much like the old forms of censorship at all. They look like viral or coordinated harassment campaigns, which harness the dynamics of viral outrage to impose an unbearable and disproportionate cost on the act of speaking out. They look like epidemics of disinformation, meant to undercut the credibility of valid information sources. They look like bot-fueled campaigns of trolling and distraction, or piecemeal leaks of hacked materials, meant to swamp the attention of traditional media.

    This idea that more speech—more participation, more connection—constitutes the highest, most unalloyed good is a common refrain in the tech industry. But a historian would recognize this belief as a fallacy on its face. Connectivity is not a pony. Facebook doesn’t just connect democracy-­loving Egyptian dissidents and fans of the videogame Civilization; it brings together white supremacists, who can now assemble far more effectively. It helps connect the efforts of radical Buddhist monks in Myanmar, who now have much more potent tools for spreading incitement to ethnic cleansing—fueling the fastest- growing refugee crisis in the world.

    The freedom of speech is an important democratic value, but it’s not the only one. In the liberal tradition, free speech is usually understood as a vehicle—a necessary condition for achieving certain other societal ideals: for creating a knowledgeable public; for engendering healthy, rational, and informed debate; for holding powerful people and institutions accountable; for keeping communities lively and vibrant. What we are seeing now is that when free speech is treated as an end and not a means, it is all too possible to thwart and distort everything it is supposed to deliver.

    By this point, we’ve already seen enough to recognize that the core business model underlying the Big Tech platforms—harvesting attention with a massive surveillance infrastructure to allow for targeted, mostly automated advertising at very large scale—is far too compatible with authoritarianism, propaganda, misinformation, and polarization.

    #Zeynep_Tufekci #Médias_sociaux #Liberté_expression #Espace_public #Désinformation #Attention

  • Decathlon, à fond la street | StreetPress
    https://www.streetpress.com/sujet/1558715335-decathlon-fond-la-street

    « Ça représente le quartier, c’est nos valeurs. Que je perce ou pas, je vais continuer à porter ça », balance Stavo, membre de 13 Block, groupe de rap phénomène. Dans un de leurs morceaux, Zidane, ils rappent « Toujours en Quechua, taille M Quechua, taille M Kipsta ». La phrase est instantanément devenue un mème sur les réseaux sociaux. JUL, SCH, RK, Koba la D, Nihno, PLK, Sofiane, 4Keus, Naps, Zola et bien d’autres stars du rap citent régulièrement les marques du groupe Decathlon. « C’est incroyable le nombre de ref qu’on a », commente Yann Amiry, à la fois amusé et impressionné. Depuis 2 ans, il co-gère la stratégie réseaux sociaux des différentes filiales du magasin. Et sur Twitter, il est devenu une petite célébrité, à force de répondre aux rappeurs, mais aussi pour avoir géré la polémique autour du hijab de running du magasin. Résultat : le nombre d’abonnés de certains comptes Twitter de l’entreprise a bondi de 20 à 30%. S’y ajoute un capital sympathie énorme.

    « Depuis petit, on est accrochés à cette marque », explique Stavo, 25 ans, par téléphone. Le rappeur de Sevran raconte qu’enfant il avait la panoplie Kipsta pour le foot, et les vêtements Quechua pour le reste du temps. « C’est pas cher et de bonne qualité. On n’avait pas d’argent pour du Nike. Imagine, en hiver, avec 20 euros dans la poche, tu peux acheter des vêtements de randonneur et ne pas avoir froid. » Aujourd’hui, il a toute une collection de lunettes et de vestes de la marque. Récemment, il a interpellé Decathlon sur les réseaux sociaux pour réclamer un survet Quechua, « haut et bas. Faut penser aux mecs des quartiers maintenant ».

    #CM #médias_sociaux #quartiers_populaires cc @baroug

  • Man Who Built The Retweet : “We Handed A Loaded Weapon To 4-Year-Olds”
    https://www.buzzfeednews.com/article/alexkantrowitz/how-the-retweet-ruined-the-internet

    Developer Chris Wetherell built Twitter’s retweet button. And he regrets what he did to this day.

    “We might have just handed a 4-year-old a loaded weapon,” Wetherell recalled thinking as he watched the first Twitter mob use the tool he created. “That’s what I think we actually did.”

    Wetherell, a veteran tech developer, led the Twitter team that built the retweet button in 2009. The button is now a fundamental feature of the platform, and has been for a decade — to the point of innocuousness. But as Wetherell, now cofounder of a yet-unannounced startup, made clear in a candid interview, it’s time to fix it. Because social media is broken. And the retweet is a big reason why.

    After the retweet button debuted, Wetherell was struck by how effectively it spread information. “It did a lot of what it was designed to do,” he said. “It had a force multiplier that other things didn’t have.”

    “We would talk about earthquakes,” Wetherell said. “We talked about these first response situations that were always a positive and showed where humanity was in its best light.”

    But the button also changed Twitter in a way Wetherell and his colleagues didn’t anticipate. Copying and pasting made people look at what they shared, and think about it, at least for a moment. When the retweet button debuted, that friction diminished. Impulse superseded the at-least-minimal degree of thoughtfulness once baked into sharing. Before the retweet, Twitter was largely a convivial place. After, all hell broke loose — and spread.

    In the early 2010s, Facebook’s leadership was looking for ways to drive up engagement. Having previously failed to acquire Twitter, they looked to its product for inspiration.

    The allure of going viral via the retweet had drawn publications, journalists, and politicians to Twitter en masse. And their presence shined most prominently during the 2012 election, a big moment for Twitter and a relative dud for Facebook. So Facebook, in a now all too familiar move copied Twitter, adding a trending column, hashtags, and a retweet clone.

    In 2014, Wetherell realized the retweet button was going to be a major problem when the phrase “ethics in game journalism” started pouring into a saved search for “journalism” he had on Twitter. The phrase was a rallying cry for Gamergate — a harassment campaign against women in the game industry — and Wetherell, after seeing that first batch of tweets, watched it closely.

    As Gamergate unfolded, Wetherell noticed its participants were using the retweet to “brigade,” or coordinate their attacks against their targets, disseminating misinformation and outrage at a pace that made it difficult to fight back. The retweet button propelled Gamergate, according to an analysis by the technologist and blogger Andy Baio. In his study of 316,669 Gamergate tweets sent over 72 hours, 217,384 were retweets, or about 69%.

    The game took another dark turn during the 2016 presidential campaign, when impulse-sparked sharing caused outrage and disinformation to flourish on both Twitter and Facebook. It’s one thing to copy and paste a link that says Hillary Clinton is running a pedophile ring in the basement of a pizza shop — and share it under your own name. It’s another to see someone else post it, remember that you don’t like Hillary Clinton, and impulsively hit the share or retweet button.

    “We have some evidence that people who are more likely to stop and think are better at telling true from false,” David Rand, an associate professor at MIT who studies misinformation, told BuzzFeed News. “Even for stuff that they are motivated to believe, people who stop and think more are less likely to believe the false stuff.”

    The benefits of creating such content accrued disproportionately to the fringe. When someone retweets something, they’re sharing the content with their followers, but also sending a signal to the person they’re amplifying, said Anil Dash, a blogger and tech entrepreneur. The more fringe the original tweeter, the more valuable the retweet.

    “If I retweet the New York Times, they don’t care,” Dash said. “But extreme content comes from people who are trying to be voices, who are trying to be influential in culture, and so it has meaning to them, and so it earns me status with them.”

    The pursuit of that status has driven many Twitter users to write outrageous tweets in the hope of being retweeted by fringe power users. And when they do get retweeted, it sometimes lends a certain credibility to their radical positions.

    The retweet and share, in other words, incentivize extreme, polarizing, and outrage-inducing content.

    A full rollback of the share and retweet buttons is unrealistic, and Wetherell doesn’t believe it’s a good idea. Were these buttons universally disabled, he said, people could pay users with large audiences to get their message out, giving them disproportionate power.
    "Oh no, we put power into the hands of people.”

    To rein in the excesses of the retweet, Wetherell suggested the social media companies turn their attention toward audiences. When thousands of people retweet or share the same tweet or post, they become part of an audience. A platform could revoke or suspend the retweet ability from audiences that regularly amplify awful posts, said Wetherell. “Curation of individuals is way too hard, as YouTube could attest,” Wetherell said. “But curation of audiences is a lot easier.”

    Another solution might be to limit on the number of times a tweet can be retweeted. Facebook is experimenting with an approach of this nature, although not in its main product. Earlier this year, WhatsApp, which is owned by Facebook, limited the number of people to which a message could be forwarded to five at a time, in response to quick-spreading rumors and disinformation. “The forward limit significantly reduced forwarded messages around the world,” WhatsApp said in a blog post. “We’ll continue to listen to user feedback about their experience, and over time, look for new ways of addressing viral content.”

    MIT’s Rand suggested another idea: preventing people from retweeting an article if they haven’t clicked on the link. “That could make people slow down,” he said. “But even more than that, it could make people realize the problematic nature of sharing content without having actually read it.”

    Whatever the solution, Wetherell looks at the retweet very differently than he once did — a lesson that he thinks has broader implications. “I remember specifically one day thinking of that phrase: We put power in the hands of people,” he said. “But now, what if you just say it slightly differently: Oh no, we put power into the hands of people.”

    #Twitter #Retweet #Médias_sociaux #Viralité #Fake_news #Cyberharcèlement

  • Opinion | ‘This Is Quite Gay!’ - The New York Times
    https://www.nytimes.com/2019/07/06/opinion/sunday/social-media-homophobia.html

    On the quiet, promising first morning of June, I received a text message from my brother in Abuja, Nigeria. “Please, refrain from all these shameful acts,” he wrote. “Everyone is tired of you. Mummy is crying, Daddy is crying. If you don’t value relationships, we do!”

    My brother had written after I had posted a picture on Facebook that showed me hugging a male friend. A mixture of anger, sadness and fatigue erupted in my body. “Block me if you are tired of my shameful acts,” I replied. “I won’t be the first or last person to be rejected by his family.”

    I had the audacity to start a queer publication in Nigeria and was disowned by my country as a gay man, writer and activist. After a vicious homophobic attack in Akwanga, my hometown in central Nigeria, I moved to the United States and sought asylum here in the summer of 2018.

    In a certain public rendering I could come across as a brave activist. But I have lived with intense private pain and discomfort after homophobic shaming from people like my own brother.

    Social media can be a delightful way to connect with loved ones far away, but for me it has also become a space where my own family and friends have turned into censors, distorting my life, denigrating my being gay from thousands of miles away.

    Yet when I am about to post my pictures on social media, I examine them through the searching eyes of my staunchly evangelical Christian parents, through the prying eyes of my childhood friends who still remember me as the boy who would recite chapters of the Bible. I swipe through my pictures. “This is very gay!” “This is super gay!” “This is quite gay!” I judge my own images and delete the pictures. I am my own censor.

    #Médias_sociaux #Homosexualité #Afrique #Cyberharcèlement

  • Haine en ligne : ce que contient la proposition de loi examinée par l’Assemblée
    https://www.lemonde.fr/pixels/article/2019/07/05/haine-en-ligne-que-contient-la-proposition-de-loi-dont-l-assemblee-vient-de-

    Il y a des bonnes choses dans cette loi. Dommage que les requêtes de la société civile n’aient pas été entendues : mieux définir la cible (la crainte est de voir le système détourné pour briser toute opposition) ; renforcer la place du judiciaire sur l’administratif ; réprimer les interdictions « préventives » (de contenus qui ne sont pas manifestement illégaux) ; garantir des conditions de travail correctes pour les personnes chargées de la régulation des contenu (un point très important, qui est complètement passé sous silence).

    Mais dans tous les cas, c’est le modèle économique des médias sociaux qu’il faut repenser, car il incite à la montée aux extrêmes.

    Quels contenus pourront être signalés ?

    On ne pourra pas signaler n’importe quel message. Le texte définit une liste précise de contenus interdits par divers articles de la loi française pour lesquels ce délai de vingt-quatre heures s’appliquera.

    Il s’agit :

    – des messages incitant à commettre des actes terroristes ;

    – des messages faisant l’apologie du terrorisme, des crimes de guerre ou des crimes contre l’humanité ;

    – des messages injurieux, incitant à haïr, à discriminer ou à commettre des violences sur des personnes en fonction de leur sexe, de leur orientation sexuelle, de leur identité de genre, de leur handicap, de leur ethnie, de leur nationalité, de leur « race » ou de leur religion ;

    – des messages constitutifs de harcèlement sexuel ;

    – des messages relevant du proxénétisme ou de la traite des êtres humains ;

    – des contenus pédopornographiques ;

    – des messages violents, pornographiques, portant gravement atteinte à la dignité humaine ou incitant des mineurs à se livrer à des jeux les mettant physiquement en danger susceptibles d’être vus par des mineurs.

    Ainsi, les insultes visant les personnes noires ou juives tombent sous le coup de la loi. Ce qui n’est pas le cas d’insultes simples (« casse-toi, pauvre con ») ou d’appels à la violence contre, comme l’auraient souhaité certains députés, les agriculteurs. Cela ne signifie pas que ces contenus sont légaux ou qu’ils sont nécessairement acceptés par les réseaux sociaux, mais simplement que le dispositif de la nouvelle loi ne s’y applique pas.

    Par ailleurs, il faut que le message signalé soit « manifestement illicite », c’est-à-dire qu’il n’y ait aucun doute possible sur son caractère illégal. Le gouvernement et la majorité assument parfaitement de ne pas viser tous les messages problématiques ou illégaux, mais simplement les pires. Certains députés craignent tout de même un risque de surcensure, car il est très difficile de distinguer ce qui est manifestement illicite ou non. Même pour un juge : la Cour de cassation a par exemple estimé que dire « l’homosexualité est une abomination » n’était pas une incitation directe à la violence en raison de son orientation sexuelle…

    Qui peut signaler ?

    N’importe quel internaute trouvant un contenu « manifestement illicite » pourra le signaler. Il lui suffira de fournir son nom, son prénom et son adresse e-mail (sauf si le réseau social sur lequel il est inscrit dispose de ces informations, auquel cas il ne doit rien fournir de plus) et les raisons pour lesquelles il demande le retrait de ce contenu. Signaler des contenus de mauvaise foi, en sachant qu’ils ne sont pas manifestement illicites, sera passible d’un an d’emprisonnement et de 15 000 euros d’amende.

    Les obligations des plates-formes numériques

    Le CSA ne va pas sanctionner un réseau social dès que ce dernier ne supprime pas, à tort, un contenu. Il va plutôt s’assurer que réseaux sociaux et moteurs de recherche respectent de grands principes et obligations généraux. Certaines obligations, évoquées plus tôt, concernent les informations données aux utilisateurs qui signalent des contenus ou sont les auteurs des contenus signalés.

    Réseaux sociaux et moteurs de recherche devront aussi proposer un dispositif de signalement « directement accessible et uniforme » : cela pourra être inséré dans les formulaires de signalement de contenus qui existent déjà chez tous les réseaux sociaux.

    Ils devront aussi mettre en œuvre des procédures, des moyens humains et/ou technologiques pour traiter correctement les demandes : à la fois pour se conformer au délai de vingt-quatre heures pour les contenus haineux mais aussi pour éviter tout retrait abusif. A noter que s’ils encourent une forte amende, voire de la prison, pour ne pas avoir supprimé un contenu, ils n’encourent rien sur le front pénal pour avoir supprimé à tort.

    Elles devront également désigner un représentant légal physique et formuler « en termes précis, aisément compréhensibles, objectifs et non discriminatoires » les règles qui définissent ce que les utilisateurs ont le droit, ou non, de poster sur leurs réseaux. Enfin, elles devront coopérer entre elles pour mieux lutter contre les contenus haineux, sans que cette coopération soit précisément définie par la loi.

    Bloquer les contenus déjà jugés

    Si un contenu haineux a été jugé par la justice comme étant illégal, alors l’autorité administrative (par exemple la police) pourra demander à l’hébergeur de supprimer et/ou de déréférencer ce contenu, voire aux fournisseurs d’accès à Internet de bloquer tout un site Internet, sans passer de nouveau par la case justice. Cette disposition est clairement inspirée par la décision de blocage prise à l’endroit du site Démocratie participative, qui est rapidement revenu en ligne sous une autre adresse que celle qui avait été bloquée.

    Enfin, un « observatoire de la haine en ligne » regroupant entreprises du numérique, associations et chercheurs pour observer le phénomène des messages haineux sur Internet, sera créé. Chaque année, le gouvernement présentera un rapport sur la manière dont fonctionne cette nouvelle loi.

    #Loi_Avia #Médias_sociaux

  • The Underworld of Online Content Moderation | The New Yorker
    https://www.newyorker.com/news/q-and-a/the-underworld-of-online-content-moderation

    More than one hundred thousand people work as online content moderators, viewing and evaluating the most violent, disturbing, and exploitative content on social media. In a new book, “Behind the Screen,” Sarah T. Roberts, a professor of information studies at U.C.L.A., describes how this work shapes their professional and personal lives. Roberts, who conducted interviews with current and former content moderators, found that many work in Silicon Valley, but she also travelled as far as the Philippines, where some of the work has been outsourced. From her research, we learn about the emotional toll, low wages, and poor working conditions of most content moderation. Roberts never disputes that the work is crucial, but raises the question of how highly companies like Facebook and Google actually value it.

    I recently spoke by phone with Roberts. During our conversation, which has been edited for length and clarity, we discussed why finding and deleting offensive content is so tricky, why the job is so psychologically taxing, and the fixes that could help these workers and make them better at their jobs.

    The example I’ll give there is blackface. One person that I talked with said time and again he would see these videos that were filled with blackface, and he would go and argue with his supervisor, saying, “This is racist, we supposedly don’t allow racist or hate speech on our platform,” and he could get no traction. So the policies that were in place almost parodied themselves. They were so specific on the one hand and totally missing the forest for the trees on the other that you really had to embed yourself into the logic of the particular platform, and of course every platform has its own set of policies that it makes up.

    I think they cared enough that they had an entire apparatus devoted to the creating and designing and thinking through their policies, but what became clear to me through the course of this work was that the primary function of people doing commercial content moderation at these platforms was for brand management of the social-media platform itself. There would be a great side-benefit of keeping some bad stuff out of people’s way, or “cleaning up” the platform. But ultimately this was in the service of the brand, so that the brand could continue to function as a site where advertisers might want to come. And so I feel that this whole practice really laid that bare for me.

    What could be done to make the lives of these workers better, given that this is a job that needs to be done? And it needs to be done by smart people doing it well, who need to be very well-trained.

    This is a question that I’ve often posed to the workers themselves because I certainly am not possessed of the answers on my own. They want better pay. And I think we can read that in a lot of ways: they want better pay, they want to be respected. The nature of the way the work has been designed has been for the work to be secret. In many cases, their N.D.A. precludes them from even talking about the work. And the industry itself formulated the job as a source of shame in that sense, an industry source of shame. They were not eager to tout the efforts of these people, and so instead they hid them in the shadows. And, if nothing else, that was a business decision and a value judgment that could have gone another way. I think there’s still a chance that we could understand the work of these people in a different way and value it differently, collectively. And we could ask that the companies do that as well.

    There’s a rich history of labor organizing and worker-led, or worker-informed, movements, and in this case it might have to be region by region or specific to particular parts of the world. Or it could be something that crossed geographic and cultural boundaries where workers learn to identify with each other despite where they’re located.

    We talk a lot about automation. I think that’s what you’re saying about the tech companies. Their solution is always automation, or that’s what gets foregrounded, but, I think if you talk to anyone in the industry who’s in the know, the likelihood of humans going away anytime soon is pretty much nil. And we also need to support them with mental-health support. There are things we can do technologically to maybe make it less difficult to look at some of the content.

    Facebook, just about ten days or so ago, announced a major initiative where they were going to raise the base pay of all their content moderators. I was thrilled about that. On the other hand, we could read between the lines of such an announcement to learn that until now these people were probably making minimum wage or close to that. And we could also read the deafening silence from other firms that they haven’t done that and aren’t really willing to do that yet. Because, if they were, they’d be issuing a press release, too. We’ve got a ways to go on that.

    #Content_moderation #Modération #Médias_sociaux #Travail

  • Pourquoi la loi Avia sur la haine en ligne fait l’unanimité contre elle
    https://www.latribune.fr/technos-medias/internet/pourquoi-la-loi-avia-sur-la-haine-en-ligne-fait-l-unanimite-contre-elle-82

    Qu’il s’agisse des fédérations professionnelles du numérique, des observateurs de la société numérique, ou des défenseurs des libertés, les acteurs du numérique français sont vent debout contre la loi Avia sur la haine en ligne, actuellement débattue à l’Assemblée nationale. Explications.

    Tout le monde s’accorde sur la nécessité de la loi Avia : il faut agir contre la haine en ligne et le cyberharcèlement. Oui, mais comment ? C’est là que le bât blesse, car plus les contours du futur texte se dévoilent, plus les acteurs du numérique français, de tous bords politiques et représentant des intérêts différents, se braquent contre le projet du gouvernement.
    Ce que prévoit la loi Avia

    La mesure phare de la proposition de loi de la députée LREM Laetitia Avia prévoyait à l’origine d’obliger les plateformes Internet à retirer en moins de 24 heures les contenus haineux signalés par les autorités ou par le public. Par contenus haineux, le texte entendait au départ les contenus comportant manifestement une incitation à la haine à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap.

    Mais après son passage au Conseil d’Etat et en commission des lois, des députés ont élargi sa protée en proposant une série d’amendements. Les députés proposent ainsi d’étendre l’obligation de retrait en moins de 24 heures pour des infractions comme le harcèlement sexuel, la traite des êtres humains, le proxénétisme, la mise à disposition de mineurs à contenus pornographiques ou encore l’apologie du terrorisme. Les réseaux sociaux ne sont également plus les seules plateformes concernées : un amendement veut aussi soumettre à la loi les moteurs de recherche, pour déréférencer le contenu problématique.
    close
    volume_off
    Un texte « fourre-tout », trop de « contenus gris » à gérer

    D’une manière générale, les grandes entreprises du numérique et de l’internet affichent leur soutien au renforcement de la lutte contre la haine en ligne, et au principe d’un renforcement de la réglementation en la matière. Mais l’obligation de retrait de contenu en moins de 24 heures inquiète bon nombre de professionnels, dans la mesure où elle obligera les plateformes à décider très rapidement par elles-mêmes si tel ou tel contenu contrevient à la loi, au risque de générer une cascade de polémiques et de conflits juridiques.

    « Le texte s’est trop élargi, il devient fourre-tout. On se retrouve aujourd’hui avec des choses qui relèvent de la haine en ligne et des choses qui relèvent de la morale publique, comme le proxénétisme et la pornographie. Est-ce le rôle des plateformes de définir la morale publique et de pratiquer une forme de censure ? » s’interroge Loïc Rivière, le directeur général de Tech in France, qui représente les intérêts des plateformes.

    Ainsi, les trois organisations professionnelles du secteur -Syntec Numérique qui revendique 2.000 adhérents parmi les entreprises de l’informatique et du conseil en technologies, Tech in France qui groupe les intérêts de 400 entreprises du numérique, et l’Asic qui réunit des grands acteurs de l’Internet- ont publié une mise en garde commune contre « l’inefficacité » de la future loi si son périmètre reste aussi large.

    Selon eux, le texte « risque paradoxalement d’offrir moins de protection aux citoyens qui en ont pourtant le plus besoin » :

    "Le volume de contenus « gris » à traiter" en 24 heures, c’est-à-dire du contenu à la frontière, qui nécessite un examen approfondi pour savoir s’il doit être retiré ou pas, serait tellement important que les plateformes n’auraient pas les moyens de les traiter, devenant ainsi inefficaces", déplore Loïc Rivière.

    Le texte commun aux trois organisations professionnelles demande davantage de « proportionnalité », avec une « gradation » en fonction de la gravité des messages concernés.

    "On attribue aux réseaux sociaux et aux moteurs de recherche un rôle de régulation des contenus et de référencement des contenus « acceptables » qui sort de leurs obligations sociétales peuvent s’apparenter à de la censure, et pose des problèmes de légitimité", ajoute le dirigeant.

    Flou juridique et atteintes aux libertés pour les défenseurs des droits de l’internaute

    Pour Salwa Toko, la présidente du Conseil national du numérique (instance consultative qui rassemble à la fois acteurs associatifs et professionnels de l’internet), le texte ne parvient pas à bien clarifier quels contenus les plateformes doivent accepter, et quels contenus elles doivent refuser.

    La proposition de loi « ne donne pas une définition juridique et bien précise », souligne-t-elle. Elle rejoint les acteurs professionnels sur l’avis que ce n’est pas à Facebook, Twitter, YouTube ou Google de déterminer ce qui censurable et ce qui ne l’est pas.

    « Nous regrettons que le pouvoir judiciaire ne soit pas plus mis en avant et ne soit pas plus renforcé. On se demande s’il n’y a pas là un glissement de responsabilité étatique qui est en train de se mettre en place, au profit des acteurs économiques » que sont les grandes plateformes internet, a-t-elle ajouté.

    Ne pas supprimer un contenu haineux pourra leur valoir une amende (jusqu’à 1,25 million d’euros, en l’état actuel du texte), mais censurer à tort tel ou tel militant, acteur public ou simple internaute provoquera de rudes polémiques, voire même des poursuites.

    Pour les défenseurs des libertés, notamment La Quadrature du Net, les plateformes seront en fait poussées à « sur-modérer », c’est-à-dire à censurer des contenus contestables « par précaution », simplement pour ne pas prendre le risque de se voir infliger l’amende. Avec un risque d’instrumentalisation par le pouvoir politique. Occupés à trier les contenus de la zone grise, c’est-à-dire les contenus choquants, contestables mais pas forcément illégaux, les plateformes pourraient censurer d’office tout contenu signalé par une autorité officielle, comme la police, craint l’association.

    Les plateformes « n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs partenaires jugés les plus fiables » dont l’OCLCTIC, le service de la police spécialisé contre les infractions en ligne, estime la Quadrature du Net."En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les infractions contre lesquelles il prétend lutter et imposant cette qualification aux plateformes", avertit-elle.

    #Loi_Avia #Médias_sociaux #Régulation

  • Créer un cadre français
    de responsabilisation des réseaux sociaux :
    agir en France avec une ambition européenne

    Remise du rapport de la mission de régulation des réseaux sociaux | numerique.gouv.fr
    https://www.numerique.gouv.fr/actualites/remise-du-rapport-de-la-mission-de-regulation-des-reseaux-sociaux
    https://www.numerique.gouv.fr/uploads/Haine+en%20ligne.jpg

    La problématique de la haine en ligne est devenue insupportable pour nos citoyens. Cette situation pose une triple responsabilité : celle des auteurs des contenus qui doivent assumer leurs propos, celle des réseaux sociaux qui, en toute transparence, doivent proposer une organisation susceptible de bannir la haine en ligne et celle des États qui doivent fixer des règles pour les auteurs, pour les réseaux sociaux et assurer qu’elles soient respectées.

    C’est dans cet esprit de vigilance constructive et de dialogue qu’Emmanuel Macron, président de la République, et Mark Zuckerberg, PDG de Facebook, ont acté le lancement d’une mission de régulation des réseaux sociaux en mai 2018.

    Le rapport rendu public aujourd’hui et remis à Cédric O, secrétaire d’État chargé du Numérique, propose des pistes de réflexions et d’actions qui viendront nourrir les travaux parlementaires des prochains mois.

    Lancée en mai 2018, la mission a mobilisé trois rapporteurs et sept experts de haut niveau issus de ministères et d’autorités administratives indépendantes.

    –-----------

    Synthèse
    Les réseaux sociaux permettent à tout citoyen de publier les contenus de son choix et de les partager avec d’autres utilisateurs du réseau. Ils ont ainsi révolutionné l’industrie des médias et les modes de communication en offrant aux citoyens et à la société civile un support d’expression directe. Le recours aux médias classiques n’est plus obligatoire pour communiquer publiquement. La possibilité pour les citoyens d’exercer leurs libertés d’expression, de communication, et de s’informer sont donc considérablement accrues par ces services.
    Néanmoins, les capacités offertes par les réseaux sociaux suscitent des abus inacceptables de ces libertés. Ces abus sont le fait d’individus isolés ou de groupes organisés auxquels les grands réseaux sociaux, Facebook, YouTube, Twitter ou Snap, pour ne citer qu’eux, n’apportent pas de réponse pleinement satisfaisante à ce jour. Or, par l’ordonnancement qu’ils réalisent des contenus publiés et par leur politique de modération, les réseaux sociaux sont en mesure d’agir directement sur ces abus les plus manifestes pour les prévenir ou y répondre et limiter ainsi les dommages en termes de cohésion sociale.
    Une intervention publique pour que les plus grands acteurs adoptent une attitude plus responsable et plus protectrice de la cohésion de nos sociétés apparaît donc légitime. Compte tenu des enjeux de libertés publiques, cette intervention doit faire l’objet de précautions particulières. Elle doit (i) respecter la diversité des modèles de réseaux sociaux, qui forment un ensemble particulièrement hétéroclite, (ii) faire preuve de transparence, notamment en y associant la société civile, (iii) viser un objectif d’intervention minimum conformément aux principes de nécessité et de proportionnalité et (iv) s’en remettre aux juridictions pour la qualification de la licéité des contenus pris individuellement.
    La démarche actuelle d’autorégulation des réseaux sociaux est intéressante en ce qu’elle démontre que les plateformes peuvent faire partie de la solution aux problèmes constatés. Elles ont inventé des réponses variées et agiles : retrait, moindre exposition, rappel à la règle commune, pédagogie, accompagnement des victimes. Toutefois, l’autorégulation est toujours en développement. Elle se contente trop souvent de proposer une réponse ex-post (après l’apparition du dommage). Elle manque de crédibilité, du fait de l’asymétrie extrême d’information, provoquant un sentiment de « story telling » qui suscite une suspicion sur la réalité de l’action de la plateforme.
    L’intervention publique doit reposer sur un équilibre entre une politique répressive, indispensable pour lutter efficacement contre les auteurs des abus, et une logique de responsabilisation accrue des réseaux sociaux fondée sur une régulation ex ante, pour capitaliser sur la logique de prévention et la capacité d’autorégulation des plateformes.
    Compte tenu de l’unicité et de l’ubiquité des réseaux sociaux, qui dépassent les frontières des États membres – un service unique accessible sur plusieurs géographies – cette régulation ex ante doit s’inscrire dans une dynamique et un cadre européens. Néanmoins, la règle actuelle dite du pays d’installation, selon laquelle seul le pays qui accueille le siège du réseau social peut intervenir pour réguler ce réseau, s’avère inefficace. Par les excès qu’ils permettent, les réseaux sociaux créent des dommages dans d’autres États membres, et difficilement observables par l’Etat membre d’installation.
    Toute initiative française devra donc avoir pour ambition d’inverser la logique européenne actuelle au profit d’une logique du pays de destination, selon laquelle la plateforme est responsable devant l’État membre où le dommage se produit, pour renforcer la capacité de chacun des États membres à maîtriser les conséquences de la globalisation. Cet objectif doit être pris en compte dès la conception d’une fonction de régulation des réseaux sociaux pour que le dispositif apparaisse pertinent aux yeux de nos partenaires européens, alors même que la politique en matière de régulation des industries de médias diffère sensiblement d’un pays à l’autre.
    p. 2
    La mise en place d’une régulation ex ante devrait respecter trois conditions : (i) suivre une logique de conformité selon laquelle le régulateur supervise la bonne mise en œuvre de mesures préventives ou correctrices, sans se focaliser sur la matérialisation des risques ni chercher à réglementer lui-même le service fourni, (ii) se concentrer sur les acteurs systémiques capables de créer des dommages conséquents dans nos sociétés sans créer de barrière à l’entrée pour de nouveaux acteurs européens, (iii) rester agile pour affronter les enjeux futurs dans un environnement numérique particulièrement évolutif. Le dispositif législatif devra donc viser à créer une capacité institutionnelle à réguler et non une régulation figée sur les problèmes actuels.
    Cette régulation pourrait reposer sur les cinq piliers suivants :
    Premier pilier : Deuxième pilier :
    Troisième pilier : Quatrième pilier : Cinquième pilier :
    Une politique publique de régulation garante des libertés individuelles et de la liberté d’entreprendre des plateformes.
    Une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante, reposant sur trois obligations incombant aux plateformes :
    • transparence de la fonction d’ordonnancement des contenus ;
    • transparence de la fonction de mise en œuvre des CGU et de modération
    des contenus ;
    • un devoir de diligence vis-à-vis de ses utilisateurs.
    Un dialogue politique informé entre les acteurs, le gouvernement, le législateur, le régulateur et la société civile.
    Une autorité administrative indépendante partenaire des autres branches de l’État et ouverte sur la société civile.
    Une ambition européenne pour renforcer la capacité des Etats membres à agir face à des plateformes globales, et réduire le risque politique lié à la mise en œuvre dans chaque Etat membre.

    #Médias_sociaux #Régulation #Concurrence #Liberté_expression #Transparence

  • The “Drunk Pelosi” video shows that cheapfakes can be as damaging as deepfakes.
    https://slate.com/technology/2019/06/drunk-pelosi-deepfakes-cheapfakes-artificial-intelligence-disinformation.html

    The A.I.-generated “deepfake” video implicitly but unmistakably calls for Facebook to make a public statement on its content moderation polices. The platform has long been criticized for permitting the spread of disinformation and harassment, but it became particularly acute recently, when the company said that it would not remove the “Drunk Pelosi” video.

    On Thursday, the House Permanent Select Committee on Intelligence will hold an open hearing on A.I. and the potential threat of deepfake technology to Americans. Many technology researchers believe that deepfakes—realistic-looking content developed using machine learning algorithms—will herald a new era of information warfare. But as the “Drunk Pelosi” video shows, slight edits of original videos may be even more difficult to detect and debunk, creating a cascade of benefits for those willing to use these digital dirty tricks.

    The video, posted to a self-described news Facebook page with a fan base of about 35,000, depicted Nancy Pelosi slurring her words and sounding intoxicated. However, when compared with another video from the same event, it was clear even to nonexperts that it had been slowed down to produce the “drunken” effect. Call it a “cheapfake”—it was modified only very slightly. While the altered video garnered some significant views on Facebook, it was only after it was amplified by President Donald Trump and other prominent Republicans on Twitter that it became a newsworthy issue. The heightened drama surrounding this video raises interesting questions not only about platform accountability but also about how to spot disinformation in the wild.

    “Cheapfakes” rely on free software that allows manipulation through easy conventional editing techniques like speeding, slowing, and cutting, as well as nontechnical manipulations like restaging or recontextualizing existing footage that are already causing problems. Cheapfakes already call into question the methods of evidence that scientists, courts, and newsrooms traditionally use to call for accountability

    Many will never know the video was a fake, but the advantages it gave to pundits will echo into the future. It’s a recent example of what legal theorists Bobby Chesney and Danielle Citron call the liar’s dividend . Those wishing to deny the truth can create disinformation to support their lie, while those caught behaving badly can write off the evidence of bad behavior as disinformation. In a new survey from Pew Research Center, 63 percent of respondents said that they believe altered video and images are a significant source of confusion when it comes to interpreting news quality. That loss of trust works in favor of those willing to lie, defame, and harass to gain attention.

    As Daniel Kreiss and others have pointed out, people don’t just share content because they believe it. They do it for a host of reasons, not the least of which is simply because a message speaks to what users see as an implicit truth of the world even as they know it is not factually true. Researchers have found that creating and sharing hateful, false, or faked content is often rewarded on platforms like Facebook.

    The looming threat of the deepfake is worth attention—from politicians, like at the upcoming hearing; from journalists; from researchers; and especially from the public that will ultimately be the audience for these things. But make no mistake: Disinformation doesn’t have to be high tech to cause serious damage.

    #Fake_news #Deep_fake #Cheap_fake #Nancy_Pelosi #Médias_sociaux

  • 2017 : 140,4 tonnes de cocaïne saisie dans l’union européenne Eric Steffens, Belga, 6 Mai 2019
    https://www.vrt.be/vrtnws/fr/2019/06/06/le-port-d_anvers-une-des-principales-portes-dentee-de-la-cocain

    Plus de 104.000 saisies de cocaïne ont été signalées dans l’UE en 2017 (contre 98.000 en 2016), pour un total de 140,4 tonnes, soit environ le double de la quantité saisie en 2016 (70,9 tonnes).

    La Belgique, avec 45 tonnes saisies en 2017, arrive en tête des pays d’Europe, devant l’Espagne (41 tonnes), la France (17,5 tonnes) et les Pays-Bas (14,6 tonnes).
"La cocaïne entre en Europe par de nombreux itinéraires et des moyens variés, mais la croissance du trafic de gros volumes dans des conteneurs de transport maritime constitue un défi majeur", expose l’agence européenne sur les drogues.
"Les niveaux estimés de pureté de la cocaïne vendue au détail sont les plus élevés qui aient été observés au cours de la décennie, ce qui tend également à indiquer une disponibilité accrue de cette drogue", ajoute l’agence.
    Anvers et Amsterdam, mais aussi Bristol ou Barcelone, figurent parmi les villes d’Europe où sont décelées les plus grandes quantités de résidus de cocaïne dans leurs eaux usées.

    Le trafic de cocaïne apparait en outre de plus en plus concurrentiel, avec des groupes de petite taille et des individus qui se servent de plus en plus des médias sociaux, des marchés du « darknet » et des techniques de chiffrement.

    « Sur le marché de la cocaïne, l’esprit d’entreprise se manifeste au travers de méthodes de distribution innovantes : des ’centres d’appel’ emploient des coursiers qui assurent une livraison rapide et flexible. Ces méthodes, reflets d’une possible ’ubérisation’ du commerce de la cocaïne, illustrent le caractère compétitif du marché, au sein duquel les revendeurs rivalisent en proposant des services allant au-delà du produit proprement dit », analyse l’Observatoire.

    Quant à l’héroïne, la quantité saisie dans l’UE a augmenté de plus d’une tonne en 2017 pour atteindre 5,4 tonnes. Une préoccupation croissante concerne les opioïdes de synthèse, dont onze nouveaux types ont été détectés en Europe en 2018.

    Le cannabis, lui, est désormais la substance que les nouveaux patients admis dans les services spécialisés de traitement pour usage de drogues citent le plus souvent comme raison principale de leur prise de contact.
Concernant les drogues de synthèse, 21 laboratoires de MDMA - le principe actif de l’ecstasy - ont été démantelés dans l’UE, contre 11 en 2016, tous aux Pays-Bas. Un déversement de produits chimiques suggérant la production de MDMA a été signalé en Belgique.

    Les dernières données montrent que la teneur en MDMA des comprimés d’ecstasy a atteint un pic décennal en 2017, avec une estimation de 6,6 millions de comprimés de MDMA saisis dans l’UE, soit le chiffre le plus élevé depuis 2007.

    Les données disponibles indiquent également que la production d’amphétamine se concentre principalement en #Belgique, aux #Pays-Bas et en #Pologne ainsi que, dans une moindre mesure, dans les #États_baltes et en #Allemagne.

    #concurrence #innovation #distribution #ubérisation #service #compétitivité #centre_d_appels #médias_sociaux #commerce #drogue #cocaïne #drogues #santé #addiction #société

  • Why is populism booming ? Today’s tech is partly to blame | Jamie Bartlett, the author of The People vs Tech
    https://www.theguardian.com/commentisfree/2018/nov/29/populism-tinder-politics-swipe-left-or-right-unthinkingly

    This makes sense once you understand that social media platforms are, given where their money comes from, advertising firms. As any ad man will tell you, emotion and simplicity sell. Online, that’s true in the literal sense: the more content is shared, the more advertising revenue it generates. Populist messages – especially if you’re in opposition, and can rant without the inconveniences of power – perform better than anything from the watery centre ground. But the natural affinity runs deeper: populists are more spiritually attuned to today’s technology. From shopping to dating to music to news, everything is personalised – quick, convenient, as-you-wish. What a frustrating, compromise-ridden and plodding affair politics is by comparison! Populists promise to cut through that. They offer Tinder politics – swipe left or right to get exactly what you want, without thinking too much. Anyone who stands in the way is part of a shadowy corruption – Blairites, newspapers, judges, immigrants… The good news is, says the populist, we now have a direct line to those honest, decent, hard-working people, circumnavigating the self-interested establishment parties and media. This is why many populists – whether it’s Twitter addict Trump, or the Swedish Democrats or the Italian Five Star Movement – are early adopters, and entirely at ease with the format.

    Lire aussi, dans le @mdiplo du mois, ce passage dans l’article sur l’ascension de Matteo Salvini :

    (…) Pour y parvenir, le chef de la Ligue a dû opérer deux changements majeurs : une nouvelle stratégie électorale et un rapport novateur au numérique. Pour y parvenir, le chef de la Ligue a dû opérer deux changements majeurs : une nouvelle stratégie électorale et un rapport novateur au numérique.

    C’est alors que M. Luca Morisi entre en scène. Cet expert en informatique de 45 ans dirige, avec un associé, l’entreprise Sistema Intranet, qui ne compte aucun employé, mais une foule de clients institutionnels. Il prend en main M. Salvini à une époque où ce dernier est déjà inséparable de sa tablette et largement familiarisé avec Twitter, mais où sa présence sur Facebook demeure négligeable. Son nouveau conseiller numérique lui enjoint de changer de stratégie. Twitter est un carcan, lui explique-t-il. Selon lui, la plate-forme est fondamentalement autoréférentielle et favorise les messages de confirmation. « Les gens sont sur Facebook et c’est là que nous devons être », soutient-il. Une équipe dévolue aux réseaux sociaux se constitue. Elle ne tarde pas à devenir l’un des plus importants services de la Ligue.

    M. Morisi énonce dix commandements auxquels le chef du parti doit se soumettre. Les messages de sa page Facebook doivent être écrits par M. Salvini lui-même, ou en donner l’illusion. Il faut en publier tous les jours, tout au long de l’année, et commenter y compris les événements qui viennent juste de se produire. La ponctuation doit être régulière, les textes simples, les appels à l’action récurrents. M. Morisi suggère également d’utiliser autant que possible le pronom « nous », davantage susceptible de favoriser l’identification des lecteurs, mais aussi de bien lire les commentaires, en y répondant parfois, afin de sonder l’opinion publique.

    Résultat : la page Facebook de M. Salvini fonctionne comme un quotidien, notamment grâce à un système de publication créé en interne et connu sous le nom de « la bête ». Le contenu est mis en ligne à heures fixes et repris par une multitude d’autres comptes ; les réactions font l’objet d’un suivi continu. M. Morisi et ses collègues rédigent quatre-vingts à quatre-vingt-dix publications par semaine, quand M. Renzi — alors président du conseil — et son équipe n’en produisent pas plus de dix. Pour fidéliser les abonnés, M. Morisi imagine une astuce : il conseille de s’en tenir aux mêmes mots, afin d’évoquer davantage un pilier de bar qu’un homme politique traditionnel.

    Le ton des messages relève de l’irrévérence, de l’agressivité et de la séduction. Le chef de la Ligue dresse ses lecteurs contre l’ennemi du jour (les « clandestins », les magistrats véreux, le Parti démocrate, l’Union européenne…), puis il publie une photographie de la mer, de son repas ou encore de lui-même en train de donner l’accolade à un militant ou de pêcher. L’opinion publique se nourrit d’un flot incessant d’images de M. Salvini mangeant du Nutella, cuisinant des tortellinis, mordant dans une orange, écoutant de la musique ou regardant la télévision. Chaque jour, une tranche de sa vie est ainsi diffusée auprès de millions d’Italiens, selon une stratégie où le public et le privé s’entremêlent en permanence. Cet éclectisme vise à lui donner une image humaine et rassurante, tout en lui permettant de continuer ses provocations. Son message : « En dépit de la légende qui me présente comme un monstre rétrograde, un populiste peu sérieux, je suis une personne honnête, je parle ainsi parce que je suis comme vous, alors faites-moi confiance. »

    La stratégie de M. Morisi repose également sur la « transmédialité » : apparaître à la télévision tout en publiant sur Facebook, passer au crible les commentaires en direct et les citer pendant l’émission ; une fois celle-ci terminée, monter des extraits et les mettre sur Facebook… Cette approche, dans laquelle M. Salvini est passé maître, n’a pas tardé à porter ses fruits : entre mi-janvier et mi-février 2015, il a obtenu pratiquement deux fois plus de temps d’antenne que M. Renzi. En 2013, il n’avait que dix-huit mille abonnés sur Facebook ; mi-2015, il en comptait un million et demi, et ils sont plus de trois millions aujourd’hui — un record parmi les dirigeants politiques européens.

    https://www.monde-diplomatique.fr/2019/06/PUCCIARELLI/59962

    #CM #populisme #médias_sociaux

  • « On voit comment est le monde grâce aux #réseaux_sociaux. On voit ce qui se passe en #Algérie. On voit comment vivent les femmes du monde entier, et on n’est pas différentes. »

    Source : Jean-Philippe Rémy, « Au #Soudan, les #femmes à la pointe de la révolte », Le Monde, 10 avril 2019.
    https://www.lemonde.fr/afrique/article/2019/04/10/au-soudan-les-femmes-a-la-pointe-de-la-revolte-on-ne-veut-pas-juste-changer-

    #médias_sociaux #monde #mouvement_de_contestation

  • Business douteux d’influenceurs : EmmaCakeCup attaque au moins 2 youtubeurs en justice - Politique - Numerama
    https://www.numerama.com/politique/477690-business-douteux-dinfluenceurs-linfluenceuse-emmacakecup-attaque-au

    Deux youtubeurs sont poursuivis en justice pour avoir parlé en vidéo de partenariats douteux promus par les influenceurs EmmaCakeCup et Vlad Oltean.

    Fin novembre, nous vous racontions dans une enquête comment des influenceurs font parfois des partenariats avec des sites douteux. Parmi les personnalités citées, il y avait EmmaCakeCup et son conjoint, Vlad Oltean.

    La première, une youtubeuse et instagrammeuse, a décidé de porter plainte contre deux vidéastes qui avaient relayé les propos de médias sur le sujet. Une première audience aura lieu ce vendredi 5 avril, a appris Numerama.

    La guerre des influenceurs... et des plaintes abusives. Un petit monde dont l’avidité fait tant ressembler au grand monde des médias...

    #Influenceurs #Médias_sociaux

  • Tout un programme : Pacifier Twitter, c’est le métier des « community managers » (Le Parisien, 08/03/2019)
    http://www.leparisien.fr/societe/pacifier-twitter-c-est-le-metier-des-community-managers-08-03-2019-802520

    [Introduction sur l’affaire du hijab de Décathlon finalement retiré du catalogue] (…) Fini le cliché du geek indolent, vissé à son écran pour amuser la galerie. Aujourd’hui, le « #CM » travaille en équipe, participe aux réunions stratégiques, gagne bien sa vie – jusqu’à 50 000 euros de salaire net par an. Cet homme-orchestre est à la fois communicant, publicitaire, conseiller de clientèle, spécialiste du marketing, parfois journaliste. Dans ce monde où prime l’instantanéité, il a rarement le temps de faire valider ses messages, et travaille donc sans filet.

    « Avant, les marques “publiaient”. Maintenant, elles se placent au coeur des conversations, essayant d’en tirer un maximum de profit ou évitant le plus possible d’entacher leur réputation », explique Jeremie Mani, patron de Netino by Webhelp, spécialiste de la modération (ou filtrage des messages) sur le Web, qui gère notamment les commentaires de la page Facebook du Parisien.

    Grèves, perturbations, accidents techniques… A la SNCF, les « CM » sont habitués à gérer les messages des passagers mécontents. Ils renseignent, voyageur par voyageur, répondent aux critiques en martelant quelques arguments simples et bien rodés, renvoient vers les bons interlocuteurs, et s’interdisent l’humour typique des réseaux sociaux, auquel ne sont généralement pas trop réceptifs les usagers coincés sur les quais des gares.

    Florentin Gonon, community manager de Digitick, site commercialisant des billets de spectacles, connaît des situations de crise moins intenses. « On aime ça », dit-il en souriant. Plus sérieusement, il dit appliquer une règle simple : un client mécontent (parce qu’il n’a pas reçu son billet ou parce qu’il juge un prix trop élevé) partagera ses critiques avec plusieurs autres personnes. Il ne faut donc pas le laisser se plaindre. « Si on répond poliment à un message insultant, le ton change. L’insulte est souvent un appel à l’aide. »

    Ailleurs, parfois, cette posture est moins évidente, tant on redoute de tomber dans un bavardage oiseux et de ternir l’image de l’entreprise. Les médias embauchent parfois des journalistes pour animer leurs comptes sur Twitter et Facebook, qui peuvent compter des millions d’abonnés.

    Au « Monde », par exemple, on les appelle « SME », pour social media editor (éditeur des réseaux sociaux, en anglais). Ils ont une mission éditoriale, pour valoriser les articles des médias qui les emploient, mais aussi pour faire remonter à leur rédaction les réactions et préoccupations des internautes, et même certaines informations glanées sur les réseaux sociaux. Une façon d’installer un lien avec les lecteurs et d’augmenter l’audience des journaux, plutôt qu’une recherche de « buzz » et de polémiques stériles.

    Dans les eaux glacées du Net, risque-t-on de se noyer ? Beaucoup pensent le contraire, estimant que la publicité qu’entraînent les polémiques se révèle toujours payante. Yann Amiry, de Decathlon, pourra sûrement dire bientôt si cet axiome fonctionne. Lui, en tout cas, est passé de 3 000 à plus de 28 000 abonnés sur son compte Twitter personnel.

    #modération #médias_sociaux etc.

    • Intéressant !
      J’ai commencé à me questionner sur ce boulot quand la police a lancé ses premiers comptes twitter « vivant ». C’était assez percutant : de l’humour, de la dérision, là où tu ne l’attendais pas, et des scores qui ont très vite fait frémir d’envie pas mal d’entreprise. Ca s’est un peu calmé côté humour mais ils n’hésitent pas à interagir avec les gens... Voir https://twitter.com/PoliceNationale/with_replies
      Je crois qu’ils se sont basés sur des CM d’unités de flics américains. Puis les marques s’y sont engouffrées. J’veux dire elles le faisaient déjà avant, mais la plupart étaient, effectivement, timorées, allant au max sur le terrain du quotidien ou des trucs et astuces, etc. Jamais dans la polémique ou la politique. Mais ces derniers temps, plusieurs polémiques gérées par des CM aux propos très « engagés » ont fait le buzz. Et ça m’a fait un peu bizarre de les voir portés au nues alors qu’en fait ils ont appliqué des stratégies déjà très réfléchies. Et sont très très très bien payés pour ça (cet article le prouve)
      Bref, la politique-marchande va se développer de plus en plus. Tant que le capitalisme y trouvera son intérêt.

  • What Really Makes a Difference in Vaccination Rates? - The New York Times
    https://www.nytimes.com/2019/03/06/upshot/vaccination-social-media-state-policies.html

    Social media companies face increasing scrutiny for amplifying fringe anti-vaccine sentiment amid measles outbreaks in several states like Washington. In response, Facebook, YouTube and Pinterest recently made headlines by announcing initiatives to reduce vaccine misinformation on their platforms.

    But the focus on anti-vaccine content on social media can obscure the most important factor in whether children get vaccinated: the rules in their home states, which are being revisited in legislative debates across the country that have received far less attention.

    #Médias_sociaux #Fake_news #Vaccins #Politique_USA #Vaccination

  • TikTok, l’application chinoise à la conquête des ados du monde
    https://www.lemonde.fr/pixels/article/2019/03/09/tiktok-l-application-chinoise-a-la-conquete-des-ados-du-monde_5433614_440899

    La France n’échappe pas à cette déferlante. La formule fonctionne particulièrement chez les 11-14 ans (38 % déclarent avoir un compte sur TikTok), et chez les filles (57,82 % de cette tranche d’âge), selon une enquête de l’association Génération numérique auprès de 7 421 jeunes de moins de 18 ans.

    Contrairement à ses concurrents, TikTok – version exportée de Douyin –, ne vient pas de la Silicon Valley, mais de Pékin. C’est la première fois qu’une entreprise chinoise parvient à s’exporter avec un tel succès. Derrière cette application se trouve ByteDance, la start-up la plus chère du monde – devant l’américain Uber –, qui est valorisée 75 milliards de dollars (66,78 milliards d’euros) depuis son dernier tour de table, fin 2018, où ses soutiens, dont Softbank, ont aligné 3 milliards de dollars de plus.

    Se plonger dans TikTok, c’est voir Internet résumé en vidéos de quinze secondes : des miniscènes parfois drôles, d’autres fois ridicules, souvent inventives

    Se plonger dans TikTok, c’est voir Internet résumé en vidéos de quinze secondes : des miniscènes parfois drôles, d’autres fois ridicules, souvent inventives.

    L’idée originale était de jouer une scène ou une chanson en play-back. Mais d’autres font quelques pas de danse, ou des tours de force avec, en fond sonore, le dernier tube de pop à la mode. Les adolescents s’y lancent des défis. A mesure que le public évolue, les contenus deviennent plus variés : certains résument une recette de cuisine, quand d’autres montrent en accéléré l’élaboration d’un dessin, ou d’un bricolage. Il y a beaucoup de filles, quelques garçons et, bien sûr, beaucoup de chats.
    Mettre son cerveau sur pause

    Bref, ouvrir TikTok, c’est mettre son cerveau sur pause pour un moment. Quasiment pas de publicité pour l’instant (la version chinoise en compte beaucoup plus), des vidéos trop courtes pour être élaborées… TikTok ne fait que du divertissement, avec une efficacité redoutable. « L’expérience est captivante : ce n’est pas comme Youtube ou Instragram. Là, c’est du micro-contenu. Ça marche très bien sur mobile, avec les vidéos verticales, plein écran, c’est très immersif », décrit Matthew Brennan, expert de l’industrie du Web en Chine et fondateur du cabinet de marketing China Channel.

    Surtout, TikTok excelle à découvrir les goûts de ses utilisateurs. En ouvrant l’application vous tombez sur une vidéo. Elle ne vous plaît pas ? Un coup de doigt vers le haut, et vous passez à la suivante. Rapidement, les vidéos proposées sont mieux ciblées.

    « L’algorithme apprend ce qui vous plaît vraiment vite, poursuit M. Brennan. C’est la force de ByteDance : toutes leurs plates-formes fonctionnent avec la même technologie de recommandation. C’est très puissant ! » L’entreprise a, en effet, percé avec Jinri Toutiao, un agrégateur d’informations lancé en 2012. L’application, qui sélectionne des articles selon vos goûts, fait fureur.
    Les autorités s’interrogent

    Douyin, la version chinoise de TikTok, a vu le jour en septembre 2016. C’est un clone d’une autre application chinoise, Musical.ly, fondée deux ans plus tôt. Mais Musical.ly, plus centrée sur les vidéos musicales, type karaoké, trouve son public à l’étranger alors que Douyin, plus généraliste, gagne du terrain en Chine. L’année suivante, ByteDance rachète Musical.ly pour 1 milliard de dollars et intègre les deux applications. Une acquisition déterminante pour l’expansion de Douyin à l’étranger, qui récupère les clients de Musical.ly et se déploie à l’international à grands coups de campagnes publicitaires.
    Article réservé à nos abonnés Lire aussi En Chine, Douyin taille des croupières à WeChat

    Face à ce succès, les autorités s’interrogent. En France, la police a, en novembre 2018, mis en garde contre l’utilisation de la plate-forme par des prédateurs sexuels, les jeunes filles se mettant en scène dans des positions parfois suggestives. L’application a été interdite au Bangladesh, et temporairement en Indonésie, où elle était accusée de promouvoir « la pornographie et le blasphème ». En Inde, une proposition de loi vise à obliger TikTok à filtrer les contenus pour purger l’application des vidéos « dangereuses ». C’est déjà le cas en Chine, où elle a été pointée du doigt pour la publication de contenus « inacceptables ».

    Plus récemment, TikTok s’est fait épingler aux Etats-Unis, le 27 février. Le groupe a dû payer 5,7 millions de dollars d’amende à la commission fédérale du commerce pour avoir collecté les adresses mails d’enfants de moins de 13 ans, sans le consentement de leurs parents.

    #TikTok #Médias_sociaux #Adolescents

  • Mark Zuckerberg’s Plans to Capitalize on Facebook’s Failures | The New Yorker
    https://www.newyorker.com/tech/annals-of-technology/mark-zuckerbergs-plans-to-capitalize-on-facebooks-failures

    On Wednesday, a few hours before the C.E.O. of Facebook, Mark Zuckerberg, published a thirty-two-hundred-word post on his site titled “A privacy-focused vision for social networking,” a new study from the market research firm Edison Research revealed that Facebook had lost fifteen million users in the United States since 2017. “Fifteen million is a lot of people, no matter which way you cut it,” Larry Rosin, the president of Edison Research, said on American Public Media’s “Marketplace.” “This is the second straight year we’ve seen this number go down.” The trend is likely related to the public’s dawning recognition that Facebook has become both an unbridled surveillance tool and a platform for propaganda and misinformation. According to a recent Harris/Axios survey of the hundred most visible companies in the U.S., Facebook’s reputation has taken a precipitous dive in the last five years, with its most acute plunge in the past year, and it scores particularly low in the categories of citizenship, ethics, and trust.

    While Zuckerberg’s blog post can be read as a response to this loss of faith, it is also a strategic move to capitalize on the social-media platform’s failures. To be clear, what Zuckerberg calls “town square” Facebook, where people post updates about new jobs, and share prom pictures and erroneous information about vaccines, will continue to exist. (On Thursday, Facebook announced that it would ban anti-vaccine advertisements on the site.) His new vision is to create a separate product that merges Facebook Messenger, WhatsApp, and Instagram into an encrypted and interoperable communications platform that will be more like a “living room.” According to Zuckerberg, “We’ve worked hard to build privacy into all our products, including those for public sharing. But one great property of messaging services is that, even as your contacts list grows, your individual threads and groups remain private. As your friends evolve over time, messaging services evolve gracefully and remain intimate.”

    This new Facebook promises to store data securely in the cloud, and delete messages after a set amount of time to reduce “the risk of your messages resurfacing and embarrassing you later.” (Apparently, Zuckerberg already uses this feature, as Tech Crunch reported, in April, 2018.) Its interoperability means, for example, that users will be able to buy something from Facebook Marketplace and communicate with the seller via WhatsApp; Zuckerberg says this will enable the buyer to avoid sharing a phone number with a stranger. Just last week, however, a user discovered that phone numbers provided for two-factor authentication on Facebook can be used to track people across the Facebook universe. Zuckerberg does not address how the new product will handle this feature, since “town square” Facebook will continue to exist.

    Once Facebook has merged all of its products, the company plans to build other products on top of it, including payment portals, banking services, and, not surprisingly, advertising. In an interview with Wired’s editor-in-chief, Nicholas Thompson, Zuckerberg explained that “What I’m trying to lay out is a privacy-focused vision for this kind of platform that starts with messaging and making that as secure as possible with end-to-end encryption, and then building all of the other kinds of private and intimate ways that you would want to interact—from calling, to groups, to stories, to payments, to different forms of commerce, to sharing location, to eventually having a more open-ended system to plug in different kinds of tools for providing the interaction with people in all the ways that you would want.”

    L’innovation vient maintenant de Chine, en voici une nouvelle mention

    If this sounds familiar, it is. Zuckerberg’s concept borrows liberally from WeChat, the multiverse Chinese social-networking platform, popularly known as China’s “app for everything.” WeChat’s billion monthly active users employ the app for texting, video conferencing, broadcasting, money transfers, paying fines, and making medical appointments. Privacy, however, is not one of its attributes. According to a 2015 article in Quartz, WeChat’s “heat map” feature alerts Chinese authorities to unusual crowds of people, which the government can then surveil.

    “I believe the future of communication will increasingly shift to private, encrypted services where people can be confident what they say to each other stays secure and their messages and content won’t stick around forever,” Zuckerberg tells us. “This is the future I hope we will help bring about.” By announcing it now, and framing it in terms of privacy, he appears to be addressing the concerns of both users and regulators, while failing to acknowledge that a consolidated Facebook will provide advertisers with an even richer and more easily accessed database of users than the site currently offers. As Wired reported in January, when the merger of Facebook’s apps was floated in the press, “the move will unlock huge quantities of user information that was previously locked away in silos.”

    Le chiffrage des messages est loin d’être une panacée pour la vie privée, ni pour la responsabilité sociale des individus.

    Zuckerberg also acknowledged that an encrypted Facebook may pose problems for law enforcement and intelligence services, but promised that the company would work with authorities to root out bad guys who “misuse it for truly terrible things like child exploitation, terrorism, and extortion.” It’s unclear how, with end-to-end encryption, it will be able to do this. Facebook’s private groups have already been used to incite genocide and other acts of violence, suppress voter turnout, and disseminate misinformation. Its pivot to privacy will not only give such activities more space to operate behind the relative shelter of a digital wall but will also relieve Facebook from the responsibility of policing them. Instead of more—and more exacting—content moderation, there will be less. Instead of removing bad actors from the service, the pivot to privacy will give them a safe harbor.

    #facebook #Cryptographie #Vie_privée #Médias_sociaux #Mark_Zuckerberg

  • Body politics: The old and new public health risks of networked health misinformation
    https://points.datasociety.net/body-politics-the-old-and-new-public-health-risks-of-networked-h

    There are clear parallels between the tactics used to spread health disinformation and political content. For instance, in 2018, researchers found that large networks of bots and trolls were spreading anti-vaccination rhetoric to sow confusion online and amplify the appearance of an anti-vaccination community. The anti-vaccination tweets often referenced conspiracy theories, and some accounts almost singularly focused on the U.S. government. As a result, real-life users and orchestrated networks of bots are engaged in a feedback loop. Recently, political public figures have used their platform to amplify vaccination misinformation, such as tweeting that measles can help fight cancer. There is a long history of people using influence to sway public opinion about vaccines—particularly among celebrities.

    These are symptoms of a larger societal crisis: disinformation campaigns aimed to undermine social institutions.

    The search and recommendation algorithms that underpin our information retrieval systems are other modern tools mediating access to health information. When a user enters an inquiry into a search engine, they receive curated results. As so many people rely on search engines for health information, they are another important mechanism that is susceptible to manipulation. For instance, the websites of some crisis pregnancy centers—which are designed to look and sound like those of clinics that provide abortion care, but instead give misleading information about the negative effects of abortion to visitors—are optimized results for Google searches often made by women seeking abortion information.

    Similarly, recommendation systems on popular social media platforms, particularly Facebook and YouTube, create easy entry points for problematic content. For example, a mother joining a generic parenting group on Facebook may subsequently receive recommendations for anti-vaxx groups. Bots, search engine optimization, and gaming of recommendation systems are foundational tools used by various actors to influence public health discourse and skew public debates — often blurring the line between medical mistrust and larger political ideologies and agendas.

    #Information_médicale #Santé_publique #Vaccination #Complotisme #Médias_sociaux #Algorithmes

  • Haine sur les réseaux sociaux : plutôt qu’une nouvelle loi, actionner le « levier de l’opinion » ? - LCI
    https://www.lci.fr/population/haine-sur-les-reseaux-sociaux-facebook-twitter-plutot-qu-une-nouvelle-loi-action

    Dans le débat qui entoure la violence en ligne, nombreuses sont les victimes de propos racistes ou sexistes, par exemple, qui dénoncent l’absence de modération et la difficulté à retrouver les auteurs de ces messages dans le cadre d’une plainte. Olivier Ertzscheid, professeur en sciences de l’information à l’université de Nantes, est d’accord avec ce constat : oui, il y a bien un problème avec la modération en ligne (face au flot d’injures antisémites impossibles à modérer, France 3 Alsace a dernièrement dû cesser la diffusion de son Facebook live en direct du cimetière juif de Quatzenheim). Il précise toutefois auprès de LCI : « Il faut malgré tout différencier Facebook - qui a recruté des gens pour faire de la modération - et Twitter - qui se repose encore sur une modération algorithmique ». Mais sur les moyens à mettre en oeuvre, cet enseignant se montre davantage sceptique.

    Menaces de sanctions financières

    « Éradiquer la quasi-totalité de tous les types de haine, antisémite, raciste, homophobe, sexiste… sur les réseaux sociaux, au regard de la démocratisation d’Internet, me paraît tout à fait impossible » explique-t-il. « Ce serait comme essayer d’éradiquer les discussions sur la place du village ou au café du commerce. »

    Selon lui, toute la difficulté réside dans le bénéfice que tirent les plates-formes de ce types de propos. « Les discours de haine sont minoritaires à l’échelle de la quantité de l’information sur le web, mais c’est une minorité visible. La prime est donnée à ces discours excessifs et radicaux qui génèrent le plus d’interactions. C’est ce qui nourrit le modèle économique des plates-formes. Leur posture, par rapport à ces discours, est donc très ambivalente. » Quant aux menaces de sanctions financières qui pourraient bientôt être inscrites dans la loi, notre professeur « n’y croit pas une seule seconde ». « Cela fait plus de dix ans qu’on menace ces plates-formes d’amendes. Cela ne fonctionne pas et ne fonctionnera pas plus maintenant. Par ailleurs, Facebook se moque d’une amende au regard des bénéfices qu’il engendre. »

    Le levier de l’opinion

    Quelle solution apporter alors si, du point de vue des spécialistes, une nouvelle loi n’aurait aucun caractère utile ? Olivier Ertzscheid ne voit qu’un levier, celui de l’opinion. « La seule chose qui peut amener la modération à être plus efficace, c’est ce que pensent les gens de leur service. Chaque fois qu’elles ont reculé - par exemple Facebook sur la vie privée - ce n’était pas à cause d’une potentielle amende mais parce qu’elle pouvait perdre des utilisateurs. » Il nuance toutefois son propos : « Il faut de la régulation, bien sûr. L’idée n’est pas de dire que les lois ne fonctionnent pas. Mais l’arsenal législatif qui existe déjà est suffisant. C’est simplement qu’il faut le faire appliquer. »

    #Olivier_Ertzscheid #Médias_sociaux

  • India Proposes Chinese-Style Internet Censorship - The New York Times
    https://www.nytimes.com/2019/02/14/technology/india-internet-censorship.html

    NEW DELHI — India’s government has proposed giving itself vast new powers to suppress internet content, igniting a heated battle with global technology giants and prompting comparisons to censorship in China.

    Under the proposed rules, Indian officials could demand that Facebook, Google, Twitter, TikTok and others remove posts or videos that they deem libelous, invasive of privacy, hateful or deceptive. Internet companies would also have to build automated screening tools to block Indians from seeing “unlawful information or content.” Another provision would weaken the privacy protections of messaging services like WhatsApp so that the authorities could trace messages back to their original senders.

    Hum, pas forcément très différent de l’Article 13... quand les Le Pen (équivalent français de Narandra Modi) seront au pouvoir... Pas simple tout ça. Et puis si la Chine n’est plus la seule a devenir le repoussoir universel, où va-t-on ?

    Working independently as well as through trade groups, Microsoft, Facebook and dozens of other tech companies are fighting back against the proposals. They criticized the rules as technically impractical and said they were a sharp departure from how the rest of the world regulates “data intermediaries,” a term for companies that host data provided by their customers and users.

    In most countries, including under India’s existing laws, such intermediaries are given a “safe harbor.” That means they are exempted from responsibility for illegal or inappropriate content posted on their services, as long as they remove it once notified by a court or another designated authority.

    In a filing with the ministry last week, Microsoft said that complying with India’s new standards would be “impossible from the process, legal and technology point of view.”

    Officials have offered little public explanation for the proposals, beyond a desire to curb the kind of false rumors about child kidnappers that spread on WhatsApp a year ago and that incited angry mobs to kill two dozen innocent people. That wave of violence has since subsided.

    The coming national election has added urgency to the proposals. India’s Election Commission, which administers national and state elections, is considering a ban on all social media content and ads aimed at influencing voters for the 48 hours before voting begins, according to an internal report obtained by the news media. To buttress its legal authority to order such a ban, the commission wrote to the I.T. ministry last week asking it to amend the new rules to specifically prohibit online content that violates election laws or commission orders.

    C’est comme si ça me rappelait quelque chose...

    Et puis, le Alibaba local est dans la boucle. Y’a que les européens qui n’ont pas champion local à opposer aux GAFAM.

    One of the biggest cheerleaders for the new rules was Reliance Jio, a fast-growing mobile phone company controlled by Mukesh Ambani, India’s richest industrialist. Mr. Ambani, an ally of Mr. Modi, has made no secret of his plans to turn Reliance Jio into an all-purpose information service that offers streaming video and music, messaging, money transfer, online shopping, and home broadband services.

    In a filing last week, Reliance Jio said the new rules were necessary to combat “miscreants” and urged the government to ignore free-speech protests. The company also said that encrypted messaging services like WhatsApp, “although perceivably beneficial to users, are detrimental to national interest and hence should not be allowed.”

    Entre les architectures toxiques des plateformes et la toxicité des lois liberticides, on est malbarre.

    #Inde #Censure #Médias_sociaux #Article_13

  • Lutter contre le réchauffement médiatique | Le Club de Mediapart
    https://blogs.mediapart.fr/dominique-g-boullier/blog/050219/lutter-contre-le-rechauffement-mediatique

    par Dominique Boullier

    La propagation rapide de contenus falsifiés, choquants ou illégaux, ne s’explique pas seulement par la vérité/fausseté intrinsèque de ces messages ni par les stratégies des diffuseurs patentés de ces infox. Les « machines à réplications » que sont devenues les plates-formes numériques jouent un rôle d’accélération qu’il faut prendre en compte. Comme une étude publiée dans Science (Vosoughi et al., 2018) l’a montré, les fake news se propagent d’autant mieux qu’elles ont un « score de nouveauté » élevé. Il existe une prime au choquant, au radicalement nouveau, aussi aberrant soit-il, qui va favoriser la captation de l’attention, un effet de « priming » (amorçage) dit-on en sciences cognitives qui fait « passer devant » tout type de signal présentant cette caractéristique. La nouveauté et certaines saillances sont les sources de la distraction et de l’interférence avec nos buts (Gazzaley and Rosen, 2016. Ce modèle est typique d’un régime d’attention que j’ai appelé « l’alerte » (Boullier, 201e4, 2016) qui pousse à être aux aguets en permanence au détriment de la fidélité à des habitudes ou de la projection dans un effort cognitif de longue durée. Les machines à réplications sont en effet totalement prises dans l’économie de l’attention qu’il vaudrait mieux appeler d’ailleurs désormais « la guerre de l’attention », tant l’offre est abondante et tous les coups permis. Cela n’invalide pas la traque des sites et comptes organisés pour la publication délibérée de fake news : durant la campagne électorale américaine de 2016, seulement 10 de ces comptes généraient la propagation de 65% des tweets de fake news (Hindman et Barash, 2018). Signalons cependant que cette approche ne permet pas de traiter le mécanisme amplificateur propre aux plates-formes.

    Alors qu’il fallait recopier un tweet dans un autre tweet auparavant, et donc prendre du temps, voire même en profiter pour placer un commentaire sur le tweet republié, il suffit désormais de réagir, de saisir au vol dans un tweet un indice, une « saillance » qui choque, qui marque et qui suffit à déclencher le retweet. Chacun des utilisateurs se fait ainsi complice de la surcharge cognitive générale, puisque tous ses contacts seront alertés. La viralité est le bon terme ici puisqu’il s’agit bien d’une intoxication mentale collective activée par chaque transmetteur et pourtant équipée et amplifiée par les plates-formes.

    Le choc émotionnel contribue à la viralité d’autant plus que les plates-formes facilitent la réplication systématique. Cependant, à un moment du cycle attentionnel de la crise, ce sont les messages de compassion, tout aussi émotionnels, qui vont reprendre le dessus et parmi eux, certains qui sont plus informatifs, qui aident à coordonner les secours, les aides et des informations pour les familles à distance par exemple. Or, rien dans les « affordances » des plates-formes n’empêche de cliquer vingt fois par jour sur des vidéos de frayeur qui se propageront à bien plus grande vitesse que les vidéos de recommandations qui rassurent. Les infrastructures mentales que sont les plates-formes deviennent ainsi des enjeux essentiels pour la gestion de crise et le climat attentionnel et informationnel. La mise en place d’un service de crise comportant notamment le « safety check » sur Facebook n’est qu’un début pour rendre effective la responsabilité des plates-formes en matière de communication. Ces réseaux deviennent en effet quasiment les référents spontanés, parfois même à la place des médias traditionnels et des services publics.

    N’oublions pas que cet « engagement » des membres du réseau est désormais encouragé dans les nouvelles versions de l’algorithme de Edge Rank. Cela permettra de valoriser toujours plus la transmission des données personnelles aux « partenaires » que sont les marques pour qu’elles placent leur publicité de façon toujours plus intrusive et fine dans le newsfeed personnel. La conséquence immédiate de ce réchauffement en est, pour filer la métaphore, « la fonte généralisée de la calotte d’esprit critique » qui refroidissait tout l’espace public. Cependant, Whatsapp, propriété de Facebook et mis en cause en Inde par les rumeurs diffusées en ligne et à l’origine de lynchages, va réduire l’effet de propagation de ses groupes en limitant le transfert de messages à 5 destinataires. Comme on le voit, divers acteurs commencent à envisager sérieusement que les architectures de réplications qu’ils ont eux-mêmes créées deviennent toxiques pour la vie publique, sans se contenter de rejeter la faute sur les utilisateurs irresponsables ou sur des émetteurs mal intentionnés. Parmi les choix d’architecture, celui qui a systématisé le principe des notifications n’est pas pour rien dans la réactivité qu’il suscite chez les utilisateurs de smartphones (mais aussi de PC) et dans l’encouragement à une multiactivité qui permet de ne rien rater (comme le veut le slogan Fear of Missing Out, peur de rater quelque chose). Les ressorts cognitifs de l’attention et de sa rareté sont certes individuels, les tendances lourdes à la vitesse et à la réputation sont certes culturelles, mais les dispositifs techniques amplifient les réplications à haute fréquence au détriment des autres régimes d’attention, puisqu’ils sont en concurrence.

    Tout l’espace public est affecté : publications, publicité, débat public et publications scientifiques

    Au-delà de la communication interpersonnelle, tous les régimes de publication sont affectés. L’espace public conçu avec les révolutions anglaise, américaine et française est désormais remis en cause, et les cyclones, les incendies et les inondations attentionnelles occupent entièrement notre « temps de cerveau disponible ». C’est vrai pour les médias traditionnels aussi, qui constituaient les régulateurs de ce climat, de cette « chambre intérieure collective » (Sloterdijk, 2003), de « l’esprit du temps ».

    Le débat public est lui aussi désormais totalement infesté par cette contrainte de la haute fréquence qui ne repose que sur la seule « petite phrase », déjà connue dans les anciens temps froids médiatiques (McLuhan, 1968). Cette petite phrase est amplifiée désormais par la viralité des tweets, dont Trump devient le centre de production à la chaine, le réacteur nucléaire qui irradie même toutes les traditions diplomatiques, pourtant fameuses pour leur lenteur. Quoi de mieux pour empêcher de débattre que de chasser un tweet choquant par un autre tweet insultant ou délirant ? Tous les followers, ces suiveurs (ni audience ni public) qui constituent une version numérique des rats ou des enfants du joueur de flute de Hamelin, se retrouvent sidérés et amplifient encore ces effets en republiant les tweets, que ce soit pour les soutenir, les critiquer ou les moquer. Ce réchauffement médiatique engendre une réactivité qui tue toute réflexivité. Or, tout l’espace public était supposé permettre de produire ce débat contradictoire argumenté qui, au bout du compte et idéalement, devait à la fois contribuer à la formation de l’opinion des citoyens et favoriser une meilleure décision, éclairée par les arguments.

    Pensons enfin à ce qu’est devenu le régime de publication scientifique qui a été au cœur de l’émergence des démocraties et du modernisme à la fois, ce débat institué entre pairs à travers la médiation des publications dans des revues. Désormais, le slogan « publish or perish » s’est imposé à toute l’économie cognitive collective et se traduit par une frénésie de la quantité, qui se traduit même dans l’inflation des citations ou dans la publication avant toute révision pour rester le premier sur une thématique. Ce stress généralisé est lui-même captée par quelques grands groupes éditoriaux qui ont mis en coupe réglée les bibliothèques publiques pour les obliger à payer des publications entièrement réalisées par leurs propres chercheurs sur des financements publics le plus souvent. L’Open Access tend cependant à contester cette hégémonie mais pourra-t-il contrecarrer cette autoréférence du nombre de publications que les institutions publiques de recherche elles-mêmes encouragent ? Le réchauffement médiatique gagne ainsi ceux qui devraient garder la tête froide et la priorité au temps long, les chercheurs eux-mêmes.

    Mais un « Fukushima des données personnelles » se profile à travers les fuites de données des grandes plates-formes comme Facebook mais aussi à travers une succession ininterrompue de hacks toujours plus fréquents et massifs. Ils peuvent désormais exploiter les failles de milliards d’objets connectés que l’on lance sur le marché sans inspection sérieuse et en toute irresponsabilité. Or, si la sécurité est autant délaissée sur le plan des investissements, c’est en particulier parce qu’elle exigerait un certain ralentissement de tout le réseau (on parle de secondes au maximum, cependant !). L’arbitrage entre sécurité et vitesse s’est toujours fait au profit de la vitesse, avantage perçu immédiatement par les clients-utilisateurs au détriment de la sécurité, dont la nécessité n’est perçue qu’après une catastrophe (et cela dans tous les domaines).

    N’oublions pas cependant que des armées de designers, d’analystes de données et de spécialistes de l’expérience utilisateur ont consacré des heures de conception et de tests pour s’assurer que les membres des réseaux sociaux resteraient toujours plus longtemps sur le réseau au point de ne plus le quitter (1 heure par jour en moyenne passée par les membres de Facebook en version mobile aux USA). Les affordances (Norman, 1988) et les nudges (Thaler et Sunstein, 2010) , toutes ces méthodes comportementales de suggestions rendues quasi incontournables grâce à leur design, sont alors conçus dans cet objectif de captation de l’attention. Il serait cependant possible d’exploiter les mêmes méthodes pour ralentir le rythme des applications et rendre perceptible l’amélioration apportée à l’expérience. Les revendications de liberté de choix dans les usages des réseaux sociaux ou de responsabilité individuelle sont légitimes mais pèsent peu face à des artifices de conception qui savent exploiter toutes les faiblesses de nos cerveaux et de nos passions et nous faire réagir sans vraiment prendre de décisions au sens délibératif.

    Ce qui vaut pour les publications élaborées (ou presque, car lorsqu’on duplique des contenus, l’effort est minime), doit aussi s’appliquer aux réactions les plus élémentaires installées dans les applications : un seul like par jour, un seul retweet par jour, une seule recommandation ou pouce en l’air sur un site de presse, etc. Tout cela réduirait considérablement la course aux scores qui est devenue une obsession du marketing comme des individus publiants. Et cela permettrait par la même occasion de tuer le business de l’astroturfing, des fermes à clic et des robots qui génèrent quasiment 8% des tweets, ce qui rend tous les scores « d’engagement » ou de « reach » totalement fantaisistes mais pourtant rassurants pour le marketing.

    La responsabilité des chaines d’information répétitives

    Revenons cependant sur les enjeux médiatiques de masse et sur les mesures qu’il est possible de prendre dans leur cas, car il serait simpliste de penser que les problèmes attentionnels ne sont dûs qu’aux réseaux sociaux. Les chaines d’information dite « continue » ont constitué d’une certaine façon la première alerte du réchauffement médiatique. La permanence n’est pas tant le problème que la répétition à laquelle elle contraint. Car les contenus ne sont pas suffisamment nouveaux pour justifier des alertes tous les quarts d’heure. Or, la fréquence des bulletins d’information exige un remplissage qui parfois se voit nettement, avec les images que l’on passe « en boucle », de même que les bandeaux d’information qui passent eux aussi « en boucle ». Cette figure de la boucle est délétère du point de vue de la réflexivité car elle entraine une sidération pour un message qui n’est plus nouveau ni d’ailleurs analysé : le cerveau humain se met « en boucle » lui-même et ressasse les images qui le captivent d’autant plus qu’elles sont spectaculaires, c’est-à-dire inédites ou choquantes (novelty and salience).

    #Médias_sociaux #Accélération #Culture_numérique

  • Les 3 niveaux de nos identités en ligne | InternetActu.net
    http://www.internetactu.net/a-lire-ailleurs/les-3-niveaux-de-nos-identites-en-ligne
    /assets/images/logo_ia.png

    Dans un graphique particulièrement parlant (à consulter en haute définition), la Fondation Panoptykon détaille les 3 couches d’information qui composent nos identités en ligne.

    La première couche d’information est la seule sur laquelle nous avons le contrôle. Elle se compose des données que nous insérons dans les médias sociaux ou les applications (informations de profil, publications, requêtes, photos, événements, déplacements…).

    La seconde couche est constituée d’observations comportementales et de métadonnées qui donnent un contexte à ces choix : position en temps réel, graphe de nos relations intimes et professionnelles, le temps que nous passons, les habitudes d’achat, les mouvements de nos souris ou de nos doigts…

    La troisième couche est composée des interprétations de la première et de la seconde couche. Nos données sont analysées et comparées en permanence à d’autres profils pour inférer des corrélations statistiques significatives… Ce qu’on appelle souvent la personnalisation, mais qui vise plus à nous catégoriser qu’à nous distinguer.

    Le problème est que si l’utilisateur contrôle la première couche, ce n’est pas le cas des deux autres. Or ces inférences permettent de déterminer beaucoup de nos comportements : profil psychométrique, QI, situation familiale, maladies, obsessions, engagements… Or, nombre de décisions contraignantes sont prises depuis ces interprétations et corrélations. Le problème est que le « double » numérique que le traitement de ces données produit ne nous est pas accessible… et que si nous y avions accès, nous pourrions ne pas nous y reconnaître. « Que diriez-vous si vous découvriez que votre « double de données » est malade ou émotionnellement instable, sans possibilité de crédit, ou plus simplement pas assez cool, et tout cela à cause de la façon dont vous faites vos requêtes en ligne ou de vos relations en ligne ? »

    #Identité_numérique #Traçage #Médias_sociaux

  • Réseau sociaux : la lente dérive du web d’après Caterina Fake
    https://www.ladn.eu/tech-a-suivre/reseau-sociaux-lente-derive-web-caterina-fake

    CATERINA FAKE : Quand nous avons construit Flickr, la notion de communauté était importante. L’idée que les utilisateurs devaient contribuer et participer pour faire partie d’une communauté était vraiment une manière nouvelle de penser. On l’a oublié, mais ces services étaient souvent monétisés par des abonnements. Flickr, par exemple, faisait payer ses utilisateurs à partir d’un certain nombre de photos partagées. On est passé de ce système de communauté en ligne à un modèle de médias sociaux faussement gratuit. Plus qu’une évolution, il s’agit d’une dérive qui consiste à vendre à des publicitaires ou des gouvernements, les utilisateurs, leurs données et leur profil psychologique comme une simple marchandise. Même leurs opinions politiques et leur vote sont à vendre au plus offrant comme on a pu le voir avec le scandale Cambridge Analytica.

    On a vu disparaître l’esprit communautaire des débuts du Net au profit de la montée des discours de haine. Comment l’expliquez vous ?

    C. F. : Le point de vue libertarien qui a dominé la fabrication de ces plateformes a fortement joué dans la montée du trolling. Au lieu d’assumer leur responsabilité, les entrepreneurs ont préféré prétendre qu’ils n’étaient pas coupables du comportement de leurs utilisateurs. En réalité, ils ne managent pas leur audience parce qu’ils se voient comme des médias sociaux et non pas comme des communautés en ligne. Ce choix est programmé. On peut prendre au pied de la lettre ce que disait Lawrence Lessig - un juriste américain fondateur des Creative Commons : « Le code est la loi ». La loi, comme le code, crée la manière dont les gens interagissent les uns avec les autres. L’ancien responsable de la communauté de Flickr disait une chose très juste : « Ce que vous tolérez indique ce que vous êtes vraiment ». Donc si votre code tolère le sexisme, vous êtes une plateforme sexiste. Si votre code tolère les suprématistes blancs, vous êtes une plateforme qui soutient le suprématisme blanc.

    #Médias_sociaux #Economie_attention

  • affordance.info : Bienvenue dans le World Wide Fake
    https://www.affordance.info/mon_weblog/2019/01/bienvenue-dans-le-world-wide-fake.html

    par Olivier Ertzscheid

    Nous sommes aujourd’hui à l’étape d’après.

    Celle du World Wide Fake. Un environnement, un écosystème dont l’essentiel des interactions sont artificiellement fabriquées sur la base d’une spéculation qui n’a d’autre but que de s’entretenir elle-même. Issue d’une forme de capitalisme linguistique se déclinant en un capitalisme de surveillance, cette spéculation avait initialement pour but de nous maintenir le plus attentionnellement captifs possible, nous rappelant sans cesse qu’il fallait interagir, notamment par le biais de ces contremaîtres cognitifs que sont les notifications.

    Mais aujourd’hui le « faux » se déploie au sein des architectures techniques toxiques de plateformes prédatrices qui ont presque totalement phagocyté tout ce qui fut l’espace public du web, et contraint nos usages à prendre place dans ces espaces privés et privatifs. Et cela change tout.

    Car il n’y a pas que les nouvelles qui sont fausses. Aujourd’hui « de faux internautes avec de faux cookies et de faux comptes sur des réseaux sociaux, effectuent de faux mouvements de souris, activent de faux clics vers de faux sites web (....), créant un simulacre d’internet dans lequel la seule chose encore réelle ce sont les publicités » écrit Max Read dans un papier pour le New York Magazine. Ces mêmes publicités qui font que « nous créons une dystopie juste pour pousse les gens à cliquer dessus » comme l’expliquait déjà l’année dernière la chercheuse Zeynep Tufekci.

    Hannah Arendt est morte en 1975 et n’a donc jamais connu internet. Dans un entretien de 1974 sur la question du totalitarisme elle écrivait ceci :

    « Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges, mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire un opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple vous pouvez faire ce qu’il vous plaît. »

    C’est très exactement cela, le risque et la promesse du World Wide Fake si nous n’y faisons rien : la conjugaison d’un emballement spéculatif autour d’une industrie publicitaire de la falsification et de l’altération et l’annonce d’un effondrement de notre capacité collective à faire société dans un espace public commun. Et à la fin, « avec un tel peuple, vous pouvez faire ce qu’il vous plaît. »

    #Fake_news #Web #Médias_sociaux