• Celebrity Culture: Why Fame Is Big Business

    What I argue in my book is that celebrity culture is the constant negotiation between media — and that can be producers, it can be journalists, it can be radio interviews, it can be photographers and celebrities themselves — and the public. No one group controls the narrative. No one group controls the outcome. That’s part of the reason we’re so engaged. We don’t know how it’s going to turn out.

    A lot of what we see today owes its roots to the 1980s and 1990s, when anybody could get a relatively cheap video camera and take videos of themselves, but there was no way to distribute them to a large number of people. That’s what phones have allowed. What we see today is that celebrities can have much more direct contact with their publics without having to deal with gatekeepers like heritage newspapers. It used to be both the public and celebrities were really limited by a smaller number of gatekeepers, and they’re gone. Now, the problem we have is that it’s hard to know in the public how to find anything that interests us, right? As a celebrity, anybody can have a Twitter account or a YouTube channel, but how are you going to make sure that people come to it?

    Knowledge@Wharton: But isn’t the public the conduit in that process?

    Marcus: That is an interesting way to think about it. We’re used to thinking of the media as the conduit, but I would agree with your way of putting it. It is, in fact, the public that’s the conduit. Because what I also saw by taking this long, historical view is that although we think of the media as making decisions and being in control of who is in the public eye, the media is very responsive to what interests the public. The media is always trying to figure out, “What do people care about?”

    Sometimes that’s guesswork. Sometimes it’s based on word of mouth. It feels to me like these days the newspapers are following social media more than the other way around. If something blows up on social media, it becomes a news story.

    Knowledge@Wharton: You also talk about the social component when a celebrity is well-known, such as boxer Muhammad Ali. In the 1960s, he was an activist, and that drew a lot of positive and negative attention to his fame.

    Marcus: Social and political. I’ll talk about Muhammad Ali in a second, but look again at Taylor Swift. When we talk about the #MeToo movement, I think a lot of us forget that right before the big story broke with Harvey Weinstein, Taylor Swift was in the news because she sued a photographer who groped her. She sued him for a penny because she was making a point that this wasn’t about money. It was about it not being OK. She was extremely articulate on the stand. Many celebrities have real aplomb dealing with the public. They’re able to improvise. They’re able to be spontaneous but also come off being very calm and collected, which is what you need to do if you’re in the courtroom. And she won. She raised a lot of attention to the ways that even the most famous, supposedly powerful young women are being exploited and mistreated. I think that that was a crucial example of a celebrity using their media presence and influence for a social and political purpose.

    Muhammad Ali, as an African American boxer in the 1960s, raised awareness about civil rights, about the Vietnam War. He refused to serve in the Vietnam War well before there was a massive protest movement against the Vietnam War. As a result, he was put in jail during what would have been the height of his boxing career. I think all of that was a great example of how many celebrities go against the grain. They take unpopular positions that then become the norm in many ways.

    #Célébrités #Médias_sociaux #Culture_populaire #Médias

  • Teen video app TikTok is the latest battlefield in the Kashmir conflict - MIT Technology Review

    Kovind’s move delivered on a promise from India’s general elections in May, in which Narendra Modi of the Hindu nationalist Bharatiya Janata Party, or BJP, was elected prime minister (constitutional orders like this one can only be carried out by the appointed president). But it’s having unintended consequences. Outside Kashmir, social media has been buzzing about Article 370, and Google searches for terms like “kashmir girl,” kashmiri girl,” and “kashmiri girl pic” have spiked.

    It’s not that Article 370 banned non-Kashmiris or Hindus from marrying Kashmiris, who are predominantly Muslim. But it did make it impossible for the children of such marriages to inherit land—an effort to preserve Kashmiri autonomy in the region. Without Article 370, anyone can own land there.

    That’s where the search term “Kashmiri girls” comes in. Its use began to climb on July 28, as tensions began brewing between the Indian and Kashmiri governments. By the time communication was shut down in the region, it was spiking on Google Trends.

    Why? Hindu nationalists are using the term to suggest that since the law does not inhibit Indians from owning land in the region, it would be possible for men to marry Kashmiri girls and women—perhaps even against their will (unfortunately not unheard-of in some localities)—and become landowners. The endgame appears to be to turn the majority-Muslim region majority-Hindu.

    And it’s a surprisingly widespread phenomenon. Declarations of intent to marry Kashmiri women to “reclaim” the disputed region are popping up across a variety of social platforms, from Facebook to Twitter to the fast-growing TikTok, which as of April had around 120 million active users in India. Huffington Post India chronicled one user’s videos since the end of Article 370. They show him and some friends planning to go to Kashmir, “since I am not getting women in Delhi.”

    The comments show both the misogyny and the racism in how the situation is playing out on social media. The mentality recalls that seen in the sometimes violent, largely online group of people in the US who identify as “incels”: They can’t get women in India, so why not lay claim to light-skinned women, plus land and religious superiority in the bargain?

    It’s the latest episode in what’s been a bumpy ride since TikTok, then known as Musical.ly, first launched in India a little less than a year ago. At first, it got traction among users who liked to lip-synch to Bollywood tunes. But in early April, just a few weeks before the election, TikTok was banned after a court ruled it contained “pornographic” content and exposed children to sexual predators. The company responded by removing videos. By April 18, the Supreme Court of India had ordered the ban removed from Apple’s App Store and Google’s Play Store.

    What ultimately is making TikTok so attractive for disseminating hate, then, is exactly what makes users love it in the first place: an easy interface, short-video capabilities, and a platform on which all ideas can spread like wildfire.

    #TikTok #Cachemire #Médias_sociaux

  • How Social Media Is Helping Survivors of Hurricane Dorian in the Bahamas | The New Yorker

    Smith has changed the link on her Instagram profile to a listing of approved Dorian aid groups, which includes a Bahamian nonprofit called the HeadKnowles Foundation. The organization was originally founded by Lia Head-Rigby and Gina Knowles as a Facebook group that resembled Angie’s List, where members posted recommendations for goods and service providers in the Bahamas such as caterers or masons. Eventually, HeadKnowles grew into a large network of small-business owners throughout the Bahamas. In 2015, after Hurricane Joaquin hit the country, the organization began collecting financial donations through crowdfunding and received so many supplies that they took over a furniture warehouse for a month.

    “We had an assembly line organizing things into boxes; we had people weighing so that we would know which plane is coming,” Rhondi Treco, the thirty-eight-year-old associate director of HeadKnowles, said in a phone interview this week, where she sounded exhausted, and, at times, was on the brink of tears. “We would have people donate planes.” Treco told me that someone donated a DC-8 jet, an aircraft that can hold about a hundred thousand pounds worth of relief supplies.

    With government officials and aid groups struggling to respond to massive storms, hurricane victims are turning to social media. During and after Hurricane Irma, in 2017, Facebook was instrumental in search-and-rescue efforts in St. Maarten, where people posted urgent requests for generators, water, and diapers. Patrick A. Scannell, a doctor and health scientist in St. Maarten, founded a group called Hurricane Disaster Contact & Aid - SXM, where people posted both missing-persons reports and calls for donations. The group received so many postings that it created a separate “Make St. Maarten Great Again (Donation)” page. “We decided pretty early along that those two purposes in that one group was getting in the way of rescuing missing people, so we decided to split it into two different groups,” Scannell told me in a telephone interview.

    He said that he was amazed by how effective Facebook could be in the immediate aftermath of a natural disaster. After the 2015 earthquakes in Nepal, he said, people used Facebook messenger to coördinate searches for loved ones who were potentially buried in the rubble. After Irma hit St. Maarten, he created Facebook albums that organized missing people by neighborhood. Since Dorian made landfall, a Facebook group called Dorian People Search Bahamas, accumulated nearly thirteen thousand members. A member posted a plea for information about whether a family in Abaco had survived the storm, naming each member. “Please say if you have seen them,” the person wrote. “Praying for their safety and the safety of all people trapped in this nightmare.” Twenty minutes later, another user replied, writing, “I saw Norma she is fine. I have heard Donnie is accounted for and alive.” Hundreds of similar threads appeared on Facebook.

    Kimberly Mullings, a broadcast journalist living in Freeport, said that she used Twitter to guide search-and-rescue missions. “I was most useful inside, reading Twitter and then coördinating people outside on Jet Skis,” she said. So much debris filled the flood waters that only personal watercraft were small and agile enough to conduct rescues. “You couldn’t fight Category 5 winds,” Shawn Gabrielle Gomez, a twenty-five-year-old journalist and content producer at a Bahamian agency called Social Light Media, told me. “When the storm downgraded, that was the only chance.” Gomez, who has a large social-media following, worked with Mullings and retweeted rescue requests from survivors. She told me that in the Bahamas, Twitter is not used as much as Instagram and Facebook, but it proved vital after the storm. “I do social-media management, and I never thought in a million years we would use Twitter to save lives,” Gomez said.

    #Médias_sociaux #Désastres #Urgence

  • It’s the (Democracy-Poisoning) Golden Age of Free Speech | WIRED

    Par Zeynep Tufekci

    In today’s networked environment, when anyone can broadcast live or post their thoughts to a social network, it would seem that censorship ought to be impossible. This should be the golden age of free speech.

    And sure, it is a golden age of free speech—if you can believe your lying eyes. Is that footage you’re watching real? Was it really filmed where and when it says it was? Is it being shared by alt-right trolls or a swarm of Russian bots? Was it maybe even generated with the help of artificial intelligence? (Yes, there are systems that can create increasingly convincing fake videos.)

    Or let’s say you were the one who posted that video. If so, is anyone even watching it? Or has it been lost in a sea of posts from hundreds of millions of content pro­ducers? Does it play well with Facebook’s algorithm? Is YouTube recommending it?

    Maybe you’re lucky and you’ve hit a jackpot in today’s algorithmic public sphere: an audience that either loves you or hates you. Is your post racking up the likes and shares? Or is it raking in a different kind of “engagement”: Have you received thousands of messages, mentions, notifications, and emails threatening and mocking you? Have you been doxed for your trouble? Have invisible, angry hordes ordered 100 pizzas to your house? Did they call in a SWAT team—men in black arriving, guns drawn, in the middle of dinner?

    These companies—which love to hold themselves up as monuments of free expression—have attained a scale unlike anything the world has ever seen; they’ve come to dominate media distribution, and they increasingly stand in for the public sphere itself. But at their core, their business is mundane: They’re ad brokers. To virtually anyone who wants to pay them, they sell the capacity to precisely target our eyeballs. They use massive surveillance of our behavior, online and off, to generate increasingly accurate, automated predictions of what advertisements we are most susceptible to and what content will keep us clicking, tapping, and scrolling down a bottomless feed.

    So what does this algorithmic public sphere tend to feed us? In tech parlance, Facebook and YouTube are “optimized for engagement,” which their defenders will tell you means that they’re just giving us what we want. But there’s nothing natural or inevitable about the specific ways that Facebook and YouTube corral our attention. The patterns, by now, are well known. As Buzzfeed famously reported in November 2016, “top fake election news stories generated more total engagement on Facebook than top election stories from 19 major news outlets combined.”

    For Facebook, YouTube, and Twitter, all speech —whether it’s a breaking news story, a saccharine animal video, an anti-Semitic meme, or a clever advertisement for razors— is but “content,” each post just another slice of pie on the carousel. A personal post looks almost the same as an ad, which looks very similar to a New York Times article, which has much the same visual feel as a fake newspaper created in an afternoon.

    What’s more, all this online speech is no longer public in any traditional sense. Sure, Facebook and Twitter sometimes feel like places where masses of people experience things together simultaneously. But in reality, posts are targeted and delivered privately, screen by screen by screen. Today’s phantom public sphere has been fragmented and submerged into billions of individual capillaries. Yes, mass discourse has become far easier for everyone to participate in—but it has simultaneously become a set of private conversations happening behind your back. Behind everyone’s backs.

    The most effective forms of censorship today involve meddling with trust and attention, not muzzling speech itself. As a result, they don’t look much like the old forms of censorship at all. They look like viral or coordinated harassment campaigns, which harness the dynamics of viral outrage to impose an unbearable and disproportionate cost on the act of speaking out. They look like epidemics of disinformation, meant to undercut the credibility of valid information sources. They look like bot-fueled campaigns of trolling and distraction, or piecemeal leaks of hacked materials, meant to swamp the attention of traditional media.

    This idea that more speech—more participation, more connection—constitutes the highest, most unalloyed good is a common refrain in the tech industry. But a historian would recognize this belief as a fallacy on its face. Connectivity is not a pony. Facebook doesn’t just connect democracy-­loving Egyptian dissidents and fans of the videogame Civilization; it brings together white supremacists, who can now assemble far more effectively. It helps connect the efforts of radical Buddhist monks in Myanmar, who now have much more potent tools for spreading incitement to ethnic cleansing—fueling the fastest- growing refugee crisis in the world.

    The freedom of speech is an important democratic value, but it’s not the only one. In the liberal tradition, free speech is usually understood as a vehicle—a necessary condition for achieving certain other societal ideals: for creating a knowledgeable public; for engendering healthy, rational, and informed debate; for holding powerful people and institutions accountable; for keeping communities lively and vibrant. What we are seeing now is that when free speech is treated as an end and not a means, it is all too possible to thwart and distort everything it is supposed to deliver.

    By this point, we’ve already seen enough to recognize that the core business model underlying the Big Tech platforms—harvesting attention with a massive surveillance infrastructure to allow for targeted, mostly automated advertising at very large scale—is far too compatible with authoritarianism, propaganda, misinformation, and polarization.

    #Zeynep_Tufekci #Médias_sociaux #Liberté_expression #Espace_public #Désinformation #Attention

  • Decathlon, à fond la street | StreetPress

    « Ça représente le quartier, c’est nos valeurs. Que je perce ou pas, je vais continuer à porter ça », balance Stavo, membre de 13 Block, groupe de rap phénomène. Dans un de leurs morceaux, Zidane, ils rappent « Toujours en Quechua, taille M Quechua, taille M Kipsta ». La phrase est instantanément devenue un mème sur les réseaux sociaux. JUL, SCH, RK, Koba la D, Nihno, PLK, Sofiane, 4Keus, Naps, Zola et bien d’autres stars du rap citent régulièrement les marques du groupe Decathlon. « C’est incroyable le nombre de ref qu’on a », commente Yann Amiry, à la fois amusé et impressionné. Depuis 2 ans, il co-gère la stratégie réseaux sociaux des différentes filiales du magasin. Et sur Twitter, il est devenu une petite célébrité, à force de répondre aux rappeurs, mais aussi pour avoir géré la polémique autour du hijab de running du magasin. Résultat : le nombre d’abonnés de certains comptes Twitter de l’entreprise a bondi de 20 à 30%. S’y ajoute un capital sympathie énorme.

    « Depuis petit, on est accrochés à cette marque », explique Stavo, 25 ans, par téléphone. Le rappeur de Sevran raconte qu’enfant il avait la panoplie Kipsta pour le foot, et les vêtements Quechua pour le reste du temps. « C’est pas cher et de bonne qualité. On n’avait pas d’argent pour du Nike. Imagine, en hiver, avec 20 euros dans la poche, tu peux acheter des vêtements de randonneur et ne pas avoir froid. » Aujourd’hui, il a toute une collection de lunettes et de vestes de la marque. Récemment, il a interpellé Decathlon sur les réseaux sociaux pour réclamer un survet Quechua, « haut et bas. Faut penser aux mecs des quartiers maintenant ».

    #CM #médias_sociaux #quartiers_populaires cc @baroug

  • Man Who Built The Retweet : “We Handed A Loaded Weapon To 4-Year-Olds”

    Developer Chris Wetherell built Twitter’s retweet button. And he regrets what he did to this day.

    “We might have just handed a 4-year-old a loaded weapon,” Wetherell recalled thinking as he watched the first Twitter mob use the tool he created. “That’s what I think we actually did.”

    Wetherell, a veteran tech developer, led the Twitter team that built the retweet button in 2009. The button is now a fundamental feature of the platform, and has been for a decade — to the point of innocuousness. But as Wetherell, now cofounder of a yet-unannounced startup, made clear in a candid interview, it’s time to fix it. Because social media is broken. And the retweet is a big reason why.

    After the retweet button debuted, Wetherell was struck by how effectively it spread information. “It did a lot of what it was designed to do,” he said. “It had a force multiplier that other things didn’t have.”

    “We would talk about earthquakes,” Wetherell said. “We talked about these first response situations that were always a positive and showed where humanity was in its best light.”

    But the button also changed Twitter in a way Wetherell and his colleagues didn’t anticipate. Copying and pasting made people look at what they shared, and think about it, at least for a moment. When the retweet button debuted, that friction diminished. Impulse superseded the at-least-minimal degree of thoughtfulness once baked into sharing. Before the retweet, Twitter was largely a convivial place. After, all hell broke loose — and spread.

    In the early 2010s, Facebook’s leadership was looking for ways to drive up engagement. Having previously failed to acquire Twitter, they looked to its product for inspiration.

    The allure of going viral via the retweet had drawn publications, journalists, and politicians to Twitter en masse. And their presence shined most prominently during the 2012 election, a big moment for Twitter and a relative dud for Facebook. So Facebook, in a now all too familiar move copied Twitter, adding a trending column, hashtags, and a retweet clone.

    In 2014, Wetherell realized the retweet button was going to be a major problem when the phrase “ethics in game journalism” started pouring into a saved search for “journalism” he had on Twitter. The phrase was a rallying cry for Gamergate — a harassment campaign against women in the game industry — and Wetherell, after seeing that first batch of tweets, watched it closely.

    As Gamergate unfolded, Wetherell noticed its participants were using the retweet to “brigade,” or coordinate their attacks against their targets, disseminating misinformation and outrage at a pace that made it difficult to fight back. The retweet button propelled Gamergate, according to an analysis by the technologist and blogger Andy Baio. In his study of 316,669 Gamergate tweets sent over 72 hours, 217,384 were retweets, or about 69%.

    The game took another dark turn during the 2016 presidential campaign, when impulse-sparked sharing caused outrage and disinformation to flourish on both Twitter and Facebook. It’s one thing to copy and paste a link that says Hillary Clinton is running a pedophile ring in the basement of a pizza shop — and share it under your own name. It’s another to see someone else post it, remember that you don’t like Hillary Clinton, and impulsively hit the share or retweet button.

    “We have some evidence that people who are more likely to stop and think are better at telling true from false,” David Rand, an associate professor at MIT who studies misinformation, told BuzzFeed News. “Even for stuff that they are motivated to believe, people who stop and think more are less likely to believe the false stuff.”

    The benefits of creating such content accrued disproportionately to the fringe. When someone retweets something, they’re sharing the content with their followers, but also sending a signal to the person they’re amplifying, said Anil Dash, a blogger and tech entrepreneur. The more fringe the original tweeter, the more valuable the retweet.

    “If I retweet the New York Times, they don’t care,” Dash said. “But extreme content comes from people who are trying to be voices, who are trying to be influential in culture, and so it has meaning to them, and so it earns me status with them.”

    The pursuit of that status has driven many Twitter users to write outrageous tweets in the hope of being retweeted by fringe power users. And when they do get retweeted, it sometimes lends a certain credibility to their radical positions.

    The retweet and share, in other words, incentivize extreme, polarizing, and outrage-inducing content.

    A full rollback of the share and retweet buttons is unrealistic, and Wetherell doesn’t believe it’s a good idea. Were these buttons universally disabled, he said, people could pay users with large audiences to get their message out, giving them disproportionate power.
    "Oh no, we put power into the hands of people.”

    To rein in the excesses of the retweet, Wetherell suggested the social media companies turn their attention toward audiences. When thousands of people retweet or share the same tweet or post, they become part of an audience. A platform could revoke or suspend the retweet ability from audiences that regularly amplify awful posts, said Wetherell. “Curation of individuals is way too hard, as YouTube could attest,” Wetherell said. “But curation of audiences is a lot easier.”

    Another solution might be to limit on the number of times a tweet can be retweeted. Facebook is experimenting with an approach of this nature, although not in its main product. Earlier this year, WhatsApp, which is owned by Facebook, limited the number of people to which a message could be forwarded to five at a time, in response to quick-spreading rumors and disinformation. “The forward limit significantly reduced forwarded messages around the world,” WhatsApp said in a blog post. “We’ll continue to listen to user feedback about their experience, and over time, look for new ways of addressing viral content.”

    MIT’s Rand suggested another idea: preventing people from retweeting an article if they haven’t clicked on the link. “That could make people slow down,” he said. “But even more than that, it could make people realize the problematic nature of sharing content without having actually read it.”

    Whatever the solution, Wetherell looks at the retweet very differently than he once did — a lesson that he thinks has broader implications. “I remember specifically one day thinking of that phrase: We put power in the hands of people,” he said. “But now, what if you just say it slightly differently: Oh no, we put power into the hands of people.”

    #Twitter #Retweet #Médias_sociaux #Viralité #Fake_news #Cyberharcèlement

  • Opinion | ‘This Is Quite Gay!’ - The New York Times

    On the quiet, promising first morning of June, I received a text message from my brother in Abuja, Nigeria. “Please, refrain from all these shameful acts,” he wrote. “Everyone is tired of you. Mummy is crying, Daddy is crying. If you don’t value relationships, we do!”

    My brother had written after I had posted a picture on Facebook that showed me hugging a male friend. A mixture of anger, sadness and fatigue erupted in my body. “Block me if you are tired of my shameful acts,” I replied. “I won’t be the first or last person to be rejected by his family.”

    I had the audacity to start a queer publication in Nigeria and was disowned by my country as a gay man, writer and activist. After a vicious homophobic attack in Akwanga, my hometown in central Nigeria, I moved to the United States and sought asylum here in the summer of 2018.

    In a certain public rendering I could come across as a brave activist. But I have lived with intense private pain and discomfort after homophobic shaming from people like my own brother.

    Social media can be a delightful way to connect with loved ones far away, but for me it has also become a space where my own family and friends have turned into censors, distorting my life, denigrating my being gay from thousands of miles away.

    Yet when I am about to post my pictures on social media, I examine them through the searching eyes of my staunchly evangelical Christian parents, through the prying eyes of my childhood friends who still remember me as the boy who would recite chapters of the Bible. I swipe through my pictures. “This is very gay!” “This is super gay!” “This is quite gay!” I judge my own images and delete the pictures. I am my own censor.

    #Médias_sociaux #Homosexualité #Afrique #Cyberharcèlement

  • Haine en ligne : ce que contient la proposition de loi examinée par l’Assemblée

    Il y a des bonnes choses dans cette loi. Dommage que les requêtes de la société civile n’aient pas été entendues : mieux définir la cible (la crainte est de voir le système détourné pour briser toute opposition) ; renforcer la place du judiciaire sur l’administratif ; réprimer les interdictions « préventives » (de contenus qui ne sont pas manifestement illégaux) ; garantir des conditions de travail correctes pour les personnes chargées de la régulation des contenu (un point très important, qui est complètement passé sous silence).

    Mais dans tous les cas, c’est le modèle économique des médias sociaux qu’il faut repenser, car il incite à la montée aux extrêmes.

    Quels contenus pourront être signalés ?

    On ne pourra pas signaler n’importe quel message. Le texte définit une liste précise de contenus interdits par divers articles de la loi française pour lesquels ce délai de vingt-quatre heures s’appliquera.

    Il s’agit :

    – des messages incitant à commettre des actes terroristes ;

    – des messages faisant l’apologie du terrorisme, des crimes de guerre ou des crimes contre l’humanité ;

    – des messages injurieux, incitant à haïr, à discriminer ou à commettre des violences sur des personnes en fonction de leur sexe, de leur orientation sexuelle, de leur identité de genre, de leur handicap, de leur ethnie, de leur nationalité, de leur « race » ou de leur religion ;

    – des messages constitutifs de harcèlement sexuel ;

    – des messages relevant du proxénétisme ou de la traite des êtres humains ;

    – des contenus pédopornographiques ;

    – des messages violents, pornographiques, portant gravement atteinte à la dignité humaine ou incitant des mineurs à se livrer à des jeux les mettant physiquement en danger susceptibles d’être vus par des mineurs.

    Ainsi, les insultes visant les personnes noires ou juives tombent sous le coup de la loi. Ce qui n’est pas le cas d’insultes simples (« casse-toi, pauvre con ») ou d’appels à la violence contre, comme l’auraient souhaité certains députés, les agriculteurs. Cela ne signifie pas que ces contenus sont légaux ou qu’ils sont nécessairement acceptés par les réseaux sociaux, mais simplement que le dispositif de la nouvelle loi ne s’y applique pas.

    Par ailleurs, il faut que le message signalé soit « manifestement illicite », c’est-à-dire qu’il n’y ait aucun doute possible sur son caractère illégal. Le gouvernement et la majorité assument parfaitement de ne pas viser tous les messages problématiques ou illégaux, mais simplement les pires. Certains députés craignent tout de même un risque de surcensure, car il est très difficile de distinguer ce qui est manifestement illicite ou non. Même pour un juge : la Cour de cassation a par exemple estimé que dire « l’homosexualité est une abomination » n’était pas une incitation directe à la violence en raison de son orientation sexuelle…

    Qui peut signaler ?

    N’importe quel internaute trouvant un contenu « manifestement illicite » pourra le signaler. Il lui suffira de fournir son nom, son prénom et son adresse e-mail (sauf si le réseau social sur lequel il est inscrit dispose de ces informations, auquel cas il ne doit rien fournir de plus) et les raisons pour lesquelles il demande le retrait de ce contenu. Signaler des contenus de mauvaise foi, en sachant qu’ils ne sont pas manifestement illicites, sera passible d’un an d’emprisonnement et de 15 000 euros d’amende.

    Les obligations des plates-formes numériques

    Le CSA ne va pas sanctionner un réseau social dès que ce dernier ne supprime pas, à tort, un contenu. Il va plutôt s’assurer que réseaux sociaux et moteurs de recherche respectent de grands principes et obligations généraux. Certaines obligations, évoquées plus tôt, concernent les informations données aux utilisateurs qui signalent des contenus ou sont les auteurs des contenus signalés.

    Réseaux sociaux et moteurs de recherche devront aussi proposer un dispositif de signalement « directement accessible et uniforme » : cela pourra être inséré dans les formulaires de signalement de contenus qui existent déjà chez tous les réseaux sociaux.

    Ils devront aussi mettre en œuvre des procédures, des moyens humains et/ou technologiques pour traiter correctement les demandes : à la fois pour se conformer au délai de vingt-quatre heures pour les contenus haineux mais aussi pour éviter tout retrait abusif. A noter que s’ils encourent une forte amende, voire de la prison, pour ne pas avoir supprimé un contenu, ils n’encourent rien sur le front pénal pour avoir supprimé à tort.

    Elles devront également désigner un représentant légal physique et formuler « en termes précis, aisément compréhensibles, objectifs et non discriminatoires » les règles qui définissent ce que les utilisateurs ont le droit, ou non, de poster sur leurs réseaux. Enfin, elles devront coopérer entre elles pour mieux lutter contre les contenus haineux, sans que cette coopération soit précisément définie par la loi.

    Bloquer les contenus déjà jugés

    Si un contenu haineux a été jugé par la justice comme étant illégal, alors l’autorité administrative (par exemple la police) pourra demander à l’hébergeur de supprimer et/ou de déréférencer ce contenu, voire aux fournisseurs d’accès à Internet de bloquer tout un site Internet, sans passer de nouveau par la case justice. Cette disposition est clairement inspirée par la décision de blocage prise à l’endroit du site Démocratie participative, qui est rapidement revenu en ligne sous une autre adresse que celle qui avait été bloquée.

    Enfin, un « observatoire de la haine en ligne » regroupant entreprises du numérique, associations et chercheurs pour observer le phénomène des messages haineux sur Internet, sera créé. Chaque année, le gouvernement présentera un rapport sur la manière dont fonctionne cette nouvelle loi.

    #Loi_Avia #Médias_sociaux

  • The Underworld of Online Content Moderation | The New Yorker

    More than one hundred thousand people work as online content moderators, viewing and evaluating the most violent, disturbing, and exploitative content on social media. In a new book, “Behind the Screen,” Sarah T. Roberts, a professor of information studies at U.C.L.A., describes how this work shapes their professional and personal lives. Roberts, who conducted interviews with current and former content moderators, found that many work in Silicon Valley, but she also travelled as far as the Philippines, where some of the work has been outsourced. From her research, we learn about the emotional toll, low wages, and poor working conditions of most content moderation. Roberts never disputes that the work is crucial, but raises the question of how highly companies like Facebook and Google actually value it.

    I recently spoke by phone with Roberts. During our conversation, which has been edited for length and clarity, we discussed why finding and deleting offensive content is so tricky, why the job is so psychologically taxing, and the fixes that could help these workers and make them better at their jobs.

    The example I’ll give there is blackface. One person that I talked with said time and again he would see these videos that were filled with blackface, and he would go and argue with his supervisor, saying, “This is racist, we supposedly don’t allow racist or hate speech on our platform,” and he could get no traction. So the policies that were in place almost parodied themselves. They were so specific on the one hand and totally missing the forest for the trees on the other that you really had to embed yourself into the logic of the particular platform, and of course every platform has its own set of policies that it makes up.

    I think they cared enough that they had an entire apparatus devoted to the creating and designing and thinking through their policies, but what became clear to me through the course of this work was that the primary function of people doing commercial content moderation at these platforms was for brand management of the social-media platform itself. There would be a great side-benefit of keeping some bad stuff out of people’s way, or “cleaning up” the platform. But ultimately this was in the service of the brand, so that the brand could continue to function as a site where advertisers might want to come. And so I feel that this whole practice really laid that bare for me.

    What could be done to make the lives of these workers better, given that this is a job that needs to be done? And it needs to be done by smart people doing it well, who need to be very well-trained.

    This is a question that I’ve often posed to the workers themselves because I certainly am not possessed of the answers on my own. They want better pay. And I think we can read that in a lot of ways: they want better pay, they want to be respected. The nature of the way the work has been designed has been for the work to be secret. In many cases, their N.D.A. precludes them from even talking about the work. And the industry itself formulated the job as a source of shame in that sense, an industry source of shame. They were not eager to tout the efforts of these people, and so instead they hid them in the shadows. And, if nothing else, that was a business decision and a value judgment that could have gone another way. I think there’s still a chance that we could understand the work of these people in a different way and value it differently, collectively. And we could ask that the companies do that as well.

    There’s a rich history of labor organizing and worker-led, or worker-informed, movements, and in this case it might have to be region by region or specific to particular parts of the world. Or it could be something that crossed geographic and cultural boundaries where workers learn to identify with each other despite where they’re located.

    We talk a lot about automation. I think that’s what you’re saying about the tech companies. Their solution is always automation, or that’s what gets foregrounded, but, I think if you talk to anyone in the industry who’s in the know, the likelihood of humans going away anytime soon is pretty much nil. And we also need to support them with mental-health support. There are things we can do technologically to maybe make it less difficult to look at some of the content.

    Facebook, just about ten days or so ago, announced a major initiative where they were going to raise the base pay of all their content moderators. I was thrilled about that. On the other hand, we could read between the lines of such an announcement to learn that until now these people were probably making minimum wage or close to that. And we could also read the deafening silence from other firms that they haven’t done that and aren’t really willing to do that yet. Because, if they were, they’d be issuing a press release, too. We’ve got a ways to go on that.

    #Content_moderation #Modération #Médias_sociaux #Travail

  • Le Royaume-Uni serre la vis face aux influenceurs Cléa Favre/gma - 4 Juillet 2019 - RTS

    Le Royaume-Uni a légiféré mercredi sur les publications sponsorisées des influenceurs. Le pays considère comme des célébrités toutes les personnes qui ont plus de 30’000 abonnés sur les réseaux sociaux et leur interdit toute publicité pour des médicaments.

    La publication d’une instagrameuse est au coeur de cette affaire. Celle-ci a posté une image la représentant en pyjama avec sur sa table de nuit un médicament pour favoriser le sommeil.

    Il s’agit d’une publicité pour le laboratoire Sanofi, qui soutient que la démarche est parfaitement légale : avec 32’000 followers, la personne en question ne peut pas être considérée comme une célébrité.

    Il faut savoir qu’au Royaume-Uni, une célébrité ne peut pas faire de la publicité pour un médicament. Mais le verdict du régulateur est tombé mercredi et il contredit le laboratoire : avec 30’000 followers, on est une star d’un point de vue légal.

    Auto-régulation en Suisse
    Les pays légifèrent de plus en plus face aux influenceurs qui exercent leur activité en pleine zone grise. On ne sait pas toujours si la recommandation vient du coeur de la star tant admirée, ou si ses conseils sont plutôt dictés par son porte-monnaie et un partenariat dûment rémunéré.

    Face à ce manque de transparence, les Etats réagissent différemment. Aux Etats-Unis, ce n’est pas le nombre de followers qui fait l’influenceur, mais le lien financier qui existe avec la marque évoquée dans un contenu.

    En Suisse, c’est le règne de l’auto-régulation. Il existe bien des recommandations de la Commission suisse pour la loyauté, mais il n’y a pas de sanctions. Et les abus sont nombreux, selon l’aveu même d’un communicant. Aujourd’hui, le marché de l’influence reste encore très petit en Suisse, où il n’y a presque que des micro-communautés. La question du nombre de followers n’est peut-être pas encore très pertinente et ne le sera peut-être jamais dans un pays de cette taille.

    #publicité #influenceurs #marketing #instagram #médias_sociaux #manipulation #publicité #fric #youtube #Web #médicaments

  • Pourquoi la loi Avia sur la haine en ligne fait l’unanimité contre elle

    Qu’il s’agisse des fédérations professionnelles du numérique, des observateurs de la société numérique, ou des défenseurs des libertés, les acteurs du numérique français sont vent debout contre la loi Avia sur la haine en ligne, actuellement débattue à l’Assemblée nationale. Explications.

    Tout le monde s’accorde sur la nécessité de la loi Avia : il faut agir contre la haine en ligne et le cyberharcèlement. Oui, mais comment ? C’est là que le bât blesse, car plus les contours du futur texte se dévoilent, plus les acteurs du numérique français, de tous bords politiques et représentant des intérêts différents, se braquent contre le projet du gouvernement.
    Ce que prévoit la loi Avia

    La mesure phare de la proposition de loi de la députée LREM Laetitia Avia prévoyait à l’origine d’obliger les plateformes Internet à retirer en moins de 24 heures les contenus haineux signalés par les autorités ou par le public. Par contenus haineux, le texte entendait au départ les contenus comportant manifestement une incitation à la haine à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap.

    Mais après son passage au Conseil d’Etat et en commission des lois, des députés ont élargi sa protée en proposant une série d’amendements. Les députés proposent ainsi d’étendre l’obligation de retrait en moins de 24 heures pour des infractions comme le harcèlement sexuel, la traite des êtres humains, le proxénétisme, la mise à disposition de mineurs à contenus pornographiques ou encore l’apologie du terrorisme. Les réseaux sociaux ne sont également plus les seules plateformes concernées : un amendement veut aussi soumettre à la loi les moteurs de recherche, pour déréférencer le contenu problématique.
    Un texte « fourre-tout », trop de « contenus gris » à gérer

    D’une manière générale, les grandes entreprises du numérique et de l’internet affichent leur soutien au renforcement de la lutte contre la haine en ligne, et au principe d’un renforcement de la réglementation en la matière. Mais l’obligation de retrait de contenu en moins de 24 heures inquiète bon nombre de professionnels, dans la mesure où elle obligera les plateformes à décider très rapidement par elles-mêmes si tel ou tel contenu contrevient à la loi, au risque de générer une cascade de polémiques et de conflits juridiques.

    « Le texte s’est trop élargi, il devient fourre-tout. On se retrouve aujourd’hui avec des choses qui relèvent de la haine en ligne et des choses qui relèvent de la morale publique, comme le proxénétisme et la pornographie. Est-ce le rôle des plateformes de définir la morale publique et de pratiquer une forme de censure ? » s’interroge Loïc Rivière, le directeur général de Tech in France, qui représente les intérêts des plateformes.

    Ainsi, les trois organisations professionnelles du secteur -Syntec Numérique qui revendique 2.000 adhérents parmi les entreprises de l’informatique et du conseil en technologies, Tech in France qui groupe les intérêts de 400 entreprises du numérique, et l’Asic qui réunit des grands acteurs de l’Internet- ont publié une mise en garde commune contre « l’inefficacité » de la future loi si son périmètre reste aussi large.

    Selon eux, le texte « risque paradoxalement d’offrir moins de protection aux citoyens qui en ont pourtant le plus besoin » :

    "Le volume de contenus « gris » à traiter" en 24 heures, c’est-à-dire du contenu à la frontière, qui nécessite un examen approfondi pour savoir s’il doit être retiré ou pas, serait tellement important que les plateformes n’auraient pas les moyens de les traiter, devenant ainsi inefficaces", déplore Loïc Rivière.

    Le texte commun aux trois organisations professionnelles demande davantage de « proportionnalité », avec une « gradation » en fonction de la gravité des messages concernés.

    "On attribue aux réseaux sociaux et aux moteurs de recherche un rôle de régulation des contenus et de référencement des contenus « acceptables » qui sort de leurs obligations sociétales peuvent s’apparenter à de la censure, et pose des problèmes de légitimité", ajoute le dirigeant.

    Flou juridique et atteintes aux libertés pour les défenseurs des droits de l’internaute

    Pour Salwa Toko, la présidente du Conseil national du numérique (instance consultative qui rassemble à la fois acteurs associatifs et professionnels de l’internet), le texte ne parvient pas à bien clarifier quels contenus les plateformes doivent accepter, et quels contenus elles doivent refuser.

    La proposition de loi « ne donne pas une définition juridique et bien précise », souligne-t-elle. Elle rejoint les acteurs professionnels sur l’avis que ce n’est pas à Facebook, Twitter, YouTube ou Google de déterminer ce qui censurable et ce qui ne l’est pas.

    « Nous regrettons que le pouvoir judiciaire ne soit pas plus mis en avant et ne soit pas plus renforcé. On se demande s’il n’y a pas là un glissement de responsabilité étatique qui est en train de se mettre en place, au profit des acteurs économiques » que sont les grandes plateformes internet, a-t-elle ajouté.

    Ne pas supprimer un contenu haineux pourra leur valoir une amende (jusqu’à 1,25 million d’euros, en l’état actuel du texte), mais censurer à tort tel ou tel militant, acteur public ou simple internaute provoquera de rudes polémiques, voire même des poursuites.

    Pour les défenseurs des libertés, notamment La Quadrature du Net, les plateformes seront en fait poussées à « sur-modérer », c’est-à-dire à censurer des contenus contestables « par précaution », simplement pour ne pas prendre le risque de se voir infliger l’amende. Avec un risque d’instrumentalisation par le pouvoir politique. Occupés à trier les contenus de la zone grise, c’est-à-dire les contenus choquants, contestables mais pas forcément illégaux, les plateformes pourraient censurer d’office tout contenu signalé par une autorité officielle, comme la police, craint l’association.

    Les plateformes « n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs partenaires jugés les plus fiables » dont l’OCLCTIC, le service de la police spécialisé contre les infractions en ligne, estime la Quadrature du Net."En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les infractions contre lesquelles il prétend lutter et imposant cette qualification aux plateformes", avertit-elle.

    #Loi_Avia #Médias_sociaux #Régulation

  • Créer un cadre français
    de responsabilisation des réseaux sociaux :
    agir en France avec une ambition européenne

    Remise du rapport de la mission de régulation des réseaux sociaux | numerique.gouv.fr

    La problématique de la haine en ligne est devenue insupportable pour nos citoyens. Cette situation pose une triple responsabilité : celle des auteurs des contenus qui doivent assumer leurs propos, celle des réseaux sociaux qui, en toute transparence, doivent proposer une organisation susceptible de bannir la haine en ligne et celle des États qui doivent fixer des règles pour les auteurs, pour les réseaux sociaux et assurer qu’elles soient respectées.

    C’est dans cet esprit de vigilance constructive et de dialogue qu’Emmanuel Macron, président de la République, et Mark Zuckerberg, PDG de Facebook, ont acté le lancement d’une mission de régulation des réseaux sociaux en mai 2018.

    Le rapport rendu public aujourd’hui et remis à Cédric O, secrétaire d’État chargé du Numérique, propose des pistes de réflexions et d’actions qui viendront nourrir les travaux parlementaires des prochains mois.

    Lancée en mai 2018, la mission a mobilisé trois rapporteurs et sept experts de haut niveau issus de ministères et d’autorités administratives indépendantes.


    Les réseaux sociaux permettent à tout citoyen de publier les contenus de son choix et de les partager avec d’autres utilisateurs du réseau. Ils ont ainsi révolutionné l’industrie des médias et les modes de communication en offrant aux citoyens et à la société civile un support d’expression directe. Le recours aux médias classiques n’est plus obligatoire pour communiquer publiquement. La possibilité pour les citoyens d’exercer leurs libertés d’expression, de communication, et de s’informer sont donc considérablement accrues par ces services.
    Néanmoins, les capacités offertes par les réseaux sociaux suscitent des abus inacceptables de ces libertés. Ces abus sont le fait d’individus isolés ou de groupes organisés auxquels les grands réseaux sociaux, Facebook, YouTube, Twitter ou Snap, pour ne citer qu’eux, n’apportent pas de réponse pleinement satisfaisante à ce jour. Or, par l’ordonnancement qu’ils réalisent des contenus publiés et par leur politique de modération, les réseaux sociaux sont en mesure d’agir directement sur ces abus les plus manifestes pour les prévenir ou y répondre et limiter ainsi les dommages en termes de cohésion sociale.
    Une intervention publique pour que les plus grands acteurs adoptent une attitude plus responsable et plus protectrice de la cohésion de nos sociétés apparaît donc légitime. Compte tenu des enjeux de libertés publiques, cette intervention doit faire l’objet de précautions particulières. Elle doit (i) respecter la diversité des modèles de réseaux sociaux, qui forment un ensemble particulièrement hétéroclite, (ii) faire preuve de transparence, notamment en y associant la société civile, (iii) viser un objectif d’intervention minimum conformément aux principes de nécessité et de proportionnalité et (iv) s’en remettre aux juridictions pour la qualification de la licéité des contenus pris individuellement.
    La démarche actuelle d’autorégulation des réseaux sociaux est intéressante en ce qu’elle démontre que les plateformes peuvent faire partie de la solution aux problèmes constatés. Elles ont inventé des réponses variées et agiles : retrait, moindre exposition, rappel à la règle commune, pédagogie, accompagnement des victimes. Toutefois, l’autorégulation est toujours en développement. Elle se contente trop souvent de proposer une réponse ex-post (après l’apparition du dommage). Elle manque de crédibilité, du fait de l’asymétrie extrême d’information, provoquant un sentiment de « story telling » qui suscite une suspicion sur la réalité de l’action de la plateforme.
    L’intervention publique doit reposer sur un équilibre entre une politique répressive, indispensable pour lutter efficacement contre les auteurs des abus, et une logique de responsabilisation accrue des réseaux sociaux fondée sur une régulation ex ante, pour capitaliser sur la logique de prévention et la capacité d’autorégulation des plateformes.
    Compte tenu de l’unicité et de l’ubiquité des réseaux sociaux, qui dépassent les frontières des États membres – un service unique accessible sur plusieurs géographies – cette régulation ex ante doit s’inscrire dans une dynamique et un cadre européens. Néanmoins, la règle actuelle dite du pays d’installation, selon laquelle seul le pays qui accueille le siège du réseau social peut intervenir pour réguler ce réseau, s’avère inefficace. Par les excès qu’ils permettent, les réseaux sociaux créent des dommages dans d’autres États membres, et difficilement observables par l’Etat membre d’installation.
    Toute initiative française devra donc avoir pour ambition d’inverser la logique européenne actuelle au profit d’une logique du pays de destination, selon laquelle la plateforme est responsable devant l’État membre où le dommage se produit, pour renforcer la capacité de chacun des États membres à maîtriser les conséquences de la globalisation. Cet objectif doit être pris en compte dès la conception d’une fonction de régulation des réseaux sociaux pour que le dispositif apparaisse pertinent aux yeux de nos partenaires européens, alors même que la politique en matière de régulation des industries de médias diffère sensiblement d’un pays à l’autre.
    p. 2
    La mise en place d’une régulation ex ante devrait respecter trois conditions : (i) suivre une logique de conformité selon laquelle le régulateur supervise la bonne mise en œuvre de mesures préventives ou correctrices, sans se focaliser sur la matérialisation des risques ni chercher à réglementer lui-même le service fourni, (ii) se concentrer sur les acteurs systémiques capables de créer des dommages conséquents dans nos sociétés sans créer de barrière à l’entrée pour de nouveaux acteurs européens, (iii) rester agile pour affronter les enjeux futurs dans un environnement numérique particulièrement évolutif. Le dispositif législatif devra donc viser à créer une capacité institutionnelle à réguler et non une régulation figée sur les problèmes actuels.
    Cette régulation pourrait reposer sur les cinq piliers suivants :
    Premier pilier : Deuxième pilier :
    Troisième pilier : Quatrième pilier : Cinquième pilier :
    Une politique publique de régulation garante des libertés individuelles et de la liberté d’entreprendre des plateformes.
    Une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante, reposant sur trois obligations incombant aux plateformes :
    • transparence de la fonction d’ordonnancement des contenus ;
    • transparence de la fonction de mise en œuvre des CGU et de modération
    des contenus ;
    • un devoir de diligence vis-à-vis de ses utilisateurs.
    Un dialogue politique informé entre les acteurs, le gouvernement, le législateur, le régulateur et la société civile.
    Une autorité administrative indépendante partenaire des autres branches de l’État et ouverte sur la société civile.
    Une ambition européenne pour renforcer la capacité des Etats membres à agir face à des plateformes globales, et réduire le risque politique lié à la mise en œuvre dans chaque Etat membre.

    #Médias_sociaux #Régulation #Concurrence #Liberté_expression #Transparence

  • The “Drunk Pelosi” video shows that cheapfakes can be as damaging as deepfakes.

    The A.I.-generated “deepfake” video implicitly but unmistakably calls for Facebook to make a public statement on its content moderation polices. The platform has long been criticized for permitting the spread of disinformation and harassment, but it became particularly acute recently, when the company said that it would not remove the “Drunk Pelosi” video.

    On Thursday, the House Permanent Select Committee on Intelligence will hold an open hearing on A.I. and the potential threat of deepfake technology to Americans. Many technology researchers believe that deepfakes—realistic-looking content developed using machine learning algorithms—will herald a new era of information warfare. But as the “Drunk Pelosi” video shows, slight edits of original videos may be even more difficult to detect and debunk, creating a cascade of benefits for those willing to use these digital dirty tricks.

    The video, posted to a self-described news Facebook page with a fan base of about 35,000, depicted Nancy Pelosi slurring her words and sounding intoxicated. However, when compared with another video from the same event, it was clear even to nonexperts that it had been slowed down to produce the “drunken” effect. Call it a “cheapfake”—it was modified only very slightly. While the altered video garnered some significant views on Facebook, it was only after it was amplified by President Donald Trump and other prominent Republicans on Twitter that it became a newsworthy issue. The heightened drama surrounding this video raises interesting questions not only about platform accountability but also about how to spot disinformation in the wild.

    “Cheapfakes” rely on free software that allows manipulation through easy conventional editing techniques like speeding, slowing, and cutting, as well as nontechnical manipulations like restaging or recontextualizing existing footage that are already causing problems. Cheapfakes already call into question the methods of evidence that scientists, courts, and newsrooms traditionally use to call for accountability

    Many will never know the video was a fake, but the advantages it gave to pundits will echo into the future. It’s a recent example of what legal theorists Bobby Chesney and Danielle Citron call the liar’s dividend . Those wishing to deny the truth can create disinformation to support their lie, while those caught behaving badly can write off the evidence of bad behavior as disinformation. In a new survey from Pew Research Center, 63 percent of respondents said that they believe altered video and images are a significant source of confusion when it comes to interpreting news quality. That loss of trust works in favor of those willing to lie, defame, and harass to gain attention.

    As Daniel Kreiss and others have pointed out, people don’t just share content because they believe it. They do it for a host of reasons, not the least of which is simply because a message speaks to what users see as an implicit truth of the world even as they know it is not factually true. Researchers have found that creating and sharing hateful, false, or faked content is often rewarded on platforms like Facebook.

    The looming threat of the deepfake is worth attention—from politicians, like at the upcoming hearing; from journalists; from researchers; and especially from the public that will ultimately be the audience for these things. But make no mistake: Disinformation doesn’t have to be high tech to cause serious damage.

    #Fake_news #Deep_fake #Cheap_fake #Nancy_Pelosi #Médias_sociaux

  • 2017 : 140,4 tonnes de cocaïne saisie dans l’union européenne Eric Steffens, Belga, 6 Mai 2019

    Plus de 104.000 saisies de cocaïne ont été signalées dans l’UE en 2017 (contre 98.000 en 2016), pour un total de 140,4 tonnes, soit environ le double de la quantité saisie en 2016 (70,9 tonnes).

    La Belgique, avec 45 tonnes saisies en 2017, arrive en tête des pays d’Europe, devant l’Espagne (41 tonnes), la France (17,5 tonnes) et les Pays-Bas (14,6 tonnes).
"La cocaïne entre en Europe par de nombreux itinéraires et des moyens variés, mais la croissance du trafic de gros volumes dans des conteneurs de transport maritime constitue un défi majeur", expose l’agence européenne sur les drogues.
"Les niveaux estimés de pureté de la cocaïne vendue au détail sont les plus élevés qui aient été observés au cours de la décennie, ce qui tend également à indiquer une disponibilité accrue de cette drogue", ajoute l’agence.
    Anvers et Amsterdam, mais aussi Bristol ou Barcelone, figurent parmi les villes d’Europe où sont décelées les plus grandes quantités de résidus de cocaïne dans leurs eaux usées.

    Le trafic de cocaïne apparait en outre de plus en plus concurrentiel, avec des groupes de petite taille et des individus qui se servent de plus en plus des médias sociaux, des marchés du « darknet » et des techniques de chiffrement.

    « Sur le marché de la cocaïne, l’esprit d’entreprise se manifeste au travers de méthodes de distribution innovantes : des ’centres d’appel’ emploient des coursiers qui assurent une livraison rapide et flexible. Ces méthodes, reflets d’une possible ’ubérisation’ du commerce de la cocaïne, illustrent le caractère compétitif du marché, au sein duquel les revendeurs rivalisent en proposant des services allant au-delà du produit proprement dit », analyse l’Observatoire.

    Quant à l’héroïne, la quantité saisie dans l’UE a augmenté de plus d’une tonne en 2017 pour atteindre 5,4 tonnes. Une préoccupation croissante concerne les opioïdes de synthèse, dont onze nouveaux types ont été détectés en Europe en 2018.

    Le cannabis, lui, est désormais la substance que les nouveaux patients admis dans les services spécialisés de traitement pour usage de drogues citent le plus souvent comme raison principale de leur prise de contact.
Concernant les drogues de synthèse, 21 laboratoires de MDMA - le principe actif de l’ecstasy - ont été démantelés dans l’UE, contre 11 en 2016, tous aux Pays-Bas. Un déversement de produits chimiques suggérant la production de MDMA a été signalé en Belgique.

    Les dernières données montrent que la teneur en MDMA des comprimés d’ecstasy a atteint un pic décennal en 2017, avec une estimation de 6,6 millions de comprimés de MDMA saisis dans l’UE, soit le chiffre le plus élevé depuis 2007.

    Les données disponibles indiquent également que la production d’amphétamine se concentre principalement en #Belgique, aux #Pays-Bas et en #Pologne ainsi que, dans une moindre mesure, dans les #États_baltes et en #Allemagne.

    #concurrence #innovation #distribution #ubérisation #service #compétitivité #centre_d_appels #médias_sociaux #commerce #drogue #cocaïne #drogues #santé #addiction #société

  • Why is populism booming ? Today’s tech is partly to blame | Jamie Bartlett, the author of The People vs Tech

    This makes sense once you understand that social media platforms are, given where their money comes from, advertising firms. As any ad man will tell you, emotion and simplicity sell. Online, that’s true in the literal sense: the more content is shared, the more advertising revenue it generates. Populist messages – especially if you’re in opposition, and can rant without the inconveniences of power – perform better than anything from the watery centre ground. But the natural affinity runs deeper: populists are more spiritually attuned to today’s technology. From shopping to dating to music to news, everything is personalised – quick, convenient, as-you-wish. What a frustrating, compromise-ridden and plodding affair politics is by comparison! Populists promise to cut through that. They offer Tinder politics – swipe left or right to get exactly what you want, without thinking too much. Anyone who stands in the way is part of a shadowy corruption – Blairites, newspapers, judges, immigrants… The good news is, says the populist, we now have a direct line to those honest, decent, hard-working people, circumnavigating the self-interested establishment parties and media. This is why many populists – whether it’s Twitter addict Trump, or the Swedish Democrats or the Italian Five Star Movement – are early adopters, and entirely at ease with the format.

    Lire aussi, dans le @mdiplo du mois, ce passage dans l’article sur l’ascension de Matteo Salvini :

    (…) Pour y parvenir, le chef de la Ligue a dû opérer deux changements majeurs : une nouvelle stratégie électorale et un rapport novateur au numérique. Pour y parvenir, le chef de la Ligue a dû opérer deux changements majeurs : une nouvelle stratégie électorale et un rapport novateur au numérique.

    C’est alors que M. Luca Morisi entre en scène. Cet expert en informatique de 45 ans dirige, avec un associé, l’entreprise Sistema Intranet, qui ne compte aucun employé, mais une foule de clients institutionnels. Il prend en main M. Salvini à une époque où ce dernier est déjà inséparable de sa tablette et largement familiarisé avec Twitter, mais où sa présence sur Facebook demeure négligeable. Son nouveau conseiller numérique lui enjoint de changer de stratégie. Twitter est un carcan, lui explique-t-il. Selon lui, la plate-forme est fondamentalement autoréférentielle et favorise les messages de confirmation. « Les gens sont sur Facebook et c’est là que nous devons être », soutient-il. Une équipe dévolue aux réseaux sociaux se constitue. Elle ne tarde pas à devenir l’un des plus importants services de la Ligue.

    M. Morisi énonce dix commandements auxquels le chef du parti doit se soumettre. Les messages de sa page Facebook doivent être écrits par M. Salvini lui-même, ou en donner l’illusion. Il faut en publier tous les jours, tout au long de l’année, et commenter y compris les événements qui viennent juste de se produire. La ponctuation doit être régulière, les textes simples, les appels à l’action récurrents. M. Morisi suggère également d’utiliser autant que possible le pronom « nous », davantage susceptible de favoriser l’identification des lecteurs, mais aussi de bien lire les commentaires, en y répondant parfois, afin de sonder l’opinion publique.

    Résultat : la page Facebook de M. Salvini fonctionne comme un quotidien, notamment grâce à un système de publication créé en interne et connu sous le nom de « la bête ». Le contenu est mis en ligne à heures fixes et repris par une multitude d’autres comptes ; les réactions font l’objet d’un suivi continu. M. Morisi et ses collègues rédigent quatre-vingts à quatre-vingt-dix publications par semaine, quand M. Renzi — alors président du conseil — et son équipe n’en produisent pas plus de dix. Pour fidéliser les abonnés, M. Morisi imagine une astuce : il conseille de s’en tenir aux mêmes mots, afin d’évoquer davantage un pilier de bar qu’un homme politique traditionnel.

    Le ton des messages relève de l’irrévérence, de l’agressivité et de la séduction. Le chef de la Ligue dresse ses lecteurs contre l’ennemi du jour (les « clandestins », les magistrats véreux, le Parti démocrate, l’Union européenne…), puis il publie une photographie de la mer, de son repas ou encore de lui-même en train de donner l’accolade à un militant ou de pêcher. L’opinion publique se nourrit d’un flot incessant d’images de M. Salvini mangeant du Nutella, cuisinant des tortellinis, mordant dans une orange, écoutant de la musique ou regardant la télévision. Chaque jour, une tranche de sa vie est ainsi diffusée auprès de millions d’Italiens, selon une stratégie où le public et le privé s’entremêlent en permanence. Cet éclectisme vise à lui donner une image humaine et rassurante, tout en lui permettant de continuer ses provocations. Son message : « En dépit de la légende qui me présente comme un monstre rétrograde, un populiste peu sérieux, je suis une personne honnête, je parle ainsi parce que je suis comme vous, alors faites-moi confiance. »

    La stratégie de M. Morisi repose également sur la « transmédialité » : apparaître à la télévision tout en publiant sur Facebook, passer au crible les commentaires en direct et les citer pendant l’émission ; une fois celle-ci terminée, monter des extraits et les mettre sur Facebook… Cette approche, dans laquelle M. Salvini est passé maître, n’a pas tardé à porter ses fruits : entre mi-janvier et mi-février 2015, il a obtenu pratiquement deux fois plus de temps d’antenne que M. Renzi. En 2013, il n’avait que dix-huit mille abonnés sur Facebook ; mi-2015, il en comptait un million et demi, et ils sont plus de trois millions aujourd’hui — un record parmi les dirigeants politiques européens.


    #CM #populisme #médias_sociaux

  • « On voit comment est le monde grâce aux #réseaux_sociaux. On voit ce qui se passe en #Algérie. On voit comment vivent les femmes du monde entier, et on n’est pas différentes. »

    Source : Jean-Philippe Rémy, « Au #Soudan, les #femmes à la pointe de la révolte », Le Monde, 10 avril 2019.

    #médias_sociaux #monde #mouvement_de_contestation

  • Business douteux d’influenceurs : EmmaCakeCup attaque au moins 2 youtubeurs en justice - Politique - Numerama

    Deux youtubeurs sont poursuivis en justice pour avoir parlé en vidéo de partenariats douteux promus par les influenceurs EmmaCakeCup et Vlad Oltean.

    Fin novembre, nous vous racontions dans une enquête comment des influenceurs font parfois des partenariats avec des sites douteux. Parmi les personnalités citées, il y avait EmmaCakeCup et son conjoint, Vlad Oltean.

    La première, une youtubeuse et instagrammeuse, a décidé de porter plainte contre deux vidéastes qui avaient relayé les propos de médias sur le sujet. Une première audience aura lieu ce vendredi 5 avril, a appris Numerama.

    La guerre des influenceurs... et des plaintes abusives. Un petit monde dont l’avidité fait tant ressembler au grand monde des médias...

    #Influenceurs #Médias_sociaux

  • Tout un programme : Pacifier Twitter, c’est le métier des « community managers » (Le Parisien, 08/03/2019)

    [Introduction sur l’affaire du hijab de Décathlon finalement retiré du catalogue] (…) Fini le cliché du geek indolent, vissé à son écran pour amuser la galerie. Aujourd’hui, le « #CM » travaille en équipe, participe aux réunions stratégiques, gagne bien sa vie – jusqu’à 50 000 euros de salaire net par an. Cet homme-orchestre est à la fois communicant, publicitaire, conseiller de clientèle, spécialiste du marketing, parfois journaliste. Dans ce monde où prime l’instantanéité, il a rarement le temps de faire valider ses messages, et travaille donc sans filet.

    « Avant, les marques “publiaient”. Maintenant, elles se placent au coeur des conversations, essayant d’en tirer un maximum de profit ou évitant le plus possible d’entacher leur réputation », explique Jeremie Mani, patron de Netino by Webhelp, spécialiste de la modération (ou filtrage des messages) sur le Web, qui gère notamment les commentaires de la page Facebook du Parisien.

    Grèves, perturbations, accidents techniques… A la SNCF, les « CM » sont habitués à gérer les messages des passagers mécontents. Ils renseignent, voyageur par voyageur, répondent aux critiques en martelant quelques arguments simples et bien rodés, renvoient vers les bons interlocuteurs, et s’interdisent l’humour typique des réseaux sociaux, auquel ne sont généralement pas trop réceptifs les usagers coincés sur les quais des gares.

    Florentin Gonon, community manager de Digitick, site commercialisant des billets de spectacles, connaît des situations de crise moins intenses. « On aime ça », dit-il en souriant. Plus sérieusement, il dit appliquer une règle simple : un client mécontent (parce qu’il n’a pas reçu son billet ou parce qu’il juge un prix trop élevé) partagera ses critiques avec plusieurs autres personnes. Il ne faut donc pas le laisser se plaindre. « Si on répond poliment à un message insultant, le ton change. L’insulte est souvent un appel à l’aide. »

    Ailleurs, parfois, cette posture est moins évidente, tant on redoute de tomber dans un bavardage oiseux et de ternir l’image de l’entreprise. Les médias embauchent parfois des journalistes pour animer leurs comptes sur Twitter et Facebook, qui peuvent compter des millions d’abonnés.

    Au « Monde », par exemple, on les appelle « SME », pour social media editor (éditeur des réseaux sociaux, en anglais). Ils ont une mission éditoriale, pour valoriser les articles des médias qui les emploient, mais aussi pour faire remonter à leur rédaction les réactions et préoccupations des internautes, et même certaines informations glanées sur les réseaux sociaux. Une façon d’installer un lien avec les lecteurs et d’augmenter l’audience des journaux, plutôt qu’une recherche de « buzz » et de polémiques stériles.

    Dans les eaux glacées du Net, risque-t-on de se noyer ? Beaucoup pensent le contraire, estimant que la publicité qu’entraînent les polémiques se révèle toujours payante. Yann Amiry, de Decathlon, pourra sûrement dire bientôt si cet axiome fonctionne. Lui, en tout cas, est passé de 3 000 à plus de 28 000 abonnés sur son compte Twitter personnel.

    #modération #médias_sociaux etc.

    • Intéressant !
      J’ai commencé à me questionner sur ce boulot quand la police a lancé ses premiers comptes twitter « vivant ». C’était assez percutant : de l’humour, de la dérision, là où tu ne l’attendais pas, et des scores qui ont très vite fait frémir d’envie pas mal d’entreprise. Ca s’est un peu calmé côté humour mais ils n’hésitent pas à interagir avec les gens... Voir https://twitter.com/PoliceNationale/with_replies
      Je crois qu’ils se sont basés sur des CM d’unités de flics américains. Puis les marques s’y sont engouffrées. J’veux dire elles le faisaient déjà avant, mais la plupart étaient, effectivement, timorées, allant au max sur le terrain du quotidien ou des trucs et astuces, etc. Jamais dans la polémique ou la politique. Mais ces derniers temps, plusieurs polémiques gérées par des CM aux propos très « engagés » ont fait le buzz. Et ça m’a fait un peu bizarre de les voir portés au nues alors qu’en fait ils ont appliqué des stratégies déjà très réfléchies. Et sont très très très bien payés pour ça (cet article le prouve)
      Bref, la politique-marchande va se développer de plus en plus. Tant que le capitalisme y trouvera son intérêt.

  • What Really Makes a Difference in Vaccination Rates? - The New York Times

    Social media companies face increasing scrutiny for amplifying fringe anti-vaccine sentiment amid measles outbreaks in several states like Washington. In response, Facebook, YouTube and Pinterest recently made headlines by announcing initiatives to reduce vaccine misinformation on their platforms.

    But the focus on anti-vaccine content on social media can obscure the most important factor in whether children get vaccinated: the rules in their home states, which are being revisited in legislative debates across the country that have received far less attention.

    #Médias_sociaux #Fake_news #Vaccins #Politique_USA #Vaccination

  • TikTok, l’application chinoise à la conquête des ados du monde

    La France n’échappe pas à cette déferlante. La formule fonctionne particulièrement chez les 11-14 ans (38 % déclarent avoir un compte sur TikTok), et chez les filles (57,82 % de cette tranche d’âge), selon une enquête de l’association Génération numérique auprès de 7 421 jeunes de moins de 18 ans.

    Contrairement à ses concurrents, TikTok – version exportée de Douyin –, ne vient pas de la Silicon Valley, mais de Pékin. C’est la première fois qu’une entreprise chinoise parvient à s’exporter avec un tel succès. Derrière cette application se trouve ByteDance, la start-up la plus chère du monde – devant l’américain Uber –, qui est valorisée 75 milliards de dollars (66,78 milliards d’euros) depuis son dernier tour de table, fin 2018, où ses soutiens, dont Softbank, ont aligné 3 milliards de dollars de plus.

    Se plonger dans TikTok, c’est voir Internet résumé en vidéos de quinze secondes : des miniscènes parfois drôles, d’autres fois ridicules, souvent inventives

    Se plonger dans TikTok, c’est voir Internet résumé en vidéos de quinze secondes : des miniscènes parfois drôles, d’autres fois ridicules, souvent inventives.

    L’idée originale était de jouer une scène ou une chanson en play-back. Mais d’autres font quelques pas de danse, ou des tours de force avec, en fond sonore, le dernier tube de pop à la mode. Les adolescents s’y lancent des défis. A mesure que le public évolue, les contenus deviennent plus variés : certains résument une recette de cuisine, quand d’autres montrent en accéléré l’élaboration d’un dessin, ou d’un bricolage. Il y a beaucoup de filles, quelques garçons et, bien sûr, beaucoup de chats.
    Mettre son cerveau sur pause

    Bref, ouvrir TikTok, c’est mettre son cerveau sur pause pour un moment. Quasiment pas de publicité pour l’instant (la version chinoise en compte beaucoup plus), des vidéos trop courtes pour être élaborées… TikTok ne fait que du divertissement, avec une efficacité redoutable. « L’expérience est captivante : ce n’est pas comme Youtube ou Instragram. Là, c’est du micro-contenu. Ça marche très bien sur mobile, avec les vidéos verticales, plein écran, c’est très immersif », décrit Matthew Brennan, expert de l’industrie du Web en Chine et fondateur du cabinet de marketing China Channel.

    Surtout, TikTok excelle à découvrir les goûts de ses utilisateurs. En ouvrant l’application vous tombez sur une vidéo. Elle ne vous plaît pas ? Un coup de doigt vers le haut, et vous passez à la suivante. Rapidement, les vidéos proposées sont mieux ciblées.

    « L’algorithme apprend ce qui vous plaît vraiment vite, poursuit M. Brennan. C’est la force de ByteDance : toutes leurs plates-formes fonctionnent avec la même technologie de recommandation. C’est très puissant ! » L’entreprise a, en effet, percé avec Jinri Toutiao, un agrégateur d’informations lancé en 2012. L’application, qui sélectionne des articles selon vos goûts, fait fureur.
    Les autorités s’interrogent

    Douyin, la version chinoise de TikTok, a vu le jour en septembre 2016. C’est un clone d’une autre application chinoise, Musical.ly, fondée deux ans plus tôt. Mais Musical.ly, plus centrée sur les vidéos musicales, type karaoké, trouve son public à l’étranger alors que Douyin, plus généraliste, gagne du terrain en Chine. L’année suivante, ByteDance rachète Musical.ly pour 1 milliard de dollars et intègre les deux applications. Une acquisition déterminante pour l’expansion de Douyin à l’étranger, qui récupère les clients de Musical.ly et se déploie à l’international à grands coups de campagnes publicitaires.
    Article réservé à nos abonnés Lire aussi En Chine, Douyin taille des croupières à WeChat

    Face à ce succès, les autorités s’interrogent. En France, la police a, en novembre 2018, mis en garde contre l’utilisation de la plate-forme par des prédateurs sexuels, les jeunes filles se mettant en scène dans des positions parfois suggestives. L’application a été interdite au Bangladesh, et temporairement en Indonésie, où elle était accusée de promouvoir « la pornographie et le blasphème ». En Inde, une proposition de loi vise à obliger TikTok à filtrer les contenus pour purger l’application des vidéos « dangereuses ». C’est déjà le cas en Chine, où elle a été pointée du doigt pour la publication de contenus « inacceptables ».

    Plus récemment, TikTok s’est fait épingler aux Etats-Unis, le 27 février. Le groupe a dû payer 5,7 millions de dollars d’amende à la commission fédérale du commerce pour avoir collecté les adresses mails d’enfants de moins de 13 ans, sans le consentement de leurs parents.

    #TikTok #Médias_sociaux #Adolescents

  • Mark Zuckerberg’s Plans to Capitalize on Facebook’s Failures | The New Yorker

    On Wednesday, a few hours before the C.E.O. of Facebook, Mark Zuckerberg, published a thirty-two-hundred-word post on his site titled “A privacy-focused vision for social networking,” a new study from the market research firm Edison Research revealed that Facebook had lost fifteen million users in the United States since 2017. “Fifteen million is a lot of people, no matter which way you cut it,” Larry Rosin, the president of Edison Research, said on American Public Media’s “Marketplace.” “This is the second straight year we’ve seen this number go down.” The trend is likely related to the public’s dawning recognition that Facebook has become both an unbridled surveillance tool and a platform for propaganda and misinformation. According to a recent Harris/Axios survey of the hundred most visible companies in the U.S., Facebook’s reputation has taken a precipitous dive in the last five years, with its most acute plunge in the past year, and it scores particularly low in the categories of citizenship, ethics, and trust.

    While Zuckerberg’s blog post can be read as a response to this loss of faith, it is also a strategic move to capitalize on the social-media platform’s failures. To be clear, what Zuckerberg calls “town square” Facebook, where people post updates about new jobs, and share prom pictures and erroneous information about vaccines, will continue to exist. (On Thursday, Facebook announced that it would ban anti-vaccine advertisements on the site.) His new vision is to create a separate product that merges Facebook Messenger, WhatsApp, and Instagram into an encrypted and interoperable communications platform that will be more like a “living room.” According to Zuckerberg, “We’ve worked hard to build privacy into all our products, including those for public sharing. But one great property of messaging services is that, even as your contacts list grows, your individual threads and groups remain private. As your friends evolve over time, messaging services evolve gracefully and remain intimate.”

    This new Facebook promises to store data securely in the cloud, and delete messages after a set amount of time to reduce “the risk of your messages resurfacing and embarrassing you later.” (Apparently, Zuckerberg already uses this feature, as Tech Crunch reported, in April, 2018.) Its interoperability means, for example, that users will be able to buy something from Facebook Marketplace and communicate with the seller via WhatsApp; Zuckerberg says this will enable the buyer to avoid sharing a phone number with a stranger. Just last week, however, a user discovered that phone numbers provided for two-factor authentication on Facebook can be used to track people across the Facebook universe. Zuckerberg does not address how the new product will handle this feature, since “town square” Facebook will continue to exist.

    Once Facebook has merged all of its products, the company plans to build other products on top of it, including payment portals, banking services, and, not surprisingly, advertising. In an interview with Wired’s editor-in-chief, Nicholas Thompson, Zuckerberg explained that “What I’m trying to lay out is a privacy-focused vision for this kind of platform that starts with messaging and making that as secure as possible with end-to-end encryption, and then building all of the other kinds of private and intimate ways that you would want to interact—from calling, to groups, to stories, to payments, to different forms of commerce, to sharing location, to eventually having a more open-ended system to plug in different kinds of tools for providing the interaction with people in all the ways that you would want.”

    L’innovation vient maintenant de Chine, en voici une nouvelle mention

    If this sounds familiar, it is. Zuckerberg’s concept borrows liberally from WeChat, the multiverse Chinese social-networking platform, popularly known as China’s “app for everything.” WeChat’s billion monthly active users employ the app for texting, video conferencing, broadcasting, money transfers, paying fines, and making medical appointments. Privacy, however, is not one of its attributes. According to a 2015 article in Quartz, WeChat’s “heat map” feature alerts Chinese authorities to unusual crowds of people, which the government can then surveil.

    “I believe the future of communication will increasingly shift to private, encrypted services where people can be confident what they say to each other stays secure and their messages and content won’t stick around forever,” Zuckerberg tells us. “This is the future I hope we will help bring about.” By announcing it now, and framing it in terms of privacy, he appears to be addressing the concerns of both users and regulators, while failing to acknowledge that a consolidated Facebook will provide advertisers with an even richer and more easily accessed database of users than the site currently offers. As Wired reported in January, when the merger of Facebook’s apps was floated in the press, “the move will unlock huge quantities of user information that was previously locked away in silos.”

    Le chiffrage des messages est loin d’être une panacée pour la vie privée, ni pour la responsabilité sociale des individus.

    Zuckerberg also acknowledged that an encrypted Facebook may pose problems for law enforcement and intelligence services, but promised that the company would work with authorities to root out bad guys who “misuse it for truly terrible things like child exploitation, terrorism, and extortion.” It’s unclear how, with end-to-end encryption, it will be able to do this. Facebook’s private groups have already been used to incite genocide and other acts of violence, suppress voter turnout, and disseminate misinformation. Its pivot to privacy will not only give such activities more space to operate behind the relative shelter of a digital wall but will also relieve Facebook from the responsibility of policing them. Instead of more—and more exacting—content moderation, there will be less. Instead of removing bad actors from the service, the pivot to privacy will give them a safe harbor.

    #facebook #Cryptographie #Vie_privée #Médias_sociaux #Mark_Zuckerberg

  • Body politics: The old and new public health risks of networked health misinformation

    There are clear parallels between the tactics used to spread health disinformation and political content. For instance, in 2018, researchers found that large networks of bots and trolls were spreading anti-vaccination rhetoric to sow confusion online and amplify the appearance of an anti-vaccination community. The anti-vaccination tweets often referenced conspiracy theories, and some accounts almost singularly focused on the U.S. government. As a result, real-life users and orchestrated networks of bots are engaged in a feedback loop. Recently, political public figures have used their platform to amplify vaccination misinformation, such as tweeting that measles can help fight cancer. There is a long history of people using influence to sway public opinion about vaccines—particularly among celebrities.

    These are symptoms of a larger societal crisis: disinformation campaigns aimed to undermine social institutions.

    The search and recommendation algorithms that underpin our information retrieval systems are other modern tools mediating access to health information. When a user enters an inquiry into a search engine, they receive curated results. As so many people rely on search engines for health information, they are another important mechanism that is susceptible to manipulation. For instance, the websites of some crisis pregnancy centers—which are designed to look and sound like those of clinics that provide abortion care, but instead give misleading information about the negative effects of abortion to visitors—are optimized results for Google searches often made by women seeking abortion information.

    Similarly, recommendation systems on popular social media platforms, particularly Facebook and YouTube, create easy entry points for problematic content. For example, a mother joining a generic parenting group on Facebook may subsequently receive recommendations for anti-vaxx groups. Bots, search engine optimization, and gaming of recommendation systems are foundational tools used by various actors to influence public health discourse and skew public debates — often blurring the line between medical mistrust and larger political ideologies and agendas.

    #Information_médicale #Santé_publique #Vaccination #Complotisme #Médias_sociaux #Algorithmes

  • Haine sur les réseaux sociaux : plutôt qu’une nouvelle loi, actionner le « levier de l’opinion » ? - LCI

    Dans le débat qui entoure la violence en ligne, nombreuses sont les victimes de propos racistes ou sexistes, par exemple, qui dénoncent l’absence de modération et la difficulté à retrouver les auteurs de ces messages dans le cadre d’une plainte. Olivier Ertzscheid, professeur en sciences de l’information à l’université de Nantes, est d’accord avec ce constat : oui, il y a bien un problème avec la modération en ligne (face au flot d’injures antisémites impossibles à modérer, France 3 Alsace a dernièrement dû cesser la diffusion de son Facebook live en direct du cimetière juif de Quatzenheim). Il précise toutefois auprès de LCI : « Il faut malgré tout différencier Facebook - qui a recruté des gens pour faire de la modération - et Twitter - qui se repose encore sur une modération algorithmique ». Mais sur les moyens à mettre en oeuvre, cet enseignant se montre davantage sceptique.

    Menaces de sanctions financières

    « Éradiquer la quasi-totalité de tous les types de haine, antisémite, raciste, homophobe, sexiste… sur les réseaux sociaux, au regard de la démocratisation d’Internet, me paraît tout à fait impossible » explique-t-il. « Ce serait comme essayer d’éradiquer les discussions sur la place du village ou au café du commerce. »

    Selon lui, toute la difficulté réside dans le bénéfice que tirent les plates-formes de ce types de propos. « Les discours de haine sont minoritaires à l’échelle de la quantité de l’information sur le web, mais c’est une minorité visible. La prime est donnée à ces discours excessifs et radicaux qui génèrent le plus d’interactions. C’est ce qui nourrit le modèle économique des plates-formes. Leur posture, par rapport à ces discours, est donc très ambivalente. » Quant aux menaces de sanctions financières qui pourraient bientôt être inscrites dans la loi, notre professeur « n’y croit pas une seule seconde ». « Cela fait plus de dix ans qu’on menace ces plates-formes d’amendes. Cela ne fonctionne pas et ne fonctionnera pas plus maintenant. Par ailleurs, Facebook se moque d’une amende au regard des bénéfices qu’il engendre. »

    Le levier de l’opinion

    Quelle solution apporter alors si, du point de vue des spécialistes, une nouvelle loi n’aurait aucun caractère utile ? Olivier Ertzscheid ne voit qu’un levier, celui de l’opinion. « La seule chose qui peut amener la modération à être plus efficace, c’est ce que pensent les gens de leur service. Chaque fois qu’elles ont reculé - par exemple Facebook sur la vie privée - ce n’était pas à cause d’une potentielle amende mais parce qu’elle pouvait perdre des utilisateurs. » Il nuance toutefois son propos : « Il faut de la régulation, bien sûr. L’idée n’est pas de dire que les lois ne fonctionnent pas. Mais l’arsenal législatif qui existe déjà est suffisant. C’est simplement qu’il faut le faire appliquer. »

    #Olivier_Ertzscheid #Médias_sociaux

  • India Proposes Chinese-Style Internet Censorship - The New York Times

    NEW DELHI — India’s government has proposed giving itself vast new powers to suppress internet content, igniting a heated battle with global technology giants and prompting comparisons to censorship in China.

    Under the proposed rules, Indian officials could demand that Facebook, Google, Twitter, TikTok and others remove posts or videos that they deem libelous, invasive of privacy, hateful or deceptive. Internet companies would also have to build automated screening tools to block Indians from seeing “unlawful information or content.” Another provision would weaken the privacy protections of messaging services like WhatsApp so that the authorities could trace messages back to their original senders.

    Hum, pas forcément très différent de l’Article 13... quand les Le Pen (équivalent français de Narandra Modi) seront au pouvoir... Pas simple tout ça. Et puis si la Chine n’est plus la seule a devenir le repoussoir universel, où va-t-on ?

    Working independently as well as through trade groups, Microsoft, Facebook and dozens of other tech companies are fighting back against the proposals. They criticized the rules as technically impractical and said they were a sharp departure from how the rest of the world regulates “data intermediaries,” a term for companies that host data provided by their customers and users.

    In most countries, including under India’s existing laws, such intermediaries are given a “safe harbor.” That means they are exempted from responsibility for illegal or inappropriate content posted on their services, as long as they remove it once notified by a court or another designated authority.

    In a filing with the ministry last week, Microsoft said that complying with India’s new standards would be “impossible from the process, legal and technology point of view.”

    Officials have offered little public explanation for the proposals, beyond a desire to curb the kind of false rumors about child kidnappers that spread on WhatsApp a year ago and that incited angry mobs to kill two dozen innocent people. That wave of violence has since subsided.

    The coming national election has added urgency to the proposals. India’s Election Commission, which administers national and state elections, is considering a ban on all social media content and ads aimed at influencing voters for the 48 hours before voting begins, according to an internal report obtained by the news media. To buttress its legal authority to order such a ban, the commission wrote to the I.T. ministry last week asking it to amend the new rules to specifically prohibit online content that violates election laws or commission orders.

    C’est comme si ça me rappelait quelque chose...

    Et puis, le Alibaba local est dans la boucle. Y’a que les européens qui n’ont pas champion local à opposer aux GAFAM.

    One of the biggest cheerleaders for the new rules was Reliance Jio, a fast-growing mobile phone company controlled by Mukesh Ambani, India’s richest industrialist. Mr. Ambani, an ally of Mr. Modi, has made no secret of his plans to turn Reliance Jio into an all-purpose information service that offers streaming video and music, messaging, money transfer, online shopping, and home broadband services.

    In a filing last week, Reliance Jio said the new rules were necessary to combat “miscreants” and urged the government to ignore free-speech protests. The company also said that encrypted messaging services like WhatsApp, “although perceivably beneficial to users, are detrimental to national interest and hence should not be allowed.”

    Entre les architectures toxiques des plateformes et la toxicité des lois liberticides, on est malbarre.

    #Inde #Censure #Médias_sociaux #Article_13