• Pédopornographie : les failles des géants du Web pointées du doigt
    https://www.lemonde.fr/pixels/article/2019/11/11/pedopornographie-les-failles-des-geants-du-web-pointes-du-doigt_6018759_4408

    Une enquête du « New York Times » souligne les failles des systèmes de détection utilisés par de grandes entreprises comme Microsoft ou Google. Les efforts des grandes entreprises du numérique pour détecter les contenus pédopornographiques sont-ils à la hauteur ? Non, conclut une enquête publiée samedi 9 novembre par le New York Times. Si cette industrie a su repérer et signaler 45 millions de contenus l’an dernier, « elle a systématiquement échoué à mettre en place des mesures agressives pour y mettre (...)

    #Apple #Google #Microsoft #AOL #Amazon #DropBox #Facebook #Snapchat #WhatsApp #iMessage #PhotoDNA #pédophilie #pornographie #modération #Azure #DuckDuckGo (...)

    ##Bing

  • Child Abusers Run Rampant as Tech Companies Look the Other Way
    https://www.nytimes.com/interactive/2019/11/09/us/internet-child-sex-abuse.html

    Though platforms bar child sexual abuse imagery on the web, criminals are exploiting gaps. Victims are caught in a living nightmare, confronting images again and again. The two sisters live in fear of being recognized. One grew out her bangs and took to wearing hoodies. The other dyed her hair black. Both avoid looking the way they did as children. Ten years ago, their father did the unthinkable : He posted explicit photos and videos on the internet of them, just 7 and 11 at the time. (...)

    #Facebook #Bing #Apple #Google #Microsoft #Amazon #DuckDuckGo #DropBox #Snapchat #WhatsApp #Altaba/Yahoo ! #iMessage #Azure #pédophilie #pornographie (...)

    ##Altaba/Yahoo_! ##modération

  • Twitter in India : Why was rival Mastodon trending ?
    https://www.bbc.com/news/world-asia-india-50343054

    Some of India’s most influential Twitter users are looking to move to little-known network Mastodon amid an outcry over Twitter moderation methods. Mastodon’s apparent trend-surge was prompted by Twitter suspending a leading Indian Supreme Court lawyer’s account twice. Users have told the BBC they believe Twitter has a “highly inconsistent stand” on issues such as hate speech. In contrast, they argue Mastodon’s anti-abuse systems are far more robust. The smaller social network’s name was (...)

    #Mastodon_ #Twitter #bot #journalisme #manipulation #modération #femmes #censure

  • Cognizant, partenaire de Facebook dans la modération de contenus, cesse sa collaboration avec le réseau social
    https://www.lalibre.be/economie/digital/cognizant-partenaire-de-facebook-dans-la-moderation-de-contenus-cesse-sa-col

    L’un des partenaires de Facebook dans la modération de contenus, Cognizant, a décidé de mettre fin à ses contrats dans le domaine, a confirmé jeudi un porte-parole du groupe spécialisé dans les services aux entreprises (conseil et informatique). « Nous avons établi que certaines de nos activités dans les contenus (...) n’étaient pas alignées avec notre vision stratégique et nous avons l’intention de les arrêter progressivement », a déclaré la firme. Le travail mené dans ce domaine consistait à "déterminer (...)

    #Facebook #travail #modération #Cognizant

  • A Facebook content moderation vendor is quitting the business after two Verge investigations
    https://www.theverge.com/2019/10/30/20940956/cognizant-facebook-content-moderation-exit-business-conditions-investigati

    Moderators complained of filthy offices and severe mental health strain The professional services firm Cognizant will exit the content moderation business after two Verge investigations into working conditions at sites dedicated to Facebook, the companies said today. Cognizant had hired thousands of moderators around the world to remove hate speech, terrorism, and other inappropriate content from platforms including Facebook, Google, and Twitter. “We have determined that certain content (...)

    #Cognizant #Facebook #travail #modération

  • Statement on Gab’s fork of Mastodon - Official Mastodon Blog
    https://blog.joinmastodon.org/2019/07/statement-on-gabs-fork-of-mastodon

    Mastodon is completely opposed to Gab’s project and philosophy, which seeks to monetize and platform racist content while hiding behind the banner of free speech. Mastodon remains committed to standing up against hate speech; for example, our new server covenant means we only list servers on joinmastodon.org that are committed to active moderation against racism, sexism and transphobia. The Mastodon community does not approve of their attempt to hijack our infrastructure and has already taken steps to isolate Gab and keep hate speech off the fediverse.

    Mastodon champions a free API ecosystem and as such all Mastodon apps are created and maintained by independent developers. However, Tusky (Android) and Toot! (iOS) have blacklisted Gab’s domains from their login screens. Gab users will not be able to use these apps to access or post from Gab. We do not currently know if any other apps are doing the same. Mastodon itself allows instance owners to decide which domains to block. Most servers in the fediverse are already blocking the Gab domains and we have done the same at mastodon.social.

    In addition to the isolation Gab can expect from the fediverse, it is clear that their design choices offer users no incentive to choose their platform. By paywalling basic features that are freely available on Mastodon, Gab puts itself at a disadvantage compared to any Mastodon instance. Mastodon remains non commercially structured and all features are available to users freely from the start.

    #Modération #Mastodon #Détournement #Logiciels_libres

  • Les règles de Facebook sont-elles les mêmes pour tout le monde ? Pas si vous êtes un politicien
    https://www.lemonde.fr/pixels/article/2019/09/25/facebook-les-messages-de-politiciens-violant-ses-regles-resteront-tout-de-me

    Les règles en vigueur sur Facebook sont-elles les mêmes pour tout le monde ? Non, a clarifié mardi 24 septembre son directeur des affaires publiques. Nick Clegg a expliqué, dans un discours sur la façon dont le réseau social se prépare à l’élection présidentielle américaine de 2020, que les messages des politiciens qui contreviennent à ses règles d’utilisation et de modération ne seraient pas supprimés. « Ce n’est pas notre rôle d’intervenir quand des politiciens s’expriment », a-t-il déclaré. A deux exceptions près : les publicités (messages sponsorisés) issus de ces politiciens devront, elles, respecter le règlement du réseau social ; et les posts « qui mènent à des violences dans le monde réel » seront, eux, supprimés.

    Si un politicien « fait une déclaration ou partage un message qui contrevient à notre règlement, nous l’autoriserons tout de même sur notre plate-forme si nous pensons qu’il est d’intérêt public de le lire et que cela surpasse les risques de nuisances », précise Nick Clegg. « Dorénavant, nous traiterons les discours des politiciens comme des contenus d’actualité qui devraient, en règle générale, être vus et entendus. »
    Manque de précisions

    Le discours de Nick Clegg a beau être long, il manque toutefois de précisions importantes : comment Facebook définit-il un politicien ? Et comment définit-il les posts « qui mènent à des violences dans le monde réel » ? Peu après le discours, le site spécialisé TechCrunch écrivait que Facebook, avec cette ligne de conduite, « pourrait devenir complice de la désinformation et de la malveillance que certains politiciens vont ainsi répandre ».

    Anticipant les critiques, Nick Clegg avait déclaré que c’était aux citoyens de se faire leur propre avis sur les déclarations des politiciens.

    « Je sais que certains diront que nous devrions aller plus loin. Que nous avons tort de permettre à des politiciens d’utiliser notre plate-forme pour dire de mauvaises choses ou faire de fausses déclarations. Mais imaginez l’inverse. Serait-il acceptable, pour la société, qu’une entreprise privée devienne l’arbitre autoproclamé de tout ce que disent les politiciens ? Je ne pense pas. »

    Facebook rejoint ainsi Twitter qui, embarrassé par des tweets de Donald Trump qui violent son règlement, avait fini par statuer que certains messages de politiciens, étant d’intérêt public, resteraient en ligne, même s’ils contrevenaient à ses règles.

    #Modération #Facebook #Politique

  • Newly Leaked Facebook Documents Show How The Company Sets Up Its Moderators To Fail
    https://www.buzzfeednews.com/article/katienotopoulos/facebook-moderators-are-set-up-to-fail

    For moderators at Cognizant and Accenture, this was yet another instance of the confusing, often poorly explained rules and convoluted communication between them and Facebook that make their job nearly impossible. In interviews with BuzzFeed News, former and current moderators described policing content for Facebook as a grueling job made worse by poor management, lousy communication, and whipsaw policy changes that made them feel set up to fail. Hundreds of pages of leaked documents about Facebook’s moderation policy were obtained by BuzzFeed News. The documents — which contain often ambiguous language, Byzantine charts, and an indigestible barrage of instructions — reveal just how daunting a moderator’s jobs can be.
    Facebook had made an exception for Reynolds’ pubes.

    Moderating a platform of over a billion people is a daunting task — particularly at a global level. It’s unreasonable to expect Facebook to seamlessly police all the content that people post on it.

    But Facebook is also a $533 billion company with nearly 40,000 employees. It’s had years to craft these policies. It has the incentives, the resources, and the time to get it right. And it’s trying. On Sept. 12, the company released an updated set of values that it said would guide the company’s community standards — including authenticity, safety, privacy, and dignity. In a statement to BuzzFeed News, a Facebook spokesperson said: “Content review on a global scale is complex and the rules governing our platform have to evolve as society does. With billions of pieces of content posted to our platforms every day, it’s critical these rules are communicated efficiently. That’s a constant effort and one we’re committed to getting right.”

    But no matter the lofty principles, the moderators who spoke to BuzzFeed News say the outsourcing system by which Facebook governs the content on its platform is fundamentally broken.

    For moderators struggling to do good work under conditions described as PTSD-inducing, Facebook’s mercurial and ever-evolving policies added another stressor. Many who requested anonymity for fear of retribution described to BuzzFeed News a systemic breakdown of communication between Facebook’s policymakers, the Facebook employees charged with communicating that policy, and the senior staff at the outsourced firms charged with explaining it to the moderation teams. Sometimes the outsourcing firms misinterpreted an update in policy. Sometimes Facebook’s guidance came far too late. Sometimes the company issued policy updates it subsequently changed or retracted entirely.

    “From an outside perspective, it doesn’t make sense,” a Facebook moderator at Accenture told BuzzFeed News. “But having worked the system for years, there’s some logic.”

    The real problem, moderators say, are the cases that don’t fall squarely under written policy or test the rules in unexpected ways. And there are many of them.

    “These edge cases are what cause problems with [moderators],” another moderator explained. “There’s no mechanism built in for edge cases; Facebook writes the policy for things that are going to capture the majority of the content, and rely on these clarifications to address the edge cases. But that requires quick communication.”

    But that’s only one facet of the issue. “There’s a second problem,” Gillespie explained. “Facebook pretends like there are clear policies and decisions at the top, that the challenge is simply how to convey them down the line. That’s not how content moderation works. The policies aren’t clear at the top, and moderators are constantly being tested and surprised by what users come up with.”

    Cognizant moderators receive four weeks of training on Facebook’s policies before they are put to work. Once training is over, they begin work by reporting to a different layer of Cognizant leadership called the policy team, which is responsible for interpreting Facebook’s rules. The company did not respond to questions about the training members of this team are given. Moderators who spoke to BuzzFeed News said the policy teams they work with typically consist of about six to seven people, including those who oversee the Spanish-language moderators.

    To be fair, there is a lot of nuance for Facebook to communicate when it comes to content moderation. That’s painfully apparent in the bimonthly policy updates the company distributes to outsourcers like Cognizant. These typically arrive as 10- to 20-page slideshow presentations and cover small tweaks in policy; flag new kinds of harassment, bullying, hate speech, and hate groups; and provide updates on content that should be preserved or removed. On their own, the updates seem to make sense. But taken together, they reveal the endless game of whack-a-mole Facebook plays with hate speech, bullying, crime, and exploitation — and the rat’s nest of policy tweaks and reversals that moderators, who are under extreme pressure to get high accuracy scores, are expected to navigate.

    “It does seem all over the place and impossible to align these guideline changes,” said a current moderator. “Say you’re reviewing a post where the user is clearly selling marijuana, but the post doesn’t explicitly mention it’s for sale. That doesn’t meet the guidelines to be removed. ... But then later an update will come up saying the ‘spirit of the policy’ should guide us to delete the post for the sale of drugs. Which is why no one can ever align what the spirit of the policy is versus what the policy actually states.”
    “Understanding and applying this policy is far harder than any class I took in college.”

    BuzzFeed News reviewed 18 such policy updates issued between 2018 and 2019; topics they addressed included sexual solicitation of minors, animal abuse, hate speech, and violence, among a host of other things. For example, an update about the sale of animals is tucked into another update that outlines broad changes to how Facebook moderates posts about eating disorders and self-harm. “It’s just not something $15/hour employees are equipped for,” said a former Cognizant moderator. “Understanding and applying this policy is far harder than any class I took in college.”

    On June 25, a heartbreaking photo of a Salvadoran father and toddler daughter who drowned while trying to enter the United States went viral. Within the hour, it was the top news story of the day; the next night, it was discussed in the Democratic presidential debate. But Facebook’s third-party moderators weren’t sure how to handle it.

    Facebook policy says that images depicting violent death should be “marked as disturbing,” which would put a blurred overlay on the image that a viewer would have to click through to see.
    ‘Well, you know, it’s drowning, but someone didn’t drown them, so why would it be a violent death?’”

    The question was whether their tragic drowning would be considered a “violent” death, per Facebook’s rules. “I overheard someone saying that day, ‘Well, you know, it’s drowning, but someone didn’t drown them, so why would it be a violent death?’” a moderator told BuzzFeed News.

    At 4 p.m. Arizona time, over 24 hours after the photo was first published, leaders at Cognizant posted their guidance: The photo should be considered a violent death and marked as disturbing. The next morning, leaders issued another update, reversing a newsworthy exception for a famous photo of a Syrian boy who had drowned in 2015. That photo should now also be marked as disturbing and receive the blurred overlay.

    “This is the outcome of a system that is fractured and stratified organizationally, geographically, structurally, etc.,” said Sarah T. Roberts, assistant professor of information studies at UCLA and author of Behind the Screen, a book about social media content moderators. “It’s not as if social media is the first industry to outsource. The tech industry get treated as if their cases are sui generis, but in reality they’re just corporate entities doing the same things other corporate entities have done. When a firm like H&M or Walmart has a global production chain, and a factory collapses in Bangladesh, they can reasonably claim that Gosh, we didn’t even know our clothes were made there because their supply chain is so fractured and convoluted. I’m not alleging that Facebook and other social media companies have deliberately set up that kind of structure. I don’t have any evidence to support that. But what I do know is that there are pitfalls in such a structure that one could reasonably foresee.”

    #Facebook #Modération

  • Les règles de Facebook sont-elles les mêmes pour tout le monde ? Pas si vous êtes un politicien
    https://www.lemonde.fr/pixels/article/2019/09/25/facebook-les-messages-de-politiciens-violant-ses-regles-resteront-tout-de-me

    En vue de l’élection présidentielle américaine de 2020, Facebook a expliqué qu’il ne supprimerait pas les posts des politiciens contraires à son règlement, au nom de l’intérêt public. Les règles en vigueur sur Facebook sont-elles les mêmes pour tout le monde ? Non, a clarifié mardi 24 septembre son directeur des affaires publiques. Nick Clegg a expliqué, dans un discours sur la façon dont le réseau social se prépare à l’élection présidentielle américaine de 2020, que les messages des politiciens qui (...)

    #FaceApp #Twitter #manipulation #modération #terms #discrimination

  • Twitter won’t autoban neo-Nazis because the filters may ban GOP politicians
    https://www.yahoo.com/entertainment/twitter-won-t-autoban-neo-193850606.html?guccounter=1&guce_referrer=aHR0cHM6L
    https://s.yimg.com/uu/api/res/1.2/SyZwkt2MtT1N0h_jktcK7A--~B/aD04MjE7dz0xMjAwO3NtPTE7YXBwaWQ9eXRhY2h5b24-/http://media.zenfs.com/en-US/homerun/consequence_of_sound_458/14ca129c3a55abc8d9131c7b9e9c5b26

    Is booting neo-Nazis from Twitter a simple process? Probably not. Can steps be taken at the very least to punish racist tweets? Probably, but not everyone will be happy with whose hate speech gets scrubbed as a result.

  • The Lonely Work of Moderating Hacker News | The New Yorker
    https://www.newyorker.com/news/letter-from-silicon-valley/the-lonely-work-of-moderating-hacker-news

    The site’s now characteristic tone of performative erudition—hyperrational, dispassionate, contrarian, authoritative—often masks a deeper recklessness. Ill-advised citations proliferate; thought experiments abound; humane arguments are dismissed as emotional or irrational. Logic, applied narrowly, is used to justify broad moral positions. The most admired arguments are made with data, but the origins, veracity, and malleability of those data tend to be ancillary concerns. The message-board intellectualism that might once have impressed V.C. observers like Graham has developed into an intellectual style all its own. Hacker News readers who visit the site to learn how engineers and entrepreneurs talk, and what they talk about, can find themselves immersed in conversations that resemble the output of duelling Markov bots trained on libertarian economics blogs, “The Tim Ferriss Show,” and the work of Yuval Noah Harari.

    People have been trying to outsmart one another on Internet forums for as long as there have been Internet forums. Still, Hacker News has an unusually wide influence. Landing a blog post or personal project on the front page is a badge of honor for many technologists, and the site has become a regional export: ninety per cent of its traffic comes from outside the Bay Area, and a third of its users are in Europe. The site is now a portal to tech culture for millions of people. At the same time, it has become a punch line and a punching bag for tech workers and engineers who see it as a locus of hubris, myopia, and exclusivity. A word that comes up frequently among its critics is “toxic.”

    Un exemple de travail de modération surnun site plutôt difficile à gérer.

    “It’s allowed in the sense that people are allowed to be wrong and/or ignorant because that’s what most of us are on most topics,” Gackle replied. “We can’t stop that any more than King Canute”—the ancient king of the North Sea who demonstrated the limits of his power by trying, in an ironic spirit, to command the sea—“could stop the waves. The important question is, what’s the best way to handle it if we want to have an internet forum that doesn’t suck? Experience teaches that the answer is: the patient supply of correct information by people who do know about a topic.”

    I thought about the relentless patience and good faith that this style of moderation work required. I pictured Bell and Gackle as swimmers in a resistance pool, doing slow crawls against the currents of online discourse. I hoped the project of Hacker News was worth the effort. I wondered if their work might show that tech really does need humanism—that better online communities can be built one relationship at a time. Then my eyes moved down the thread, where a third user had left a new comment. It read: “King Canute was supposed to stop the tide, you couch alluder.”

    #Hacker_News #Silicon_Valley #Modération #Forum

  • Une #Charte de #modération pour les médias sociaux de #Framasoft
    https://framablog.org/2019/07/18/une-charte-de-moderation-pour-les-medias-sociaux-de-framasoft

    Framasoft a grandi très vite. Peut-être un peu trop vite. Il y a quelques années, l’association était une bande de potes parmi tant d’autres, se retrouvant et discutant sur Framagora (l’ancêtre de Framacolibri, pour celleux qui s’en souviennent !). Puis nous … Lire la suite­­

    #Internet_et_société #Fediverse #safe_space

  • The Fight for the Future of YouTube | The New Yorker
    https://www.newyorker.com/tech/annals-of-technology/the-fight-for-the-future-of-youtube

    Earlier this year, executives at YouTube began mulling, once again, the problem of online speech. On grounds of freedom of expression and ideological neutrality, the platform has long allowed users to upload videos endorsing noxious ideas, from conspiracy theories to neo-Nazism. Now it wanted to reverse course. “There are no sacred cows,” Susan Wojcicki, the C.E.O. of YouTube, reportedly told her team. Wojcicki had two competing goals: she wanted to avoid accusations of ideological bias while also affirming her company’s values. In the course of the spring, YouTube drafted a new policy that would ban videos trafficking in historical “denialism” (of the Holocaust, 9/11, Sandy Hook) and “supremacist” views (lauding the “white race,” arguing that men were intellectually superior to women). YouTube planned to roll out its new policy as early as June. In May, meanwhile, it started preparing for Pride Month, turning its red logo rainbow-colored and promoting popular L.G.B.T.Q. video producers on Instagram.

    Francesca Tripodi, a media scholar at James Madison University, has studied how right-wing conspiracy theorists perpetuate false ideas online. Essentially, they find unfilled rabbit holes and then create content to fill them. “When there is limited or no metadata matching a particular topic,” she told a Senate committee in April, “it is easy to coördinate around keywords to guarantee the kind of information Google will return.” Political provocateurs can take advantage of data vacuums to increase the likelihood that legitimate news clips will be followed by their videos. And, because controversial or outlandish videos tend to be riveting, even for those who dislike them, they can register as “engaging” to a recommendation system, which would surface them more often. The many automated systems within a social platform can be co-opted and made to work at cross purposes.

    Technological solutions are appealing, in part, because they are relatively unobtrusive. Programmers like the idea of solving thorny problems elegantly, behind the scenes. For users, meanwhile, the value of social-media platforms lies partly in their appearance of democratic openness. It’s nice to imagine that the content is made by the people, for the people, and that popularity flows from the grass roots.

    In fact, the apparent democratic neutrality of social-media platforms has always been shaped by algorithms and managers. In its early days, YouTube staffers often cultivated popularity by hand, choosing trending videos to highlight on its home page; if the site gave a leg up to a promising YouTuber, that YouTuber’s audience grew. By spotlighting its most appealing users, the platform attracted new ones. It also shaped its identity: by featuring some kinds of content more than others, the company showed YouTubers what kind of videos it was willing to boost. “They had to be super family friendly, not copyright-infringing, and, at the same time, compelling,” Schaffer recalled, of the highlighted videos.

    Today, YouTube employs scores of “partner managers,” who actively court and promote celebrities, musicians, and gamers—meeting with individual video producers to answer questions about how they can reach bigger audiences,

    Last year, YouTube paid forty-seven ambassadors to produce socially conscious videos and attend workshops. The program’s budget, of around five million dollars—it also helps fund school programs designed to improve students’ critical-thinking skills when they are confronted with emotionally charged videos—is a tiny sum compared to the hundreds of millions that the company reportedly spends on YouTube Originals, its entertainment-production arm. Still, one YouTube representative told me, “We saw hundreds of millions of views on ambassadors’ videos last year—hundreds of thousands of hours of watch time.” Most people encountered the Creators for Change clips as automated advertisements before other videos.

    On a channel called AsapScience, Gregory Brown, a former high-school teacher, and his boyfriend, Mitchell Moffit, make animated clips about science that affects their viewers’ everyday lives; their most successful videos address topics such as the science of coffee or masturbation. They used their Creators for Change dollars to produce a video about the scientifically measurable effects of racism, featuring the Black Lives Matter activist DeRay Mckesson. While the average AsapScience video takes a week to make, the video about racism had taken seven or eight months: the level of bad faith and misinformation surrounding the topic, Brown said, demanded extra precision. “You need to explain the study, explain the parameters, and explain the result so that people can’t argue against it,” he said. “And that doesn’t make the video as interesting, and that’s a challenge.” (Toxic content proliferates, in part, because it is comparatively easy and cheap to make; it can shirk the burden of being true.)

    One way to make counterspeech more effective is to dampen the speech that it aims to counter. In March, after a video of a white-supremacist mass shooting at a mosque in Christchurch, New Zealand, went viral, Hunter Walk, a former YouTube executive, tweeted that the company should protect “freedom of speech” but not “freedom of reach.” He suggested that YouTube could suppress toxic videos by delisting them as candidates for its recommendation engine—in essence, he wrote, this would “shadowban” them. (Shadow-banning is so-called because a user might not know that his reach has been curtailed, and because the ban effectively pushes undesirable users into the “shadows” of an online space.) Ideally, people who make such shadow-banned videos could grow frustrated by their limited audiences and change their ways; videos, Walk explained, could be shadow-banned if they were linked to by a significant number of far-right Web havens, such as 8chan and Gab. (Walk’s tweets, which are set to auto-delete, have since disappeared.)

    Shadow-banning is an age-old moderation tool: the owners of Internet discussion forums have long used it to keep spammers and harassers from bothering other users. On big social-media platforms, however, this kind of moderation doesn’t necessarily focus on individuals; instead, it affects the way that different kinds of content surface algorithmically. YouTube has published a lengthy list of guidelines that its army of raters can use to give some types of content—clips that contain “extreme gore or violence, without a beneficial purpose,” for example, or that advocate hateful ideas expressed in an “emotional,” “polite,” or even “academic-sounding” way—a low rating. YouTube’s A.I. learns from the ratings to make objectionable videos less likely to appear in its automated recommendations. Individual users won’t necessarily know how their videos have been affected. The ambiguities generated by this system have led some to argue that political shadow-banning is taking place. President Trump and congressional Republicans, in particular, are alarmed by the idea that some version of the practice could be widely employed against conservatives. In April, Ted Cruz held a Senate subcommittee hearing called “Stifling Free Speech: Technological Censorship and the Public Discourse.” In his remarks, he threatened the platforms with regulation; he also brought in witnesses who accused them of liberal bias. (YouTube denies that its raters evaluate recommendations along political lines, and most experts agree that there is no evidence for such a bias.)

    Engineers at YouTube and other companies are hesitant to detail their algorithmic tweaks for many reasons; among them is the fact that obscure algorithms are harder to exploit. But Serge Abiteboul, a computer-science professor who was tasked by the French government to advise legislators on online hate speech, argues that verifiable solutions are preferable to hidden ones. YouTube has claimed that, since tweaking its systems in January, it has reduced the number of views for recommended videos containing borderline content and harmful misinformation by half. Without transparency and oversight, however, it’s impossible for independent observers to confirm that drop. “Any supervision that’s accepted by society would be better than regulation done in an opaque manner, by the platforms, themselves, alone,” Abiteboul said.

    The company featured videos it liked, banned others outright, and kept borderline videos off the home page. Still, it allowed some toxic speech to lurk in the corners. “We thought, if you just quarantine the borderline stuff, it doesn’t spill over to the decent people,” he recalled. “And, even if it did, it seemed like there were enough people who would just immediately recognize it was wrong, and it would be O.K.” The events of the past few years have convinced Schaffer that this was an error. The increasing efficiency of the recommendation system drew toxic content into the light in ways that YouTube’s early policymakers hadn’t anticipated. In the end, borderline content changed the tenor and effect of the platform as a whole. “Our underlying premises were flawed,” Schaffer said. “We don’t need YouTube to tell us these people exist. And counterspeech is not a fair burden. Bullshit is infinitely more difficult to combat than it is to spread. YouTube should have course-corrected a long time ago.”

    Some experts point out that algorithmic tweaks and counterspeech don’t change the basic structure of YouTube—a structure that encourages the mass uploading of videos from unvetted sources. It’s possible that this structure is fundamentally incompatible with a healthy civic discourse.

    There are commercial reasons, it turns out, for fighting hate speech: according to a survey by the Anti-Defamation League, fifty-three per cent of Americans reported experiencing online hate or harassment in 2018—rates of bigoted harassment were highest among people who identified as L.G.B.T.Q.—and, in response, many spent less time online or deleted their apps. A study released last year, by Google and Stanford University, identified toxic speech as a “rude, disrespectful, or unreasonable comment that is likely to make you leave a discussion.” As part of the Creators for Change program, YouTube has drawn up lesson plans for teachers which encourage students to “use video to find your voice and bring people together.” Teen-agers posting videos disputing toxic ideas are engaged users, too.

    I asked YouTube’s representatives why they didn’t use the Redirect Method to serve Creators for Change videos to people who search for hate speech. If they valued what their ambassadors had to say, why wouldn’t they disseminate those messages as effectively as possible? A representative explained that YouTube doesn’t want to “pick winners.” I brought that message back to Libby Hemphill, the computer-science professor. “I wish they would recognize that they already do pick winners,” she said. “Algorithms make decisions we teach them to make, even deep-learning algorithms. They should pick different winners on purpose.” Schaffer suggested that YouTube’s insistence on the appearance of neutrality is “a kind of Stockholm syndrome. I think they’re afraid of upsetting their big creators, and it has interfered with their ability to be aggressive about implementing their values.”

    Brown, for his part, wanted the platform to choose a point of view. But, he told me, “If they make decisions about who they’re going to prop up in the algorithm, and make it more clear, I think they would lose money. I think they might lose power.” He paused. “That’s a big test for these companies right now. How are they going to go down in history?”

    #YouTube #Modération #Régulation #Algorithme

  • The Underworld of Online Content Moderation | The New Yorker
    https://www.newyorker.com/news/q-and-a/the-underworld-of-online-content-moderation

    More than one hundred thousand people work as online content moderators, viewing and evaluating the most violent, disturbing, and exploitative content on social media. In a new book, “Behind the Screen,” Sarah T. Roberts, a professor of information studies at U.C.L.A., describes how this work shapes their professional and personal lives. Roberts, who conducted interviews with current and former content moderators, found that many work in Silicon Valley, but she also travelled as far as the Philippines, where some of the work has been outsourced. From her research, we learn about the emotional toll, low wages, and poor working conditions of most content moderation. Roberts never disputes that the work is crucial, but raises the question of how highly companies like Facebook and Google actually value it.

    I recently spoke by phone with Roberts. During our conversation, which has been edited for length and clarity, we discussed why finding and deleting offensive content is so tricky, why the job is so psychologically taxing, and the fixes that could help these workers and make them better at their jobs.

    The example I’ll give there is blackface. One person that I talked with said time and again he would see these videos that were filled with blackface, and he would go and argue with his supervisor, saying, “This is racist, we supposedly don’t allow racist or hate speech on our platform,” and he could get no traction. So the policies that were in place almost parodied themselves. They were so specific on the one hand and totally missing the forest for the trees on the other that you really had to embed yourself into the logic of the particular platform, and of course every platform has its own set of policies that it makes up.

    I think they cared enough that they had an entire apparatus devoted to the creating and designing and thinking through their policies, but what became clear to me through the course of this work was that the primary function of people doing commercial content moderation at these platforms was for brand management of the social-media platform itself. There would be a great side-benefit of keeping some bad stuff out of people’s way, or “cleaning up” the platform. But ultimately this was in the service of the brand, so that the brand could continue to function as a site where advertisers might want to come. And so I feel that this whole practice really laid that bare for me.

    What could be done to make the lives of these workers better, given that this is a job that needs to be done? And it needs to be done by smart people doing it well, who need to be very well-trained.

    This is a question that I’ve often posed to the workers themselves because I certainly am not possessed of the answers on my own. They want better pay. And I think we can read that in a lot of ways: they want better pay, they want to be respected. The nature of the way the work has been designed has been for the work to be secret. In many cases, their N.D.A. precludes them from even talking about the work. And the industry itself formulated the job as a source of shame in that sense, an industry source of shame. They were not eager to tout the efforts of these people, and so instead they hid them in the shadows. And, if nothing else, that was a business decision and a value judgment that could have gone another way. I think there’s still a chance that we could understand the work of these people in a different way and value it differently, collectively. And we could ask that the companies do that as well.

    There’s a rich history of labor organizing and worker-led, or worker-informed, movements, and in this case it might have to be region by region or specific to particular parts of the world. Or it could be something that crossed geographic and cultural boundaries where workers learn to identify with each other despite where they’re located.

    We talk a lot about automation. I think that’s what you’re saying about the tech companies. Their solution is always automation, or that’s what gets foregrounded, but, I think if you talk to anyone in the industry who’s in the know, the likelihood of humans going away anytime soon is pretty much nil. And we also need to support them with mental-health support. There are things we can do technologically to maybe make it less difficult to look at some of the content.

    Facebook, just about ten days or so ago, announced a major initiative where they were going to raise the base pay of all their content moderators. I was thrilled about that. On the other hand, we could read between the lines of such an announcement to learn that until now these people were probably making minimum wage or close to that. And we could also read the deafening silence from other firms that they haven’t done that and aren’t really willing to do that yet. Because, if they were, they’d be issuing a press release, too. We’ve got a ways to go on that.

    #Content_moderation #Modération #Médias_sociaux #Travail

  • Tout un programme : Pacifier Twitter, c’est le métier des « community managers » (Le Parisien, 08/03/2019)
    http://www.leparisien.fr/societe/pacifier-twitter-c-est-le-metier-des-community-managers-08-03-2019-802520

    [Introduction sur l’affaire du hijab de Décathlon finalement retiré du catalogue] (…) Fini le cliché du geek indolent, vissé à son écran pour amuser la galerie. Aujourd’hui, le « #CM » travaille en équipe, participe aux réunions stratégiques, gagne bien sa vie – jusqu’à 50 000 euros de salaire net par an. Cet homme-orchestre est à la fois communicant, publicitaire, conseiller de clientèle, spécialiste du marketing, parfois journaliste. Dans ce monde où prime l’instantanéité, il a rarement le temps de faire valider ses messages, et travaille donc sans filet.

    « Avant, les marques “publiaient”. Maintenant, elles se placent au coeur des conversations, essayant d’en tirer un maximum de profit ou évitant le plus possible d’entacher leur réputation », explique Jeremie Mani, patron de Netino by Webhelp, spécialiste de la modération (ou filtrage des messages) sur le Web, qui gère notamment les commentaires de la page Facebook du Parisien.

    Grèves, perturbations, accidents techniques… A la SNCF, les « CM » sont habitués à gérer les messages des passagers mécontents. Ils renseignent, voyageur par voyageur, répondent aux critiques en martelant quelques arguments simples et bien rodés, renvoient vers les bons interlocuteurs, et s’interdisent l’humour typique des réseaux sociaux, auquel ne sont généralement pas trop réceptifs les usagers coincés sur les quais des gares.

    Florentin Gonon, community manager de Digitick, site commercialisant des billets de spectacles, connaît des situations de crise moins intenses. « On aime ça », dit-il en souriant. Plus sérieusement, il dit appliquer une règle simple : un client mécontent (parce qu’il n’a pas reçu son billet ou parce qu’il juge un prix trop élevé) partagera ses critiques avec plusieurs autres personnes. Il ne faut donc pas le laisser se plaindre. « Si on répond poliment à un message insultant, le ton change. L’insulte est souvent un appel à l’aide. »

    Ailleurs, parfois, cette posture est moins évidente, tant on redoute de tomber dans un bavardage oiseux et de ternir l’image de l’entreprise. Les médias embauchent parfois des journalistes pour animer leurs comptes sur Twitter et Facebook, qui peuvent compter des millions d’abonnés.

    Au « Monde », par exemple, on les appelle « SME », pour social media editor (éditeur des réseaux sociaux, en anglais). Ils ont une mission éditoriale, pour valoriser les articles des médias qui les emploient, mais aussi pour faire remonter à leur rédaction les réactions et préoccupations des internautes, et même certaines informations glanées sur les réseaux sociaux. Une façon d’installer un lien avec les lecteurs et d’augmenter l’audience des journaux, plutôt qu’une recherche de « buzz » et de polémiques stériles.

    Dans les eaux glacées du Net, risque-t-on de se noyer ? Beaucoup pensent le contraire, estimant que la publicité qu’entraînent les polémiques se révèle toujours payante. Yann Amiry, de Decathlon, pourra sûrement dire bientôt si cet axiome fonctionne. Lui, en tout cas, est passé de 3 000 à plus de 28 000 abonnés sur son compte Twitter personnel.

    #modération #médias_sociaux etc.

    • Intéressant !
      J’ai commencé à me questionner sur ce boulot quand la police a lancé ses premiers comptes twitter « vivant ». C’était assez percutant : de l’humour, de la dérision, là où tu ne l’attendais pas, et des scores qui ont très vite fait frémir d’envie pas mal d’entreprise. Ca s’est un peu calmé côté humour mais ils n’hésitent pas à interagir avec les gens... Voir https://twitter.com/PoliceNationale/with_replies
      Je crois qu’ils se sont basés sur des CM d’unités de flics américains. Puis les marques s’y sont engouffrées. J’veux dire elles le faisaient déjà avant, mais la plupart étaient, effectivement, timorées, allant au max sur le terrain du quotidien ou des trucs et astuces, etc. Jamais dans la polémique ou la politique. Mais ces derniers temps, plusieurs polémiques gérées par des CM aux propos très « engagés » ont fait le buzz. Et ça m’a fait un peu bizarre de les voir portés au nues alors qu’en fait ils ont appliqué des stratégies déjà très réfléchies. Et sont très très très bien payés pour ça (cet article le prouve)
      Bref, la politique-marchande va se développer de plus en plus. Tant que le capitalisme y trouvera son intérêt.

  • A Privacy-Focused Vision for Social Networking | Mark Zuckerberg, Facebook, 6 mars 2019
    https://www.facebook.com/notes/mark-zuckerberg/a-privacy-focused-vision-for-social-networking/10156700570096634

    Over the last 15 years, Facebook and Instagram have helped people connect with friends, communities, and interests in the digital equivalent of a town square. But people increasingly also want to connect privately in the digital equivalent of the living room. As I think about the future of the internet, I believe a privacy-focused communications platform will become even more important than today’s open platforms. Privacy gives people the freedom to be themselves and connect more naturally, which is why we build social networks.

    Today we already see that private messaging, ephemeral stories, and small groups are by far the fastest growing areas of online communication. There are a number of reasons for this. Many people prefer the intimacy of communicating one-on-one or with just a few friends. People are more cautious of having a permanent record of what they’ve shared. And we all expect to be able to do things like payments privately and securely.

    Public social networks will continue to be very important in people’s lives — for connecting with everyone you know, discovering new people, ideas and content, and giving people a voice more broadly. People find these valuable every day, and there are still a lot of useful services to build on top of them. But now, with all the ways people also want to interact privately, there’s also an opportunity to build a simpler platform that’s focused on privacy first.

    I understand that many people don’t think Facebook can or would even want to build this kind of privacy-focused platform — because frankly we don’t currently have a strong reputation for building privacy protective services, and we’ve historically focused on tools for more open sharing. But we’ve repeatedly shown that we can evolve to build the services that people really want, including in private messaging and stories.

    I believe the future of communication will increasingly shift to private, encrypted services where people can be confident what they say to each other stays secure and their messages and content won’t stick around forever. This is the future I hope we will help bring about.
    We plan to build this the way we’ve developed WhatsApp: focus on the most fundamental and private use case — messaging — make it as secure as possible, and then build more ways for people to interact on top of that, including calls, video chats, groups, stories, businesses, payments, commerce, and ultimately a platform for many other kinds of private services.

    This privacy-focused platform will be built around several principles:
    Private interactions. People should have simple, intimate places where they have clear control over who can communicate with them and confidence that no one else can access what they share.
    Encryption. People’s private communications should be secure. End-to-end encryption prevents anyone — including us — from seeing what people share on our services.

    Reducing Permanence. People should be comfortable being themselves, and should not have to worry about what they share coming back to hurt them later. So we won’t keep messages or stories around for longer than necessary to deliver the service or longer than people want them.

    Safety. People should expect that we will do everything we can to keep them safe on our services within the limits of what’s possible in an encrypted service.

    Interoperability. People should be able to use any of our apps to reach their friends, and they should be able to communicate across networks easily and securely.

    Secure data storage. People should expect that we won’t store sensitive data in countries with weak records on human rights like privacy and freedom of expression in order to protect data from being improperly accessed.

    Over the next few years, we plan to rebuild more of our services around these ideas. The decisions we’ll face along the way will mean taking positions on important issues concerning the future of the internet. We understand there are a lot of tradeoffs to get right, and we’re committed to consulting with experts and discussing the best way forward. This will take some time, but we’re not going to develop this major change in our direction behind closed doors. We’re going to do this as openly and collaboratively as we can because many of these issues affect different parts of society.

    Résumé en français : « Mark Zuckerberg veut recentrer Facebook sur les échanges privés » https://www.lesechos.fr/tech-medias/hightech/0600849596938-mark-zuckerberg-veut-recentrer-facebook-sur-les-echanges-priv

    • « Welcome to Mark Zuckerberg’s information ghetto », lis-je dans la « Fake Newsletter » de Buzzfeed :

      (…) More than anything, though, I think it’s a response to the central problem that has plagued Facebook for years: Its scale. More than two billion people log into it every month, all around the world. They upload and interact with more content than humanity ever conceived of creating.

      Zuckerberg and his leadership team may have come to the realization that they achieved a truly unmanageable scale.

      They need to find ways to offer people value (and keep them on them platform) while reducing the overall amount of what I’ll call Addressable Content. This is content that’s publicly accessible on Facebook and could require review by a content moderator, or be the subject of takedown requests from governments or other entities.

      Addressable Content costs Facebook money and can result in regulation, harm to moderators, public outcry, and lawsuits.

      Zuckerberg’s new focus will reduce the total amount of Addressable Content by enabling content that disappears, that is encrypted end to end, and that only reaches a small group of people.

      Facebook will still have huge amounts of public content, and it will always need moderators. But by shifting content production and interaction out of more public spaces on the platform, the company can get its costs and controversies under control. It can manage its scale, while still collecting a motherlode of data on its users and serving them ads.

      Zuck’s plan could be a great business solution, unlocking more growth for Facebook at a time when one can reasonably wonder how, without access to China, it can continue to grow.

      But it’s also a solution that will push all that false, conspiratorial, violent, harmful, and hateful content off into information ghettos where journalists, researchers, and watchdogs will have a much more difficult time finding it and calling it out. — Craig

      Encore des articles sur la #modération (une partie du #CM)

      The secret lives of Facebook moderators in America
      https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-

    • Facebook’s pivot to privacy is missing something crucial https://www.wired.com/story/facebook-zuckerberg-privacy-pivot

      Zuckerberg listed six privacy principles, but there was one glaring omission: He said nothing about how Facebook plans to approach data sharing and ad targeting in this privacy-focused future. The free flow of data between Facebook and third-party developers is, after all, the issue that caused the jaws of the national media to snap onto the company’s leg. One year ago this month, news broke that a man named Aleksandr Kogan had misappropriated the data of tens of millions of users and sent it to a shady political consulting firm called Cambridge Analytica. It soon became clear that Cambridge Analytica was not alone and that Facebook had allowed thousands of developers to collect data for years.

      The company’s loose policies on data collection over the years are also what allowed it to build one of the most successful advertising businesses in history. All the data the company collects helps advertisers segment and target people. And it’s the relentless pursuit of that data that has led to Facebook being accused of making inappropriate deals for data with device manufacturers and software partners. This is a history that Zuckerberg knows well, and one that he acknowledged in his post. “I understand that many people don’t think Facebook can or would even want to build this kind of privacy-focused platform—because frankly we don’t currently have a strong reputation for building privacy protective services,” he wrote.

  • The Shadow Workforce of Facebook’s Content Moderation
    http://nymag.com/intelligencer/2019/02/the-shadow-workforce-of-facebooks-content-moderation.html

    As in Omelas, however, the joyousness of Facebook’s hundreds of thousands of advertisers depends wholly on the misery of a small number of other people: its content moderators. For his article, Newton spoke with several current and former employees of Cognizant, a “professional services vendor” contracted by Facebook to moderate its platform, removing the content that violates Facebook’s terms of service. In practice, this can mean spending your days scrolling through post after post of graphic porn, hate speech, and videos of death and violence. “People develop severe anxiety while still in training,” Newton writes, “and continue to struggle with trauma symptoms long after they leave,” but are given minimal support and job stability — each employee gets nine “wellness time” minutes per day, to be used if they feel traumatized and need to stop moderating. Meanwhile, “the conspiracy videos and memes that they see each day gradually lead them to embrace fringe views.” For their trouble, they are paid $28,800 a year, around 12 percent of the average salaried Facebook employee’s total compensation of $240,000.
    Get unlimited access to Intelligencer and everything else New York.
    Learn More »

    The moderators sign nondisclosure agreements that prevent them from talking about what they’d done for Facebook — or even, apparently, that they’d worked for Facebook at all. This theoretically protects private Facebook user data from leaking out. But it also has the effect of hiding the 1,500 content moderators from the outside world, preventing them from even describing the difficulty of their jobs, let alone agitating for better working conditions. Even full-time Facebook employees are apparently unaware of the extent to which Facebook contracts out its content moderation, and the conditions under which that moderation is taking place, despite its importance. “Why do we contract out work that’s obviously vital to the health of this company and the products we build?” one employee asked on an internal company message board.

    Rather than address its various mounting content issues with dedicated staff hires, the company farmed out moderation work to contractors, needing to maintain a cost structure that relied on low labor costs, and believing that eventually an “engineering solution” could be developed to keep the platform clean and safe. This bargain has worked out well for Facebook, which by 2016 was raking in an incredible $600,000 per full-time employee in net profit. It has worked out rather less well for the rest of us — particularly the contactor moderators with PTSD-like symptoms. (Facebook’s profit margins have been thinning over the last two years, naturally, as it expands its “security” team, which includes moderators.)

    The idea that you can keep your labor costs low by relying on software automation, creating the eye-popping profit margins that venture capitalists approvingly call “software margins,” is a foundational belief of 21st-century Silicon Valley. Albergotti quotes the mantra COO Sheryl Sandberg brought to Facebook from Google: “People don’t scale.” And it’s true that there are some tasks — like selling and placing digital ads — that are more efficiently and profitably done by software programs. But there aren’t that many tasks that programs can do as well as human beings, and not many programs that can be automated without the help and work of humans. Which means that any company bragging about automated solutions is likely hiding a much larger shadow workforce supporting those solutions, like the one Facebook employs through Cognizant.

    Such arrangements are endlessly common in Silicon Valley. Magically convenient services and devices are often subsidized not just by money-burning investors but also by exploitative labor arrangements. Amazon purchases arrive quickly in part because the company’s warehouse workers are relentlessly tracked and don’t take bathroom breaks; Uber rides are cheap in part because the median hourly wage of an Uber driver is $10. Obviously, being a paid Uber driver is no closer to being a chained-up child than riding in an Uber is to being in paradise, but you can begin to understand the bargain being struck by the citizens of Omelas in Le Guin’s story.

    The truth is that “software margins” (or what investors hope will eventually be software margins) are rarely achieved solely through automation and innovation. Most Silicon Valley titans, especially the software giants that have arisen over the last two decades, have become adept at externalizing their costs. Users contribute content for free. Contractors work for cheap. The burden of moderating content has for the last ten years been borne by someone — in some cases under-compensated contractors, in some cases users moderating content themselves for free, in some cases the victims of abuse or harassment, and, in some cases, the public sphere as as whole. Just rarely Facebook. If Facebook’s shadow-workforce practices — which have been widely reported by journalists and studied by academics well before the Verge’s story this week, and which are no different than content-moderation practices on many social networks — are being singled out now, it may be because the platform’s conveniences no longer seem worth the full social cost.

    #Digital_Labor #Facebook #Modération #Externalisation

  • Paris-luttes.info, déjà 5 ans ! Et maintenant ?
    (quand l’équipe de Paris-luttes.info explique où en est le site, les choix politiques et en quoi consiste son rôle...)
    L’automne dernier, le site Paris-luttes.info (PLI) a soufflé ses 5 bougies. Le moment pour le collectif d’animation du site de tirer un bilan de ces 5 premières années et d’ouvrir quelques perspectives pour la suite du projet.
    https://paris-luttes.info/paris-luttes-info-deja-5-ans-et-11528

    On ne le rappellera jamais assez, Paris Luttes Info est un site coopératif, local, appartenant avant tout à ses lecteurs-rices et contributeurs-rices. En effet, contrairement à d’autres sites du paysage révolutionnaire français, il n y a pas de comité de rédaction sur Paris-Luttes.info. Le site a été conçu pour permettre la plus large expression des personnes en lutte en Ile-de-France ainsi que la diffusion des idées anticapitalistes, anti-autoritaires et révolutionnaires. Les articles publiés reflètent donc les propositions d’articles des militant.e.s locaux ou des contributeurs et contributrices ponctuel.le.s et les thématiques qui les traversent. Ces positions sont par définitions variées, parfois antagonistes.

    ...

    Ces derniers chiffres concernant la présence de PLI sur les réseaux sociaux méritent une importante précision : si cette présence permet d’augmenter l’audience du site, le projet de Paris-luttes est en revanche à l’exact opposé d’une simple page ou compte twitter militant.
    Le site est en effet hébergé sur un serveur autonome permettant de relativement bien préserver l’anonymat des personnes venant publier. Aucune donnée personnelle n’est demandée ni conservée, encore moins monétisée. Au sein du réseau Mutu, l’infrastructure technique tout comme l’animation des sites repose uniquement sur l’action militante.
    Si jamais facebook pour une raison ou pour une autre venait à supprimer notre page, le site continuerait toujours d’exister, les articles resteraient en ligne et les contributeurs-rices pourraient toujours venir publier.

    #medialibre #medias_libres #automedia #Mutu #moderation #administration #gestion

    • Sur le sujet de la #modération / #administration et politique de #gestion aussi, ce billet de Olivier Ertzscheid : Le professeur et le processeur. La modération est une ponctuation.
      https://www.affordance.info/mon_weblog/2019/02/la-moderation-est-une-ponctuation.html

      Une enquête édifiante de The Verge vient une nouvelle fois pointer les conditions de travail d’extrême violence psychologique de ces modérateurs qui bossent (notamment) pour Facebook sur le territoire américain. Elle s’ajoute aux travaux universitaires dénonçant l’exploitation des travailleurs du clic qu’ils soient ou non liés à des questions de modération (dont ceux pionniers d’Antonio Casilli), ainsi qu’au documentaire là encore édifiant sur les conditions de travail de modérateurs aux Philippines : « The Cleaners ».

      Dans le Financial Times on apprend que #Facebook rejoint #Amazon et #Google dans un programme ayant pour vocation de doper encore davantage la capacité des processeurs informatiques associés à de l’intelligence artificielle, notamment pour répondre aux immenses ressources que nécessite la modération en temps-réel de contenus vidéos.

      #GAFA #GAFAM

    • Article réaliste sur les conditions de travail des modérateurs avec des spécificités qui semblent être des spécificités américaines ou propres à l’employeur.
      En Allemagne la vidéo qui choque tous les stagiaires est une vidéo de zoophiles, il y a aussi des scènes de meurtres ritualisées comme les exécutions ISIS mais rien d’aussi traumatisant que la vidéo qui est décrite ici.
      Le but est quand même que les modérateurs aillent au bout de leur parcours d’apprentissage.
      Une fois en poste, le travail commence par le traitement de collections types et se poursuit par du shadowing actif et passif. La montée en horreur est quasi immédiate mais accompagnée.
      Il faut garder à l’esprit que c’est un job qui ne requiert aucune compétence. La publicité des conditions rend le recrutement plus difficile et élargit le type des candidats éligibles.
      Des gens qui sont dans des situations économiques plus fragiles, plus de femmes et plus de minorités et des candidats plus agés ^^.

      Après que ce soit un taff qui rende les modérateurs complotistes j’ai comme un doute, je pense que le terrain était déjà très favorable.

      Quand un « collègue » parle de quartiers islamistes en France... FB ou BFM ?

      « Du coup illes suppriment toujours les trucs violents et porn, mais ne font rien sur ces contenus complotistes. » Ca par contre est un non sens, tous travail consiste à appliquer une policy battit par FB, le complotisme n’y figure pas et dans l’exemple cité par l’article, les autistes ne représente pas une catégorie ou un groupe protégé. Arrêtons de croire que les modérateurs sont en mode freestyle.

    • Bon je crois je veux continuer de tout ignorer du monde dépeint dans cet article.

      Je suis arrivé jusqu’à

      “Autistic people should be sterilized” seems offensive to him, but it stays up as well. Autism is not a “protected characteristic” the way race and gender are, and so it doesn’t violate the policy. (“Men should be sterilized” would be taken down.)

      qui a agi comme une limite à ne pas dépasser.

      Pendant la lecture des deux tiers de cet article je n’ai pas cessé de me demander pourquoi est-ce qu’une telle tâche de modération (avec des critères aussi tordus) ne pouvait pas être, en fait gérer par de l’intelligence artificielle. Il ne me semble pas qu’un robot pourrait faire pire que l’exemple cité plus haut.

    • @philippe_de_jonckheere Tout simplement parsque toutes les informations doivent au préalable être « nettoyées » et formalisées. Les algorithmes sont encore incapables de prendre certaines décisions. Ce qui veut que de plus en plus l’action humaine va disparaitre au fur et à mesure de l’avancée algorithmique ce qui a mon sens est une mauvaise nouvelle. Le jour ou la modération ne sera que le fait de robot, bonjour pour avoir la moindre information sur la cuisine interne de FB.
      L’activité interne est moins signe de transparence que possibilté de fuites.
      Et puis :
      « Vers l’automatisation de la #Censure politique »
      https://seenthis.net/messages/762211

      D. Dalton, rapporteur sur le règlement antiterroriste, est sur le point d’autoriser la #Censure de masse
      https://seenthis.net/messages/755670

      Délégation de la censure aux géants du Web
      https://www.laquadrature.net/censureterro

      Abécédaire de la société de surveillance
      https://seenthis.net/messages/756098
      Qu’en sera t’il des relations FB avec des organismes bancaires et assureurs.

    • N’ayant jamais foutu les pieds sur cette saloperie de Facebook, en fait je m’en fous pas mal. Et pour ma part pour trouver quelqu’un intérêt que ce soit à Facebook, il faut déjà avoir une bonne part de soi robotisée. Un peu plus, un peu moins. Je suis nettement plus inquiet à propos des personnes qui doivent travailler à ce que tu appelles nettoyage que je ne le serais jamais pour un ou une utilisatrice de Facebook.

    • ❝Bob Duncan, qui supervise les opérations de modération de contenu de Cognizant en Amérique du Nord, explique que les recruteurs expliquent soigneusement la nature graphique du poste aux candidats. « Nous partageons des exemples du genre de choses que vous pouvez voir... pour qu’ils aient une compréhension », dit-il. « L’intention de tout cela est de s’assurer que les gens le comprennent. Et s’ils estiment que le travail ne leur convient pas, ils peuvent prendre les décisions qui s’imposent. »

      Entretien 5 mn.

  • De la #modération : #Enjeux, limites, remèdes
    http://www.internetactu.net/2019/02/22/de-la-moderation-enjeux-limites-remedes

    Le dernier livre du chercheur Tarleton Gillespie (@TarletonG, blog), Custodians of the internet (Les gardiens de l’internet, 2018, Yale University Press, non traduit) livre une plongée très documentée dans le monde de la modération des #plateformes des grands réseaux sociaux… et offre bien des prises pour comprendre les enjeux ce (...)

    #Articles #Débats #censure

  • Plongée au cœur du Facebook des « gilets jaunes »
    https://www.lemonde.fr/les-decodeurs/article/2019/01/30/plongee-au-c-ur-du-facebook-des-gilets-jaunes_5416440_4355770.html

    C’est une France qui ne manifeste pas spécialement de pensée raciste, homophobe ou antisémite, et se réclame plus volontiers de Coluche que de n’importe quel parti politique. C’est une France qui nourrit un sentiment de défiance, voire de ressentiment profond pour les « élites » de tous bords. C’est une France qui se sent vulnérable et injustement traitée, que ce soit par les forces de l’ordre, Emmanuel Macron ou les chaînes d’information. Et qui verse facilement dans un sentiment de persécution et dans une certaine forme de complotisme.

    Pour tenter de saisir la pensée des « gilets jaunes », nous avons réuni et analysé les deux cents publications les plus partagées au sein des différents groupes Facebook de la mouvance, depuis sa naissance jusqu’au 22 janvier.

    Au total, ces publications ont été partagées près de 6,9 millions de fois. La plus populaire d’entre elles a réuni à elle seule 340 000 partages et présente, ironiquement, une image qui aurait été « censurée par Facebook », selon l’auteur du message. L’intérêt de ce corpus est qu’il donne une vision des sujets qui rassemblent le plus d’internautes qui se revendiquent « gilets jaunes » en ligne, et permet d’appréhender les idées qui font consensus dans le mouvement.

    #Facebook #Gilets_jaunes

    • MÉTHODOLOGIE
      Pour réaliser cette étude, nous avons répertorié les 200 publications les plus partagées sur Facebook dans un ensemble de 204 groupes de « gilets jaunes » entre début octobre et le 22 janvier, à l’aide de l’outil d’analyse Crowdtangle. Nous les avons ensuite consultées une par une, afin d’en étudier le fond comme la forme. Lorsque cela été possible, nous avons évalué la véracité des faits qui y sont présentés.
      Les données utilisées dans le cadre de cet article sont consultables ici.
      –-------------

      Après analyse, quatre grandes thématiques se dégagent de ce grand déversoir de frustrations. Elles se répondent, parfois se chevauchent, et souvent s’alimentent les unes les autres. Sans grande surprise, viennent d’abord les messages sur la mobilisation en elle-même et les instantanés de manifestations.

      Les #violences_policières sont vite devenues un sujet majeur au sein du mouvement
      Mais juste derrière, vient ce qui est rapidement devenu le grand sujet de discussion : la dénonciation de la #répression du mouvement, qu’elle s’appuie sur des faits avérés ou fantasmés. Dans ce contexte, le discours anti-élite et les #revendications précises de la mouvance sont finalement relégués au second plan.

      La répression du mouvement, sujet majeur de partage chez les "gilets jaunes"

      Parmi un ensemble de 200 messages publiés dans plus de 200 #groupes_Facebook avant le 22 janvier 2019.
      (graphique sous €)
      Autre élément intéressant dont nous avons pu mesurer l’ampleur : 35 de ces 200 messages n’étaient plus en ligne le 23 janvier, soit environ un sur cinq. Il s’agit de messages qui ont pu être modérés par les groupes Facebook en question, supprimés par leurs auteurs ou retirés par la plate-forme lorsqu’ils contrevenaient à ses conditions d’utilisation.

      La mobilisation jaune : fierté et #solidarité
      Il existe un très fort sentiment d’appartenance à la cause « jaune », qui se confond souvent avec une représentation idéalisée du #peuple. La part principale des posts les plus populaires porte sur la dimension massive de leur propre mouvement, soit pour l’alimenter, soit pour s’en féliciter, soit pour le relancer.

      Cela passe tout d’abord par des messages d’organisation, souvent rudimentaires. Ici, des #appels à bloquer un sous-traitant de la Bourse de Paris ou le marché de Rungis. Là, des appels à la solidarité, souvent lancés en direction des routiers, des motards, des chômeurs ou de figures du mouvement. A noter que si la volonté de paralyser le pays est explicite, les appels à la violence ne sont pas populaires à l’échelle du mouvement, d’autant qu’au fil des semaines, on a pu constater une #modération des propos à caractère violent, raciste ou conspirationniste. En 200 messages, nous n’avons ainsi recensé, encore en ligne à ce jour, qu’une seule glorification des violences contre les forces de l’ordre, et une invitation à mettre le « bordel » lors de la Saint-Sylvestre.


      La vidéo montrant la banda des « gilets jaunes » interprétant « Dans les yeux d’Emilie », au péage de l’autoroute A 64, à Pau (Pyrénées-Atlantiques), postée le 24 novembre. SAISIE D’ECRAN /FACEBOOK
      A travers leurs groupes, les sympathisants témoignent surtout avec enthousiasme du sentiment de faire corps, de faire masse. Photos de foule en jaune, appels à se compter, chansons ou clips louant le mouvement, partage de chiffres flatteurs des mobilisations, vidéos et photos de manifestants à l’étranger illustrent cette « fierté jaune », dont la mise en scène emprunte aussi bien à l’iconographie des révolutions françaises qu’à la musique populaire – de la guinguette au rap.

      La « répression » : entre violences avérées et théories du complot

      Dans cet imaginaire, face au mouvement populaire et pacifique des « gilets jaunes » se dresse une « forteresse d’Etat » qui tenterait d’écraser la révolte comme dans les pires dictatures. Et ce, avec la complicité des médias. C’est en tout cas ce que décrivent les nombreux messages fustigeant les méthodes employées par le gouvernement depuis le 17 novembre.

      Les « gilets jaunes » considèrent cette #violence_d’Etat comme injustifiée. Ils expliquent les débordements du mouvement par des théories aux accents conspirationnistes. Les dégradations lors de certaines manifestations ? Forcément la faute à des policiers déguisés en casseurs pour décrédibiliser le mouvement – une théorie qui n’a pas été avérée à ce jour. Des voitures saccagées à Paris ? De faux véhicules, sans immatriculation. Une mobilisation qui recule au fil des semaines ? La faute à de prétendus [ben voyons : contrôles des accès à l’Idf et aux villes et arrestations massives] barrages sur l’autoroute qui auraient empêché les manifestants de se rendre aux rassemblements.

      « On n’a plus le droit de reculer, maintenant »
      Parallèlement, dès les premiers rassemblements, la « jaunosphère » relaie massivement les photos et vidéos de ses « frères » aux visages tuméfiés, d’une femme âgée au bord de l’évanouissement ou de policiers frappant un « gilet jaune » par surprise. Dès le 29 novembre, un mot d’ordre soude la foule numérique :
      « On a plus le droit de reculer maintenant, pour tous ces gens décédés, blessés gravement, tabassés gratuitement… »
      Il est toujours délicat d’interpréter ces scènes, puisqu’il s’agit souvent de courts extraits, voire d’instantanés de situations beaucoup plus complexes, quand ce ne sont pas des clichés des blessures des contestataires a posteriori. Un constat d’ensemble s’impose tout de même : la quasi-totalité des images de personnes blessées que nous avons analysées nous sont apparues soit authentiques, soit invérifiables. Deux exceptions tout de même :
      la rumeur – infondée – d’un homme tué en direct à la télévision ;
      une vidéo qui compile des violences policières, mais remontait en réalité aux manifestations contre la loi travail en 2016.

      L’abondance des exemples entretient un #sentiment_d’injustice et de persécution, probant dans les commentaires. Face à ce qui est perçu comme un abus de pouvoir de la part des forces de l’ordre, les « gilets jaunes » partagent deux types de message, l’un faisant l’apologie de jets de cocktails molotov contre la police en Corse (un seul post de ce type, mais partagé près de 50 000 fois) ; l’autre suggérant le recours à des bombes de peinture, jugé plus ludique et plus pacifique (trois posts similaires, pour 105 000 partages au total).

      On trouve également des hommages appuyés aux « gilets jaunes » considérés comme « martyrisés » par le pouvoir. C’est le cas très médiatisé de Christophe Dettinger, le boxeur accusé d’avoir frappé des policiers lors de l’acte VIII du mouvement à Paris, présenté comme un héros ayant défendu des manifestants vulnérables. Ou de celui moins connu d’un Narbonnais condamné à un an de prison.


      Critique des #élites : Macron et le train de vie des #élus dans le collimateur
      Il y a les « gilets jaunes » d’un côté, et de l’autre eux, les nantis, les élus, les #médias, pour lesquels les membres de ces communautés nourrissent un profond ressentiment. Une personnalité concentre leur animosité : Emmanuel Macron. Le président de la République est la cible de nombreuses critiques et mises en scènes, dont certaines ordurières. On lui reproche, pêle-mêle, un exercice jugé monarchique du pouvoir, sa politique économique libérale, ses liens avec la finance… Sans oublier la hausse des prix des carburants : plusieurs photomontages le présentent ainsi comme « Miss Taxes 2018 » et appellent à sa démission.


      Mais au-delà du président, ce sont tous les élus qui sont visés. Trop rémunérés, pas assez actifs, déconnectés de la #vie_quotidienne des Français… Notre échantillon des coups de gueule des « gilets jaunes » est un bon condensé des procès faits aux représentants politiques. Certains sont fondés sur des faits – comme les avantages accordés aux députés français – ; d’autres, sur des rumeurs ou de fausses informations – comme l’affirmation selon laquelle ces mêmes députés seraient deux fois mieux payés que leurs homologues allemands ou britanniques.

      Les médias ne sont pas épargnés, à commencer par BFM-TV, qui fait l’objet d’une poignée de publications virulentes l’accusant de manipulation des chiffres ou des images. Mais ils sont souvent critiqués au détour d’une dénonciation plus large, comme des complices ou des idiots utiles du système.

      A la marge, une troisième catégorie plus étonnante apparaît : le showbiz, auquel les « gilets jaunes » reprochent de s’être détourné des #classes_populaires. Outre Franck Dubosc, deux posts très plébiscités accusent Les Enfoirés d’avoir tourné le dos aux plus démunis en ne soutenant pas les « gilets jaunes ». « Coluche aurait eu comme nous honte de vous », y lit-on. A l’inverse, ils ont été nombreux à faire circuler une chanson antipolitique de Patrick Sébastien (Ah si tu pouvais fermer ta gueule) et un sketch des Guignols de l’info sur les bénéfices de Total.

      Les revendications : #automobile, #justice sociale et #RIC

      Trois grands thèmes ressortent de notre analyse : un premier, historique, sur le traitement réservé aux automobilistes (péages, carburant, radars…), qui a été le ciment de la mobilisation à ses débuts. Un second, la #précarité, qui s’est ajouté dans un second temps. Puis un troisième, le référendum d’initiative citoyenne (RIC), qui s’est imposé progressivement dans les débats.

      Ainsi, dès le 28 novembre, un message posté par une internaute récolte près de 40 000 partages. Il liste six exigences : le retour de l’impôt sur la fortune, la suppression de la hausse de la CSG pour les retraités et les handicapés, la revalorisation du smic, l’annulation de la hausse du prix du carburant, la baisse des charges pour les petits commerçants et les artisans, et la réduction du nombre des élus et de leur train de vie.


      Ce message du 28 novembre, posté par une internaute, récolte près de 40 000 partages.

      Les « gilets jaunes » sont-ils « apolitiques », comme ils aiment à le clamer ? A parcourir leurs groupes Facebook, une chose est sûre : les discours et argumentaires des partis politiques traditionnels n’y tiennent qu’une place marginale, voire anecdotique. Sur deux cents messages, seuls trois relaient ainsi directement une personnalité politique : il s’agit de Marine Le Pen (RN), pour une vidéo par ailleurs mensongère sur le pacte de Marrakech, et de la députée de La France insoumise Caroline Fiat, qui apparaît deux fois pour ses prises de position en faveur des « gilets jaunes ».

      A l’inverse, bon nombre de thématiques chères à l’#extrême_droite ne sont peu ou pas abordées, à commencer par l’immigration. Tout comme la sortie de l’Union européenne, la pénalisation de l’interruption volontaire de grossesse ou l’abrogation de la loi sur le mariage pour tous.
      Si des sites et des figures de l’extrême droite ont parfois réussi à surfer sur le mouvement, c’est d’abord en dehors des communautés de « gilets jaunes ». La « pensée jaune » est sans doute elle aussi une « pensée complexe ».

    • Methodologie biaisée : 200 publies les plus partagées indiquent juste le (s) dénominateur(s) commun(s) entre plein de pensées différentes, pas la tendance politique. D’ailleurs la manière d’éluder la teneur des 35 (c’est beaucoup) publications supprimées est assez significative !

  • Emmanuel #Macron a annoncé, [début novembre] au Forum sur la gouvernance de l’Internet, la création d’un groupe de travail composé d’employés de #Facebook et de membres issus d’autorités françaises... pour lutter contre la haine sur le réseau social ?

    https://www.lemonde.fr/pixels/article/2018/11/12/l-etat-francais-et-facebook-vont-collaborer-pour-lutter-contre-la-haine-sur-

    #moderation et/ou #surveillance

  • À mesure qu’elles croissent, les plateformes deviennent-elles plus hostiles ?
    http://www.internetactu.net/a-lire-ailleurs/a-mesure-quelles-croissent-les-plateformes-deviennent-elles-plus-hosti

    Adam Clair (@awaytobuildit) dans le toujours aussi excellent magazine Real Life (@_reallifemag) expliquait qu’à mesure que les #médias_sociaux grossissaient, ils avaient tendance à devenir plus hostiles envers leurs utilisateurs. La croissance est le but des plateformes de partage de contenus. Pour attirer le plus grand nombre possible d’utilisateurs, elles (...)

    #A_lire_ailleurs #Services #désinformation #modération

  • The Internet of Garbage (v. 1.5) By Sarah Jeong, 80 pages
    https://www.theverge.com/2018/8/28/17777330/internet-of-garbage-book-sarah-jeong-online-harassment

    the internet is experienced completely differently by people who are
    visibly identifiable as a marginalized race or gender. It’s a nastier, more
    exhausting internet, one that gets even nastier and even more exhausting as
    intersections stack up.

    Harassment exists on two spectrums at once—one that is defined by
    behavior and one that is defined by content . The former is the better way to
    understand harassment, but the latter has received more attention in both
    popular discourse and academic treatments.

    #spam #harassment #moderation

    • Table of Contents
      Preface ............................................... 4
      Chapter One : The Internet Is Garbage .................. 6
      A Theory of Garbage .......................................... 8
      Spam as Garbage .............................................. 9
      Chapter Two : On Harassment ........................... 12
      Harassment in the News ...................................... 13
      About That Media Narrative . . . ............................ 18
      Is Harassment Gendered ? ..................................... 20
      Intersections of Harassment ................................. 21
      On Doxing ................................................... 24
      SWATting .................................................... 27
      Doxing Women ................................................ 28
      Concluding Thoughts on Doxing ............................... 30
      A Taxonomy of Harassment .................................... 32
      On Modern-Day Social Media Content Moderation ............... 35
      What Happens Before : Setting Norms .......................... 38
      Chapter Three : Lessons from Copyright Law ............ 40
      The Intersection of Copyright and Harassment ................ 41
      How the DMCA Taught Us All the Wrong Lessons ................ 44
      Turning Hate Crimes into Copyright Crimes ................... 47
      Chapter Four : A Different Kind of Free Speech ........ 51
      Stuck on Free Speech ........................................ 52
      The Marketplace of Ideas .................................... 54
      Social Media is a Monopoly .................................. 56
      Agoras and Responsibilities ................................. 59
      Chapter 5 : Spam : The Mother of All Garbage ........... 62
      What Is Spam ? ............................................... 63
      Spam and Free Speech ........................................ 66
      Harassment as Spam .......................................... 68
      Architectural Solutions to Harassment ....................... 70
      On the Size of the Internet ................................. 73
      Conclusion : The Two Futures of Anti-Harassment ....... 75

      –------

      Online anonymity isn’t responsible for the prevalence of horrible behavior online. Shitty moderation is. - Zoë Quinn, March 21st, 2015