• The Lonely Work of Moderating Hacker News | The New Yorker
    https://www.newyorker.com/news/letter-from-silicon-valley/the-lonely-work-of-moderating-hacker-news

    The site’s now characteristic tone of performative erudition—hyperrational, dispassionate, contrarian, authoritative—often masks a deeper recklessness. Ill-advised citations proliferate; thought experiments abound; humane arguments are dismissed as emotional or irrational. Logic, applied narrowly, is used to justify broad moral positions. The most admired arguments are made with data, but the origins, veracity, and malleability of those data tend to be ancillary concerns. The message-board intellectualism that might once have impressed V.C. observers like Graham has developed into an intellectual style all its own. Hacker News readers who visit the site to learn how engineers and entrepreneurs talk, and what they talk about, can find themselves immersed in conversations that resemble the output of duelling Markov bots trained on libertarian economics blogs, “The Tim Ferriss Show,” and the work of Yuval Noah Harari.

    People have been trying to outsmart one another on Internet forums for as long as there have been Internet forums. Still, Hacker News has an unusually wide influence. Landing a blog post or personal project on the front page is a badge of honor for many technologists, and the site has become a regional export: ninety per cent of its traffic comes from outside the Bay Area, and a third of its users are in Europe. The site is now a portal to tech culture for millions of people. At the same time, it has become a punch line and a punching bag for tech workers and engineers who see it as a locus of hubris, myopia, and exclusivity. A word that comes up frequently among its critics is “toxic.”

    Un exemple de travail de modération surnun site plutôt difficile à gérer.

    “It’s allowed in the sense that people are allowed to be wrong and/or ignorant because that’s what most of us are on most topics,” Gackle replied. “We can’t stop that any more than King Canute”—the ancient king of the North Sea who demonstrated the limits of his power by trying, in an ironic spirit, to command the sea—“could stop the waves. The important question is, what’s the best way to handle it if we want to have an internet forum that doesn’t suck? Experience teaches that the answer is: the patient supply of correct information by people who do know about a topic.”

    I thought about the relentless patience and good faith that this style of moderation work required. I pictured Bell and Gackle as swimmers in a resistance pool, doing slow crawls against the currents of online discourse. I hoped the project of Hacker News was worth the effort. I wondered if their work might show that tech really does need humanism—that better online communities can be built one relationship at a time. Then my eyes moved down the thread, where a third user had left a new comment. It read: “King Canute was supposed to stop the tide, you couch alluder.”

    #Hacker_News #Silicon_Valley #Modération #Forum

  • Une #Charte de #modération pour les médias sociaux de #Framasoft
    https://framablog.org/2019/07/18/une-charte-de-moderation-pour-les-medias-sociaux-de-framasoft

    Framasoft a grandi très vite. Peut-être un peu trop vite. Il y a quelques années, l’association était une bande de potes parmi tant d’autres, se retrouvant et discutant sur Framagora (l’ancêtre de Framacolibri, pour celleux qui s’en souviennent !). Puis nous … Lire la suite­­

    #Internet_et_société #Fediverse #safe_space

  • The Fight for the Future of YouTube | The New Yorker
    https://www.newyorker.com/tech/annals-of-technology/the-fight-for-the-future-of-youtube

    Earlier this year, executives at YouTube began mulling, once again, the problem of online speech. On grounds of freedom of expression and ideological neutrality, the platform has long allowed users to upload videos endorsing noxious ideas, from conspiracy theories to neo-Nazism. Now it wanted to reverse course. “There are no sacred cows,” Susan Wojcicki, the C.E.O. of YouTube, reportedly told her team. Wojcicki had two competing goals: she wanted to avoid accusations of ideological bias while also affirming her company’s values. In the course of the spring, YouTube drafted a new policy that would ban videos trafficking in historical “denialism” (of the Holocaust, 9/11, Sandy Hook) and “supremacist” views (lauding the “white race,” arguing that men were intellectually superior to women). YouTube planned to roll out its new policy as early as June. In May, meanwhile, it started preparing for Pride Month, turning its red logo rainbow-colored and promoting popular L.G.B.T.Q. video producers on Instagram.

    Francesca Tripodi, a media scholar at James Madison University, has studied how right-wing conspiracy theorists perpetuate false ideas online. Essentially, they find unfilled rabbit holes and then create content to fill them. “When there is limited or no metadata matching a particular topic,” she told a Senate committee in April, “it is easy to coördinate around keywords to guarantee the kind of information Google will return.” Political provocateurs can take advantage of data vacuums to increase the likelihood that legitimate news clips will be followed by their videos. And, because controversial or outlandish videos tend to be riveting, even for those who dislike them, they can register as “engaging” to a recommendation system, which would surface them more often. The many automated systems within a social platform can be co-opted and made to work at cross purposes.

    Technological solutions are appealing, in part, because they are relatively unobtrusive. Programmers like the idea of solving thorny problems elegantly, behind the scenes. For users, meanwhile, the value of social-media platforms lies partly in their appearance of democratic openness. It’s nice to imagine that the content is made by the people, for the people, and that popularity flows from the grass roots.

    In fact, the apparent democratic neutrality of social-media platforms has always been shaped by algorithms and managers. In its early days, YouTube staffers often cultivated popularity by hand, choosing trending videos to highlight on its home page; if the site gave a leg up to a promising YouTuber, that YouTuber’s audience grew. By spotlighting its most appealing users, the platform attracted new ones. It also shaped its identity: by featuring some kinds of content more than others, the company showed YouTubers what kind of videos it was willing to boost. “They had to be super family friendly, not copyright-infringing, and, at the same time, compelling,” Schaffer recalled, of the highlighted videos.

    Today, YouTube employs scores of “partner managers,” who actively court and promote celebrities, musicians, and gamers—meeting with individual video producers to answer questions about how they can reach bigger audiences,

    Last year, YouTube paid forty-seven ambassadors to produce socially conscious videos and attend workshops. The program’s budget, of around five million dollars—it also helps fund school programs designed to improve students’ critical-thinking skills when they are confronted with emotionally charged videos—is a tiny sum compared to the hundreds of millions that the company reportedly spends on YouTube Originals, its entertainment-production arm. Still, one YouTube representative told me, “We saw hundreds of millions of views on ambassadors’ videos last year—hundreds of thousands of hours of watch time.” Most people encountered the Creators for Change clips as automated advertisements before other videos.

    On a channel called AsapScience, Gregory Brown, a former high-school teacher, and his boyfriend, Mitchell Moffit, make animated clips about science that affects their viewers’ everyday lives; their most successful videos address topics such as the science of coffee or masturbation. They used their Creators for Change dollars to produce a video about the scientifically measurable effects of racism, featuring the Black Lives Matter activist DeRay Mckesson. While the average AsapScience video takes a week to make, the video about racism had taken seven or eight months: the level of bad faith and misinformation surrounding the topic, Brown said, demanded extra precision. “You need to explain the study, explain the parameters, and explain the result so that people can’t argue against it,” he said. “And that doesn’t make the video as interesting, and that’s a challenge.” (Toxic content proliferates, in part, because it is comparatively easy and cheap to make; it can shirk the burden of being true.)

    One way to make counterspeech more effective is to dampen the speech that it aims to counter. In March, after a video of a white-supremacist mass shooting at a mosque in Christchurch, New Zealand, went viral, Hunter Walk, a former YouTube executive, tweeted that the company should protect “freedom of speech” but not “freedom of reach.” He suggested that YouTube could suppress toxic videos by delisting them as candidates for its recommendation engine—in essence, he wrote, this would “shadowban” them. (Shadow-banning is so-called because a user might not know that his reach has been curtailed, and because the ban effectively pushes undesirable users into the “shadows” of an online space.) Ideally, people who make such shadow-banned videos could grow frustrated by their limited audiences and change their ways; videos, Walk explained, could be shadow-banned if they were linked to by a significant number of far-right Web havens, such as 8chan and Gab. (Walk’s tweets, which are set to auto-delete, have since disappeared.)

    Shadow-banning is an age-old moderation tool: the owners of Internet discussion forums have long used it to keep spammers and harassers from bothering other users. On big social-media platforms, however, this kind of moderation doesn’t necessarily focus on individuals; instead, it affects the way that different kinds of content surface algorithmically. YouTube has published a lengthy list of guidelines that its army of raters can use to give some types of content—clips that contain “extreme gore or violence, without a beneficial purpose,” for example, or that advocate hateful ideas expressed in an “emotional,” “polite,” or even “academic-sounding” way—a low rating. YouTube’s A.I. learns from the ratings to make objectionable videos less likely to appear in its automated recommendations. Individual users won’t necessarily know how their videos have been affected. The ambiguities generated by this system have led some to argue that political shadow-banning is taking place. President Trump and congressional Republicans, in particular, are alarmed by the idea that some version of the practice could be widely employed against conservatives. In April, Ted Cruz held a Senate subcommittee hearing called “Stifling Free Speech: Technological Censorship and the Public Discourse.” In his remarks, he threatened the platforms with regulation; he also brought in witnesses who accused them of liberal bias. (YouTube denies that its raters evaluate recommendations along political lines, and most experts agree that there is no evidence for such a bias.)

    Engineers at YouTube and other companies are hesitant to detail their algorithmic tweaks for many reasons; among them is the fact that obscure algorithms are harder to exploit. But Serge Abiteboul, a computer-science professor who was tasked by the French government to advise legislators on online hate speech, argues that verifiable solutions are preferable to hidden ones. YouTube has claimed that, since tweaking its systems in January, it has reduced the number of views for recommended videos containing borderline content and harmful misinformation by half. Without transparency and oversight, however, it’s impossible for independent observers to confirm that drop. “Any supervision that’s accepted by society would be better than regulation done in an opaque manner, by the platforms, themselves, alone,” Abiteboul said.

    The company featured videos it liked, banned others outright, and kept borderline videos off the home page. Still, it allowed some toxic speech to lurk in the corners. “We thought, if you just quarantine the borderline stuff, it doesn’t spill over to the decent people,” he recalled. “And, even if it did, it seemed like there were enough people who would just immediately recognize it was wrong, and it would be O.K.” The events of the past few years have convinced Schaffer that this was an error. The increasing efficiency of the recommendation system drew toxic content into the light in ways that YouTube’s early policymakers hadn’t anticipated. In the end, borderline content changed the tenor and effect of the platform as a whole. “Our underlying premises were flawed,” Schaffer said. “We don’t need YouTube to tell us these people exist. And counterspeech is not a fair burden. Bullshit is infinitely more difficult to combat than it is to spread. YouTube should have course-corrected a long time ago.”

    Some experts point out that algorithmic tweaks and counterspeech don’t change the basic structure of YouTube—a structure that encourages the mass uploading of videos from unvetted sources. It’s possible that this structure is fundamentally incompatible with a healthy civic discourse.

    There are commercial reasons, it turns out, for fighting hate speech: according to a survey by the Anti-Defamation League, fifty-three per cent of Americans reported experiencing online hate or harassment in 2018—rates of bigoted harassment were highest among people who identified as L.G.B.T.Q.—and, in response, many spent less time online or deleted their apps. A study released last year, by Google and Stanford University, identified toxic speech as a “rude, disrespectful, or unreasonable comment that is likely to make you leave a discussion.” As part of the Creators for Change program, YouTube has drawn up lesson plans for teachers which encourage students to “use video to find your voice and bring people together.” Teen-agers posting videos disputing toxic ideas are engaged users, too.

    I asked YouTube’s representatives why they didn’t use the Redirect Method to serve Creators for Change videos to people who search for hate speech. If they valued what their ambassadors had to say, why wouldn’t they disseminate those messages as effectively as possible? A representative explained that YouTube doesn’t want to “pick winners.” I brought that message back to Libby Hemphill, the computer-science professor. “I wish they would recognize that they already do pick winners,” she said. “Algorithms make decisions we teach them to make, even deep-learning algorithms. They should pick different winners on purpose.” Schaffer suggested that YouTube’s insistence on the appearance of neutrality is “a kind of Stockholm syndrome. I think they’re afraid of upsetting their big creators, and it has interfered with their ability to be aggressive about implementing their values.”

    Brown, for his part, wanted the platform to choose a point of view. But, he told me, “If they make decisions about who they’re going to prop up in the algorithm, and make it more clear, I think they would lose money. I think they might lose power.” He paused. “That’s a big test for these companies right now. How are they going to go down in history?”

    #YouTube #Modération #Régulation #Algorithme

  • The Underworld of Online Content Moderation | The New Yorker
    https://www.newyorker.com/news/q-and-a/the-underworld-of-online-content-moderation

    More than one hundred thousand people work as online content moderators, viewing and evaluating the most violent, disturbing, and exploitative content on social media. In a new book, “Behind the Screen,” Sarah T. Roberts, a professor of information studies at U.C.L.A., describes how this work shapes their professional and personal lives. Roberts, who conducted interviews with current and former content moderators, found that many work in Silicon Valley, but she also travelled as far as the Philippines, where some of the work has been outsourced. From her research, we learn about the emotional toll, low wages, and poor working conditions of most content moderation. Roberts never disputes that the work is crucial, but raises the question of how highly companies like Facebook and Google actually value it.

    I recently spoke by phone with Roberts. During our conversation, which has been edited for length and clarity, we discussed why finding and deleting offensive content is so tricky, why the job is so psychologically taxing, and the fixes that could help these workers and make them better at their jobs.

    The example I’ll give there is blackface. One person that I talked with said time and again he would see these videos that were filled with blackface, and he would go and argue with his supervisor, saying, “This is racist, we supposedly don’t allow racist or hate speech on our platform,” and he could get no traction. So the policies that were in place almost parodied themselves. They were so specific on the one hand and totally missing the forest for the trees on the other that you really had to embed yourself into the logic of the particular platform, and of course every platform has its own set of policies that it makes up.

    I think they cared enough that they had an entire apparatus devoted to the creating and designing and thinking through their policies, but what became clear to me through the course of this work was that the primary function of people doing commercial content moderation at these platforms was for brand management of the social-media platform itself. There would be a great side-benefit of keeping some bad stuff out of people’s way, or “cleaning up” the platform. But ultimately this was in the service of the brand, so that the brand could continue to function as a site where advertisers might want to come. And so I feel that this whole practice really laid that bare for me.

    What could be done to make the lives of these workers better, given that this is a job that needs to be done? And it needs to be done by smart people doing it well, who need to be very well-trained.

    This is a question that I’ve often posed to the workers themselves because I certainly am not possessed of the answers on my own. They want better pay. And I think we can read that in a lot of ways: they want better pay, they want to be respected. The nature of the way the work has been designed has been for the work to be secret. In many cases, their N.D.A. precludes them from even talking about the work. And the industry itself formulated the job as a source of shame in that sense, an industry source of shame. They were not eager to tout the efforts of these people, and so instead they hid them in the shadows. And, if nothing else, that was a business decision and a value judgment that could have gone another way. I think there’s still a chance that we could understand the work of these people in a different way and value it differently, collectively. And we could ask that the companies do that as well.

    There’s a rich history of labor organizing and worker-led, or worker-informed, movements, and in this case it might have to be region by region or specific to particular parts of the world. Or it could be something that crossed geographic and cultural boundaries where workers learn to identify with each other despite where they’re located.

    We talk a lot about automation. I think that’s what you’re saying about the tech companies. Their solution is always automation, or that’s what gets foregrounded, but, I think if you talk to anyone in the industry who’s in the know, the likelihood of humans going away anytime soon is pretty much nil. And we also need to support them with mental-health support. There are things we can do technologically to maybe make it less difficult to look at some of the content.

    Facebook, just about ten days or so ago, announced a major initiative where they were going to raise the base pay of all their content moderators. I was thrilled about that. On the other hand, we could read between the lines of such an announcement to learn that until now these people were probably making minimum wage or close to that. And we could also read the deafening silence from other firms that they haven’t done that and aren’t really willing to do that yet. Because, if they were, they’d be issuing a press release, too. We’ve got a ways to go on that.

    #Content_moderation #Modération #Médias_sociaux #Travail

  • Tout un programme : Pacifier Twitter, c’est le métier des « community managers » (Le Parisien, 08/03/2019)
    http://www.leparisien.fr/societe/pacifier-twitter-c-est-le-metier-des-community-managers-08-03-2019-802520

    [Introduction sur l’affaire du hijab de Décathlon finalement retiré du catalogue] (…) Fini le cliché du geek indolent, vissé à son écran pour amuser la galerie. Aujourd’hui, le « #CM » travaille en équipe, participe aux réunions stratégiques, gagne bien sa vie – jusqu’à 50 000 euros de salaire net par an. Cet homme-orchestre est à la fois communicant, publicitaire, conseiller de clientèle, spécialiste du marketing, parfois journaliste. Dans ce monde où prime l’instantanéité, il a rarement le temps de faire valider ses messages, et travaille donc sans filet.

    « Avant, les marques “publiaient”. Maintenant, elles se placent au coeur des conversations, essayant d’en tirer un maximum de profit ou évitant le plus possible d’entacher leur réputation », explique Jeremie Mani, patron de Netino by Webhelp, spécialiste de la modération (ou filtrage des messages) sur le Web, qui gère notamment les commentaires de la page Facebook du Parisien.

    Grèves, perturbations, accidents techniques… A la SNCF, les « CM » sont habitués à gérer les messages des passagers mécontents. Ils renseignent, voyageur par voyageur, répondent aux critiques en martelant quelques arguments simples et bien rodés, renvoient vers les bons interlocuteurs, et s’interdisent l’humour typique des réseaux sociaux, auquel ne sont généralement pas trop réceptifs les usagers coincés sur les quais des gares.

    Florentin Gonon, community manager de Digitick, site commercialisant des billets de spectacles, connaît des situations de crise moins intenses. « On aime ça », dit-il en souriant. Plus sérieusement, il dit appliquer une règle simple : un client mécontent (parce qu’il n’a pas reçu son billet ou parce qu’il juge un prix trop élevé) partagera ses critiques avec plusieurs autres personnes. Il ne faut donc pas le laisser se plaindre. « Si on répond poliment à un message insultant, le ton change. L’insulte est souvent un appel à l’aide. »

    Ailleurs, parfois, cette posture est moins évidente, tant on redoute de tomber dans un bavardage oiseux et de ternir l’image de l’entreprise. Les médias embauchent parfois des journalistes pour animer leurs comptes sur Twitter et Facebook, qui peuvent compter des millions d’abonnés.

    Au « Monde », par exemple, on les appelle « SME », pour social media editor (éditeur des réseaux sociaux, en anglais). Ils ont une mission éditoriale, pour valoriser les articles des médias qui les emploient, mais aussi pour faire remonter à leur rédaction les réactions et préoccupations des internautes, et même certaines informations glanées sur les réseaux sociaux. Une façon d’installer un lien avec les lecteurs et d’augmenter l’audience des journaux, plutôt qu’une recherche de « buzz » et de polémiques stériles.

    Dans les eaux glacées du Net, risque-t-on de se noyer ? Beaucoup pensent le contraire, estimant que la publicité qu’entraînent les polémiques se révèle toujours payante. Yann Amiry, de Decathlon, pourra sûrement dire bientôt si cet axiome fonctionne. Lui, en tout cas, est passé de 3 000 à plus de 28 000 abonnés sur son compte Twitter personnel.

    #modération #médias_sociaux etc.

    • Intéressant !
      J’ai commencé à me questionner sur ce boulot quand la police a lancé ses premiers comptes twitter « vivant ». C’était assez percutant : de l’humour, de la dérision, là où tu ne l’attendais pas, et des scores qui ont très vite fait frémir d’envie pas mal d’entreprise. Ca s’est un peu calmé côté humour mais ils n’hésitent pas à interagir avec les gens... Voir https://twitter.com/PoliceNationale/with_replies
      Je crois qu’ils se sont basés sur des CM d’unités de flics américains. Puis les marques s’y sont engouffrées. J’veux dire elles le faisaient déjà avant, mais la plupart étaient, effectivement, timorées, allant au max sur le terrain du quotidien ou des trucs et astuces, etc. Jamais dans la polémique ou la politique. Mais ces derniers temps, plusieurs polémiques gérées par des CM aux propos très « engagés » ont fait le buzz. Et ça m’a fait un peu bizarre de les voir portés au nues alors qu’en fait ils ont appliqué des stratégies déjà très réfléchies. Et sont très très très bien payés pour ça (cet article le prouve)
      Bref, la politique-marchande va se développer de plus en plus. Tant que le capitalisme y trouvera son intérêt.

  • A Privacy-Focused Vision for Social Networking | Mark Zuckerberg, Facebook, 6 mars 2019
    https://www.facebook.com/notes/mark-zuckerberg/a-privacy-focused-vision-for-social-networking/10156700570096634

    Over the last 15 years, Facebook and Instagram have helped people connect with friends, communities, and interests in the digital equivalent of a town square. But people increasingly also want to connect privately in the digital equivalent of the living room. As I think about the future of the internet, I believe a privacy-focused communications platform will become even more important than today’s open platforms. Privacy gives people the freedom to be themselves and connect more naturally, which is why we build social networks.

    Today we already see that private messaging, ephemeral stories, and small groups are by far the fastest growing areas of online communication. There are a number of reasons for this. Many people prefer the intimacy of communicating one-on-one or with just a few friends. People are more cautious of having a permanent record of what they’ve shared. And we all expect to be able to do things like payments privately and securely.

    Public social networks will continue to be very important in people’s lives — for connecting with everyone you know, discovering new people, ideas and content, and giving people a voice more broadly. People find these valuable every day, and there are still a lot of useful services to build on top of them. But now, with all the ways people also want to interact privately, there’s also an opportunity to build a simpler platform that’s focused on privacy first.

    I understand that many people don’t think Facebook can or would even want to build this kind of privacy-focused platform — because frankly we don’t currently have a strong reputation for building privacy protective services, and we’ve historically focused on tools for more open sharing. But we’ve repeatedly shown that we can evolve to build the services that people really want, including in private messaging and stories.

    I believe the future of communication will increasingly shift to private, encrypted services where people can be confident what they say to each other stays secure and their messages and content won’t stick around forever. This is the future I hope we will help bring about.
    We plan to build this the way we’ve developed WhatsApp: focus on the most fundamental and private use case — messaging — make it as secure as possible, and then build more ways for people to interact on top of that, including calls, video chats, groups, stories, businesses, payments, commerce, and ultimately a platform for many other kinds of private services.

    This privacy-focused platform will be built around several principles:
    Private interactions. People should have simple, intimate places where they have clear control over who can communicate with them and confidence that no one else can access what they share.
    Encryption. People’s private communications should be secure. End-to-end encryption prevents anyone — including us — from seeing what people share on our services.

    Reducing Permanence. People should be comfortable being themselves, and should not have to worry about what they share coming back to hurt them later. So we won’t keep messages or stories around for longer than necessary to deliver the service or longer than people want them.

    Safety. People should expect that we will do everything we can to keep them safe on our services within the limits of what’s possible in an encrypted service.

    Interoperability. People should be able to use any of our apps to reach their friends, and they should be able to communicate across networks easily and securely.

    Secure data storage. People should expect that we won’t store sensitive data in countries with weak records on human rights like privacy and freedom of expression in order to protect data from being improperly accessed.

    Over the next few years, we plan to rebuild more of our services around these ideas. The decisions we’ll face along the way will mean taking positions on important issues concerning the future of the internet. We understand there are a lot of tradeoffs to get right, and we’re committed to consulting with experts and discussing the best way forward. This will take some time, but we’re not going to develop this major change in our direction behind closed doors. We’re going to do this as openly and collaboratively as we can because many of these issues affect different parts of society.

    Résumé en français : « Mark Zuckerberg veut recentrer Facebook sur les échanges privés » https://www.lesechos.fr/tech-medias/hightech/0600849596938-mark-zuckerberg-veut-recentrer-facebook-sur-les-echanges-priv

    • « Welcome to Mark Zuckerberg’s information ghetto », lis-je dans la « Fake Newsletter » de Buzzfeed :

      (…) More than anything, though, I think it’s a response to the central problem that has plagued Facebook for years: Its scale. More than two billion people log into it every month, all around the world. They upload and interact with more content than humanity ever conceived of creating.

      Zuckerberg and his leadership team may have come to the realization that they achieved a truly unmanageable scale.

      They need to find ways to offer people value (and keep them on them platform) while reducing the overall amount of what I’ll call Addressable Content. This is content that’s publicly accessible on Facebook and could require review by a content moderator, or be the subject of takedown requests from governments or other entities.

      Addressable Content costs Facebook money and can result in regulation, harm to moderators, public outcry, and lawsuits.

      Zuckerberg’s new focus will reduce the total amount of Addressable Content by enabling content that disappears, that is encrypted end to end, and that only reaches a small group of people.

      Facebook will still have huge amounts of public content, and it will always need moderators. But by shifting content production and interaction out of more public spaces on the platform, the company can get its costs and controversies under control. It can manage its scale, while still collecting a motherlode of data on its users and serving them ads.

      Zuck’s plan could be a great business solution, unlocking more growth for Facebook at a time when one can reasonably wonder how, without access to China, it can continue to grow.

      But it’s also a solution that will push all that false, conspiratorial, violent, harmful, and hateful content off into information ghettos where journalists, researchers, and watchdogs will have a much more difficult time finding it and calling it out. — Craig

      Encore des articles sur la #modération (une partie du #CM)

      The secret lives of Facebook moderators in America
      https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-

    • Facebook’s pivot to privacy is missing something crucial https://www.wired.com/story/facebook-zuckerberg-privacy-pivot

      Zuckerberg listed six privacy principles, but there was one glaring omission: He said nothing about how Facebook plans to approach data sharing and ad targeting in this privacy-focused future. The free flow of data between Facebook and third-party developers is, after all, the issue that caused the jaws of the national media to snap onto the company’s leg. One year ago this month, news broke that a man named Aleksandr Kogan had misappropriated the data of tens of millions of users and sent it to a shady political consulting firm called Cambridge Analytica. It soon became clear that Cambridge Analytica was not alone and that Facebook had allowed thousands of developers to collect data for years.

      The company’s loose policies on data collection over the years are also what allowed it to build one of the most successful advertising businesses in history. All the data the company collects helps advertisers segment and target people. And it’s the relentless pursuit of that data that has led to Facebook being accused of making inappropriate deals for data with device manufacturers and software partners. This is a history that Zuckerberg knows well, and one that he acknowledged in his post. “I understand that many people don’t think Facebook can or would even want to build this kind of privacy-focused platform—because frankly we don’t currently have a strong reputation for building privacy protective services,” he wrote.

  • The Shadow Workforce of Facebook’s Content Moderation
    http://nymag.com/intelligencer/2019/02/the-shadow-workforce-of-facebooks-content-moderation.html

    As in Omelas, however, the joyousness of Facebook’s hundreds of thousands of advertisers depends wholly on the misery of a small number of other people: its content moderators. For his article, Newton spoke with several current and former employees of Cognizant, a “professional services vendor” contracted by Facebook to moderate its platform, removing the content that violates Facebook’s terms of service. In practice, this can mean spending your days scrolling through post after post of graphic porn, hate speech, and videos of death and violence. “People develop severe anxiety while still in training,” Newton writes, “and continue to struggle with trauma symptoms long after they leave,” but are given minimal support and job stability — each employee gets nine “wellness time” minutes per day, to be used if they feel traumatized and need to stop moderating. Meanwhile, “the conspiracy videos and memes that they see each day gradually lead them to embrace fringe views.” For their trouble, they are paid $28,800 a year, around 12 percent of the average salaried Facebook employee’s total compensation of $240,000.
    Get unlimited access to Intelligencer and everything else New York.
    Learn More »

    The moderators sign nondisclosure agreements that prevent them from talking about what they’d done for Facebook — or even, apparently, that they’d worked for Facebook at all. This theoretically protects private Facebook user data from leaking out. But it also has the effect of hiding the 1,500 content moderators from the outside world, preventing them from even describing the difficulty of their jobs, let alone agitating for better working conditions. Even full-time Facebook employees are apparently unaware of the extent to which Facebook contracts out its content moderation, and the conditions under which that moderation is taking place, despite its importance. “Why do we contract out work that’s obviously vital to the health of this company and the products we build?” one employee asked on an internal company message board.

    Rather than address its various mounting content issues with dedicated staff hires, the company farmed out moderation work to contractors, needing to maintain a cost structure that relied on low labor costs, and believing that eventually an “engineering solution” could be developed to keep the platform clean and safe. This bargain has worked out well for Facebook, which by 2016 was raking in an incredible $600,000 per full-time employee in net profit. It has worked out rather less well for the rest of us — particularly the contactor moderators with PTSD-like symptoms. (Facebook’s profit margins have been thinning over the last two years, naturally, as it expands its “security” team, which includes moderators.)

    The idea that you can keep your labor costs low by relying on software automation, creating the eye-popping profit margins that venture capitalists approvingly call “software margins,” is a foundational belief of 21st-century Silicon Valley. Albergotti quotes the mantra COO Sheryl Sandberg brought to Facebook from Google: “People don’t scale.” And it’s true that there are some tasks — like selling and placing digital ads — that are more efficiently and profitably done by software programs. But there aren’t that many tasks that programs can do as well as human beings, and not many programs that can be automated without the help and work of humans. Which means that any company bragging about automated solutions is likely hiding a much larger shadow workforce supporting those solutions, like the one Facebook employs through Cognizant.

    Such arrangements are endlessly common in Silicon Valley. Magically convenient services and devices are often subsidized not just by money-burning investors but also by exploitative labor arrangements. Amazon purchases arrive quickly in part because the company’s warehouse workers are relentlessly tracked and don’t take bathroom breaks; Uber rides are cheap in part because the median hourly wage of an Uber driver is $10. Obviously, being a paid Uber driver is no closer to being a chained-up child than riding in an Uber is to being in paradise, but you can begin to understand the bargain being struck by the citizens of Omelas in Le Guin’s story.

    The truth is that “software margins” (or what investors hope will eventually be software margins) are rarely achieved solely through automation and innovation. Most Silicon Valley titans, especially the software giants that have arisen over the last two decades, have become adept at externalizing their costs. Users contribute content for free. Contractors work for cheap. The burden of moderating content has for the last ten years been borne by someone — in some cases under-compensated contractors, in some cases users moderating content themselves for free, in some cases the victims of abuse or harassment, and, in some cases, the public sphere as as whole. Just rarely Facebook. If Facebook’s shadow-workforce practices — which have been widely reported by journalists and studied by academics well before the Verge’s story this week, and which are no different than content-moderation practices on many social networks — are being singled out now, it may be because the platform’s conveniences no longer seem worth the full social cost.

    #Digital_Labor #Facebook #Modération #Externalisation

  • Paris-luttes.info, déjà 5 ans ! Et maintenant ?
    (quand l’équipe de Paris-luttes.info explique où en est le site, les choix politiques et en quoi consiste son rôle...)
    L’automne dernier, le site Paris-luttes.info (PLI) a soufflé ses 5 bougies. Le moment pour le collectif d’animation du site de tirer un bilan de ces 5 premières années et d’ouvrir quelques perspectives pour la suite du projet.
    https://paris-luttes.info/paris-luttes-info-deja-5-ans-et-11528
    https://paris-luttes.info/home/chroot_ml/ml-paris/ml-paris/public_html/IMG/arton11528.jpg?1550663756

    On ne le rappellera jamais assez, Paris Luttes Info est un site coopératif, local, appartenant avant tout à ses lecteurs-rices et contributeurs-rices. En effet, contrairement à d’autres sites du paysage révolutionnaire français, il n y a pas de comité de rédaction sur Paris-Luttes.info. Le site a été conçu pour permettre la plus large expression des personnes en lutte en Ile-de-France ainsi que la diffusion des idées anticapitalistes, anti-autoritaires et révolutionnaires. Les articles publiés reflètent donc les propositions d’articles des militant.e.s locaux ou des contributeurs et contributrices ponctuel.le.s et les thématiques qui les traversent. Ces positions sont par définitions variées, parfois antagonistes.

    ...

    Ces derniers chiffres concernant la présence de PLI sur les réseaux sociaux méritent une importante précision : si cette présence permet d’augmenter l’audience du site, le projet de Paris-luttes est en revanche à l’exact opposé d’une simple page ou compte twitter militant.
    Le site est en effet hébergé sur un serveur autonome permettant de relativement bien préserver l’anonymat des personnes venant publier. Aucune donnée personnelle n’est demandée ni conservée, encore moins monétisée. Au sein du réseau Mutu, l’infrastructure technique tout comme l’animation des sites repose uniquement sur l’action militante.
    Si jamais facebook pour une raison ou pour une autre venait à supprimer notre page, le site continuerait toujours d’exister, les articles resteraient en ligne et les contributeurs-rices pourraient toujours venir publier.

    #medialibre #medias_libres #automedia #Mutu #moderation #administration #gestion

    • Sur le sujet de la #modération / #administration et politique de #gestion aussi, ce billet de Olivier Ertzscheid : Le professeur et le processeur. La modération est une ponctuation.
      https://www.affordance.info/mon_weblog/2019/02/la-moderation-est-une-ponctuation.html

      Une enquête édifiante de The Verge vient une nouvelle fois pointer les conditions de travail d’extrême violence psychologique de ces modérateurs qui bossent (notamment) pour Facebook sur le territoire américain. Elle s’ajoute aux travaux universitaires dénonçant l’exploitation des travailleurs du clic qu’ils soient ou non liés à des questions de modération (dont ceux pionniers d’Antonio Casilli), ainsi qu’au documentaire là encore édifiant sur les conditions de travail de modérateurs aux Philippines : « The Cleaners ».

      Dans le Financial Times on apprend que #Facebook rejoint #Amazon et #Google dans un programme ayant pour vocation de doper encore davantage la capacité des processeurs informatiques associés à de l’intelligence artificielle, notamment pour répondre aux immenses ressources que nécessite la modération en temps-réel de contenus vidéos.

      #GAFA #GAFAM

    • Article réaliste sur les conditions de travail des modérateurs avec des spécificités qui semblent être des spécificités américaines ou propres à l’employeur.
      En Allemagne la vidéo qui choque tous les stagiaires est une vidéo de zoophiles, il y a aussi des scènes de meurtres ritualisées comme les exécutions ISIS mais rien d’aussi traumatisant que la vidéo qui est décrite ici.
      Le but est quand même que les modérateurs aillent au bout de leur parcours d’apprentissage.
      Une fois en poste, le travail commence par le traitement de collections types et se poursuit par du shadowing actif et passif. La montée en horreur est quasi immédiate mais accompagnée.
      Il faut garder à l’esprit que c’est un job qui ne requiert aucune compétence. La publicité des conditions rend le recrutement plus difficile et élargit le type des candidats éligibles.
      Des gens qui sont dans des situations économiques plus fragiles, plus de femmes et plus de minorités et des candidats plus agés ^^.

      Après que ce soit un taff qui rende les modérateurs complotistes j’ai comme un doute, je pense que le terrain était déjà très favorable.

      Quand un « collègue » parle de quartiers islamistes en France... FB ou BFM ?

      « Du coup illes suppriment toujours les trucs violents et porn, mais ne font rien sur ces contenus complotistes. » Ca par contre est un non sens, tous travail consiste à appliquer une policy battit par FB, le complotisme n’y figure pas et dans l’exemple cité par l’article, les autistes ne représente pas une catégorie ou un groupe protégé. Arrêtons de croire que les modérateurs sont en mode freestyle.

    • Bon je crois je veux continuer de tout ignorer du monde dépeint dans cet article.

      Je suis arrivé jusqu’à

      “Autistic people should be sterilized” seems offensive to him, but it stays up as well. Autism is not a “protected characteristic” the way race and gender are, and so it doesn’t violate the policy. (“Men should be sterilized” would be taken down.)

      qui a agi comme une limite à ne pas dépasser.

      Pendant la lecture des deux tiers de cet article je n’ai pas cessé de me demander pourquoi est-ce qu’une telle tâche de modération (avec des critères aussi tordus) ne pouvait pas être, en fait gérer par de l’intelligence artificielle. Il ne me semble pas qu’un robot pourrait faire pire que l’exemple cité plus haut.

    • @philippe_de_jonckheere Tout simplement parsque toutes les informations doivent au préalable être « nettoyées » et formalisées. Les algorithmes sont encore incapables de prendre certaines décisions. Ce qui veut que de plus en plus l’action humaine va disparaitre au fur et à mesure de l’avancée algorithmique ce qui a mon sens est une mauvaise nouvelle. Le jour ou la modération ne sera que le fait de robot, bonjour pour avoir la moindre information sur la cuisine interne de FB.
      L’activité interne est moins signe de transparence que possibilté de fuites.
      Et puis :
      « Vers l’automatisation de la #Censure politique »
      https://seenthis.net/messages/762211

      D. Dalton, rapporteur sur le règlement antiterroriste, est sur le point d’autoriser la #Censure de masse
      https://seenthis.net/messages/755670

      Délégation de la censure aux géants du Web
      https://www.laquadrature.net/censureterro

      Abécédaire de la société de surveillance
      https://seenthis.net/messages/756098
      Qu’en sera t’il des relations FB avec des organismes bancaires et assureurs.

    • N’ayant jamais foutu les pieds sur cette saloperie de Facebook, en fait je m’en fous pas mal. Et pour ma part pour trouver quelqu’un intérêt que ce soit à Facebook, il faut déjà avoir une bonne part de soi robotisée. Un peu plus, un peu moins. Je suis nettement plus inquiet à propos des personnes qui doivent travailler à ce que tu appelles nettoyage que je ne le serais jamais pour un ou une utilisatrice de Facebook.

    • ❝Bob Duncan, qui supervise les opérations de modération de contenu de Cognizant en Amérique du Nord, explique que les recruteurs expliquent soigneusement la nature graphique du poste aux candidats. « Nous partageons des exemples du genre de choses que vous pouvez voir... pour qu’ils aient une compréhension », dit-il. « L’intention de tout cela est de s’assurer que les gens le comprennent. Et s’ils estiment que le travail ne leur convient pas, ils peuvent prendre les décisions qui s’imposent. »

      Entretien 5 mn.

  • De la #modération : #Enjeux, limites, remèdes
    http://www.internetactu.net/2019/02/22/de-la-moderation-enjeux-limites-remedes

    Le dernier livre du chercheur Tarleton Gillespie (@TarletonG, blog), Custodians of the internet (Les gardiens de l’internet, 2018, Yale University Press, non traduit) livre une plongée très documentée dans le monde de la modération des #plateformes des grands réseaux sociaux… et offre bien des prises pour comprendre les enjeux ce (...)

    #Articles #Débats #censure

  • Plongée au cœur du Facebook des « gilets jaunes »
    https://www.lemonde.fr/les-decodeurs/article/2019/01/30/plongee-au-c-ur-du-facebook-des-gilets-jaunes_5416440_4355770.html

    C’est une France qui ne manifeste pas spécialement de pensée raciste, homophobe ou antisémite, et se réclame plus volontiers de Coluche que de n’importe quel parti politique. C’est une France qui nourrit un sentiment de défiance, voire de ressentiment profond pour les « élites » de tous bords. C’est une France qui se sent vulnérable et injustement traitée, que ce soit par les forces de l’ordre, Emmanuel Macron ou les chaînes d’information. Et qui verse facilement dans un sentiment de persécution et dans une certaine forme de complotisme.

    Pour tenter de saisir la pensée des « gilets jaunes », nous avons réuni et analysé les deux cents publications les plus partagées au sein des différents groupes Facebook de la mouvance, depuis sa naissance jusqu’au 22 janvier.

    Au total, ces publications ont été partagées près de 6,9 millions de fois. La plus populaire d’entre elles a réuni à elle seule 340 000 partages et présente, ironiquement, une image qui aurait été « censurée par Facebook », selon l’auteur du message. L’intérêt de ce corpus est qu’il donne une vision des sujets qui rassemblent le plus d’internautes qui se revendiquent « gilets jaunes » en ligne, et permet d’appréhender les idées qui font consensus dans le mouvement.

    #Facebook #Gilets_jaunes

    • MÉTHODOLOGIE
      Pour réaliser cette étude, nous avons répertorié les 200 publications les plus partagées sur Facebook dans un ensemble de 204 groupes de « gilets jaunes » entre début octobre et le 22 janvier, à l’aide de l’outil d’analyse Crowdtangle. Nous les avons ensuite consultées une par une, afin d’en étudier le fond comme la forme. Lorsque cela été possible, nous avons évalué la véracité des faits qui y sont présentés.
      Les données utilisées dans le cadre de cet article sont consultables ici.
      –-------------

      Après analyse, quatre grandes thématiques se dégagent de ce grand déversoir de frustrations. Elles se répondent, parfois se chevauchent, et souvent s’alimentent les unes les autres. Sans grande surprise, viennent d’abord les messages sur la mobilisation en elle-même et les instantanés de manifestations.

      Les #violences_policières sont vite devenues un sujet majeur au sein du mouvement
      Mais juste derrière, vient ce qui est rapidement devenu le grand sujet de discussion : la dénonciation de la #répression du mouvement, qu’elle s’appuie sur des faits avérés ou fantasmés. Dans ce contexte, le discours anti-élite et les #revendications précises de la mouvance sont finalement relégués au second plan.

      La répression du mouvement, sujet majeur de partage chez les "gilets jaunes"

      Parmi un ensemble de 200 messages publiés dans plus de 200 #groupes_Facebook avant le 22 janvier 2019.
      (graphique sous €)
      Autre élément intéressant dont nous avons pu mesurer l’ampleur : 35 de ces 200 messages n’étaient plus en ligne le 23 janvier, soit environ un sur cinq. Il s’agit de messages qui ont pu être modérés par les groupes Facebook en question, supprimés par leurs auteurs ou retirés par la plate-forme lorsqu’ils contrevenaient à ses conditions d’utilisation.

      La mobilisation jaune : fierté et #solidarité
      Il existe un très fort sentiment d’appartenance à la cause « jaune », qui se confond souvent avec une représentation idéalisée du #peuple. La part principale des posts les plus populaires porte sur la dimension massive de leur propre mouvement, soit pour l’alimenter, soit pour s’en féliciter, soit pour le relancer.

      Cela passe tout d’abord par des messages d’organisation, souvent rudimentaires. Ici, des #appels à bloquer un sous-traitant de la Bourse de Paris ou le marché de Rungis. Là, des appels à la solidarité, souvent lancés en direction des routiers, des motards, des chômeurs ou de figures du mouvement. A noter que si la volonté de paralyser le pays est explicite, les appels à la violence ne sont pas populaires à l’échelle du mouvement, d’autant qu’au fil des semaines, on a pu constater une #modération des propos à caractère violent, raciste ou conspirationniste. En 200 messages, nous n’avons ainsi recensé, encore en ligne à ce jour, qu’une seule glorification des violences contre les forces de l’ordre, et une invitation à mettre le « bordel » lors de la Saint-Sylvestre.


      La vidéo montrant la banda des « gilets jaunes » interprétant « Dans les yeux d’Emilie », au péage de l’autoroute A 64, à Pau (Pyrénées-Atlantiques), postée le 24 novembre. SAISIE D’ECRAN /FACEBOOK
      A travers leurs groupes, les sympathisants témoignent surtout avec enthousiasme du sentiment de faire corps, de faire masse. Photos de foule en jaune, appels à se compter, chansons ou clips louant le mouvement, partage de chiffres flatteurs des mobilisations, vidéos et photos de manifestants à l’étranger illustrent cette « fierté jaune », dont la mise en scène emprunte aussi bien à l’iconographie des révolutions françaises qu’à la musique populaire – de la guinguette au rap.

      La « répression » : entre violences avérées et théories du complot

      Dans cet imaginaire, face au mouvement populaire et pacifique des « gilets jaunes » se dresse une « forteresse d’Etat » qui tenterait d’écraser la révolte comme dans les pires dictatures. Et ce, avec la complicité des médias. C’est en tout cas ce que décrivent les nombreux messages fustigeant les méthodes employées par le gouvernement depuis le 17 novembre.

      Les « gilets jaunes » considèrent cette #violence_d’Etat comme injustifiée. Ils expliquent les débordements du mouvement par des théories aux accents conspirationnistes. Les dégradations lors de certaines manifestations ? Forcément la faute à des policiers déguisés en casseurs pour décrédibiliser le mouvement – une théorie qui n’a pas été avérée à ce jour. Des voitures saccagées à Paris ? De faux véhicules, sans immatriculation. Une mobilisation qui recule au fil des semaines ? La faute à de prétendus [ben voyons : contrôles des accès à l’Idf et aux villes et arrestations massives] barrages sur l’autoroute qui auraient empêché les manifestants de se rendre aux rassemblements.

      « On n’a plus le droit de reculer, maintenant »
      Parallèlement, dès les premiers rassemblements, la « jaunosphère » relaie massivement les photos et vidéos de ses « frères » aux visages tuméfiés, d’une femme âgée au bord de l’évanouissement ou de policiers frappant un « gilet jaune » par surprise. Dès le 29 novembre, un mot d’ordre soude la foule numérique :
      « On a plus le droit de reculer maintenant, pour tous ces gens décédés, blessés gravement, tabassés gratuitement… »
      Il est toujours délicat d’interpréter ces scènes, puisqu’il s’agit souvent de courts extraits, voire d’instantanés de situations beaucoup plus complexes, quand ce ne sont pas des clichés des blessures des contestataires a posteriori. Un constat d’ensemble s’impose tout de même : la quasi-totalité des images de personnes blessées que nous avons analysées nous sont apparues soit authentiques, soit invérifiables. Deux exceptions tout de même :
      la rumeur – infondée – d’un homme tué en direct à la télévision ;
      une vidéo qui compile des violences policières, mais remontait en réalité aux manifestations contre la loi travail en 2016.

      L’abondance des exemples entretient un #sentiment_d’injustice et de persécution, probant dans les commentaires. Face à ce qui est perçu comme un abus de pouvoir de la part des forces de l’ordre, les « gilets jaunes » partagent deux types de message, l’un faisant l’apologie de jets de cocktails molotov contre la police en Corse (un seul post de ce type, mais partagé près de 50 000 fois) ; l’autre suggérant le recours à des bombes de peinture, jugé plus ludique et plus pacifique (trois posts similaires, pour 105 000 partages au total).

      On trouve également des hommages appuyés aux « gilets jaunes » considérés comme « martyrisés » par le pouvoir. C’est le cas très médiatisé de Christophe Dettinger, le boxeur accusé d’avoir frappé des policiers lors de l’acte VIII du mouvement à Paris, présenté comme un héros ayant défendu des manifestants vulnérables. Ou de celui moins connu d’un Narbonnais condamné à un an de prison.


      Critique des #élites : Macron et le train de vie des #élus dans le collimateur
      Il y a les « gilets jaunes » d’un côté, et de l’autre eux, les nantis, les élus, les #médias, pour lesquels les membres de ces communautés nourrissent un profond ressentiment. Une personnalité concentre leur animosité : Emmanuel Macron. Le président de la République est la cible de nombreuses critiques et mises en scènes, dont certaines ordurières. On lui reproche, pêle-mêle, un exercice jugé monarchique du pouvoir, sa politique économique libérale, ses liens avec la finance… Sans oublier la hausse des prix des carburants : plusieurs photomontages le présentent ainsi comme « Miss Taxes 2018 » et appellent à sa démission.


      Mais au-delà du président, ce sont tous les élus qui sont visés. Trop rémunérés, pas assez actifs, déconnectés de la #vie_quotidienne des Français… Notre échantillon des coups de gueule des « gilets jaunes » est un bon condensé des procès faits aux représentants politiques. Certains sont fondés sur des faits – comme les avantages accordés aux députés français – ; d’autres, sur des rumeurs ou de fausses informations – comme l’affirmation selon laquelle ces mêmes députés seraient deux fois mieux payés que leurs homologues allemands ou britanniques.

      Les médias ne sont pas épargnés, à commencer par BFM-TV, qui fait l’objet d’une poignée de publications virulentes l’accusant de manipulation des chiffres ou des images. Mais ils sont souvent critiqués au détour d’une dénonciation plus large, comme des complices ou des idiots utiles du système.

      A la marge, une troisième catégorie plus étonnante apparaît : le showbiz, auquel les « gilets jaunes » reprochent de s’être détourné des #classes_populaires. Outre Franck Dubosc, deux posts très plébiscités accusent Les Enfoirés d’avoir tourné le dos aux plus démunis en ne soutenant pas les « gilets jaunes ». « Coluche aurait eu comme nous honte de vous », y lit-on. A l’inverse, ils ont été nombreux à faire circuler une chanson antipolitique de Patrick Sébastien (Ah si tu pouvais fermer ta gueule) et un sketch des Guignols de l’info sur les bénéfices de Total.

      Les revendications : #automobile, #justice sociale et #RIC

      Trois grands thèmes ressortent de notre analyse : un premier, historique, sur le traitement réservé aux automobilistes (péages, carburant, radars…), qui a été le ciment de la mobilisation à ses débuts. Un second, la #précarité, qui s’est ajouté dans un second temps. Puis un troisième, le référendum d’initiative citoyenne (RIC), qui s’est imposé progressivement dans les débats.

      Ainsi, dès le 28 novembre, un message posté par une internaute récolte près de 40 000 partages. Il liste six exigences : le retour de l’impôt sur la fortune, la suppression de la hausse de la CSG pour les retraités et les handicapés, la revalorisation du smic, l’annulation de la hausse du prix du carburant, la baisse des charges pour les petits commerçants et les artisans, et la réduction du nombre des élus et de leur train de vie.


      Ce message du 28 novembre, posté par une internaute, récolte près de 40 000 partages.

      Les « gilets jaunes » sont-ils « apolitiques », comme ils aiment à le clamer ? A parcourir leurs groupes Facebook, une chose est sûre : les discours et argumentaires des partis politiques traditionnels n’y tiennent qu’une place marginale, voire anecdotique. Sur deux cents messages, seuls trois relaient ainsi directement une personnalité politique : il s’agit de Marine Le Pen (RN), pour une vidéo par ailleurs mensongère sur le pacte de Marrakech, et de la députée de La France insoumise Caroline Fiat, qui apparaît deux fois pour ses prises de position en faveur des « gilets jaunes ».

      A l’inverse, bon nombre de thématiques chères à l’#extrême_droite ne sont peu ou pas abordées, à commencer par l’immigration. Tout comme la sortie de l’Union européenne, la pénalisation de l’interruption volontaire de grossesse ou l’abrogation de la loi sur le mariage pour tous.
      Si des sites et des figures de l’extrême droite ont parfois réussi à surfer sur le mouvement, c’est d’abord en dehors des communautés de « gilets jaunes ». La « pensée jaune » est sans doute elle aussi une « pensée complexe ».

    • Methodologie biaisée : 200 publies les plus partagées indiquent juste le (s) dénominateur(s) commun(s) entre plein de pensées différentes, pas la tendance politique. D’ailleurs la manière d’éluder la teneur des 35 (c’est beaucoup) publications supprimées est assez significative !

  • Emmanuel #Macron a annoncé, [début novembre] au Forum sur la gouvernance de l’Internet, la création d’un groupe de travail composé d’employés de #Facebook et de membres issus d’autorités françaises... pour lutter contre la haine sur le réseau social ?

    https://www.lemonde.fr/pixels/article/2018/11/12/l-etat-francais-et-facebook-vont-collaborer-pour-lutter-contre-la-haine-sur-

    #moderation et/ou #surveillance

  • À mesure qu’elles croissent, les plateformes deviennent-elles plus hostiles ?
    http://www.internetactu.net/a-lire-ailleurs/a-mesure-quelles-croissent-les-plateformes-deviennent-elles-plus-hosti

    Adam Clair (@awaytobuildit) dans le toujours aussi excellent magazine Real Life (@_reallifemag) expliquait qu’à mesure que les #médias_sociaux grossissaient, ils avaient tendance à devenir plus hostiles envers leurs utilisateurs. La croissance est le but des plateformes de partage de contenus. Pour attirer le plus grand nombre possible d’utilisateurs, elles (...)

    #A_lire_ailleurs #Services #désinformation #modération

  • The Internet of Garbage (v. 1.5) By Sarah Jeong, 80 pages
    https://www.theverge.com/2018/8/28/17777330/internet-of-garbage-book-sarah-jeong-online-harassment

    the internet is experienced completely differently by people who are
    visibly identifiable as a marginalized race or gender. It’s a nastier, more
    exhausting internet, one that gets even nastier and even more exhausting as
    intersections stack up.

    Harassment exists on two spectrums at once—one that is defined by
    behavior and one that is defined by content . The former is the better way to
    understand harassment, but the latter has received more attention in both
    popular discourse and academic treatments.

    #spam #harassment #moderation

    • Table of Contents
      Preface ............................................... 4
      Chapter One : The Internet Is Garbage .................. 6
      A Theory of Garbage .......................................... 8
      Spam as Garbage .............................................. 9
      Chapter Two : On Harassment ........................... 12
      Harassment in the News ...................................... 13
      About That Media Narrative . . . ............................ 18
      Is Harassment Gendered ? ..................................... 20
      Intersections of Harassment ................................. 21
      On Doxing ................................................... 24
      SWATting .................................................... 27
      Doxing Women ................................................ 28
      Concluding Thoughts on Doxing ............................... 30
      A Taxonomy of Harassment .................................... 32
      On Modern-Day Social Media Content Moderation ............... 35
      What Happens Before : Setting Norms .......................... 38
      Chapter Three : Lessons from Copyright Law ............ 40
      The Intersection of Copyright and Harassment ................ 41
      How the DMCA Taught Us All the Wrong Lessons ................ 44
      Turning Hate Crimes into Copyright Crimes ................... 47
      Chapter Four : A Different Kind of Free Speech ........ 51
      Stuck on Free Speech ........................................ 52
      The Marketplace of Ideas .................................... 54
      Social Media is a Monopoly .................................. 56
      Agoras and Responsibilities ................................. 59
      Chapter 5 : Spam : The Mother of All Garbage ........... 62
      What Is Spam ? ............................................... 63
      Spam and Free Speech ........................................ 66
      Harassment as Spam .......................................... 68
      Architectural Solutions to Harassment ....................... 70
      On the Size of the Internet ................................. 73
      Conclusion : The Two Futures of Anti-Harassment ....... 75

      –------

      Online anonymity isn’t responsible for the prevalence of horrible behavior online. Shitty moderation is. - Zoë Quinn, March 21st, 2015

  • Dans les coulisses du plus grand dépotoir au monde de déchets numériques | Slate.fr via @rezo
    https://www.slate.fr/story/165767/travailleurs-horreur-quotidien-philipines-moderateurs-contenu-choquant-images-

    C’est à ces petites mains du web que rend hommage The Cleaners, le premier documentaire de Moritz Riesewieck et Hans Block. Le film nous plonge dans le quotidien des modératrices et modérateurs philippins dont certains témoignages ont de quoi glacer le sang : il y a, par exemple, cette employée devenue experte dans « l’art » de la décapitation, qui, à force de visionnages, sait reconnaître dès le premier coup d’œil si une tête a été tranchée à coup de machette ou au couteau de cuisine… Cette autre se décrit comme une « sniper » et compare le visionnage de milliers de vidéos à « un virus envahissant son cerveau ».

    À voir à la fin de l’été sur Arte donc :
    https://www.imdb.com/title/tt7689936/mediaviewer/rm68899584

    La suite : « Pendant deux ans, il a nettoyé Facebook »
    https://www.slate.fr/story/165866/decapitations-censure-confidentialite-moderateur-facebook

    Autopromo, ft. Sarah T. Roberts & @antoniocasilli il y a qq mois : « Les tâcherons du clic » (@mdiplo, décembre 2017)
    https://www.monde-diplomatique.fr/mav/156/HENNETON/58116

    Voir aussi : https://seenthis.net/messages/599738

    #modération #médias_sociaux #digital_labor #inégalités #capitalisme_numérique

  • #Saison_brune

    Dans Saison brune, #Philippe_Squarzoni tisse un récit inédit, qui entremêle analyses scientifiques et interviews de spécialistes, considérations personnelles et hommages au cinéma, enquête politique et essai engagé.

    Le #livre est découpé en six chapitres. Les trois premiers sont précédés de trois interludes portant sur les commencements d’une oeuvre. Les trois derniers sont suivis de trois interludes sur les fins.

    Les deux premiers chapitres sont consacrés aux aspects scientifiques du réchauffement : le fonctionnement du climat, la description de l’effet de serre, l’augmentation des gaz à effet de serre dans l’atmosphère durant l’époque moderne. Mais aussi l’expertise menée par le GIEC, l’attribution du réchauffement aux activités humaines, les différents scénarios d’augmentation des températures à venir, les risques d’effets de seuil, les risques de rétroactions positives.

    Dans les deux chapitres suivants, Philippe Squarzoni alterne entre l’examen des conséquences à venir du #réchauffement_climatique (fonte des glaciers, montée des eaux, multiplication des tempêtes, risques de sécheresse dans certaines régions...) et les questionnements du narrateur et de sa compagne face à cette situation inédite. Que faire à un niveau individuel ? Que faire quand ce qui est en cause est la production d’énergie, l’industrie, les transports, le bâtiment, l’agriculture ? Par où, par quoi commencer ? Nécessaire mais dérisoire, sans proportion par rapport à l’ampleur de ce qu’il faudrait accomplir, le niveau individuel semble largement insuffisant.

    Dans les deux derniers chapitres, Squarzoni élargit son questionnement et examine les possibilités de réduction des émissions et les différents scénarios énergétiques qui s’offrent à nos sociétés (énergies renouvelables, nucléaire, progrès technologiques, maîtrise de l’énergie...).
    Entre les insuffisances des unes, et les faux espoirs des autres, il décrit une alternative possible qui permettrait d’éviter les conséquences les plus graves du réchauffement climatique. Et les choix politiques, les modèles de société, que ces scénarios impliquent. Une porte s’ouvre. Saurons-nous la franchir ?

    Saurons-nous inventer une civilisation plus sobre capable de prendre en compte les questions écologiques ? Nos sociétés sauront-elles éviter les conséquences les plus graves du réchauffement climatique, tout en préservant la liberté et la démocratie ?

    Dans un album chargé de nostalgie, qui est probablement le plus personnel de ses livres politiques, Philippe Squarzoni livre un essai qui donne à espérer, mais reste très pessimiste sur la réalisation de cet espoir au vu de la nature de la crise, de l’ampleur des changements à accomplir, et du fonctionnement de nos sociétés.


    https://www.editions-delcourt.fr/special/saisonbrune
    #BD #bande_dessinée #changement_climatique #climat #effondrement #collapsologie #nucléaire #énergie #climatoscepticisme #climategate #ressources #sobriété_énergétique #efficacité_énergétique #croissance #économie_verte #technologie #capitalisme #Léon_Bourgeois #solidarisme #protocole_de_kyoto #transports #permis_d'émission #finance #biens_communs #dette_écologique #responsabilité #transition #transition_écologique #démocratie #libéralisme_politique #éolienne #énergie_solaire #énergie_éolienne #charbon #pétrole #accumulation #sobriété #modération #bien-être #dépassement_global

  • The Laborers Who Keep Dick Pics and Beheadings Out of Your Facebook Feed | WIRED
    https://www.wired.com/2014/10/content-moderation

    Les travailleurs et travailleuses sous-payées du nettoyage dans le cyberespace. Un article ancien, pourtant toujours d’actualité. Et ce ne sont pas les intelligences artificielles qui résoudront ce problème.

    Baybayan is part of a massive labor force that handles “content moderation”—the removal of offensive material—for US social-networking sites. As social media connects more people more intimately than ever before, companies have been confronted with the Grandma Problem: Now that grandparents routinely use services like Facebook to connect with their kids and grandkids, they are potentially exposed to the Internet’s panoply of jerks, racists, creeps, criminals, and bullies. They won’t continue to log on if they find their family photos sandwiched between a gruesome Russian highway accident and a hardcore porn video. Social media’s growth into a multibillion-dollar industry, and its lasting mainstream appeal, has depended in large part on companies’ ability to police the borders of their user-generated content—to ensure that Grandma never has to see images like the one Baybayan just nuked.

    “EVERYBODY HITS THE WALL. YOU JUST THINK, ‘HOLY SHIT, WHAT AM I SPENDING MY DAY DOING?’”

    So companies like Facebook and Twitter rely on an army of workers employed to soak up the worst of humanity in order to protect the rest of us. And there are legions of them—a vast, invisible pool of human labor. Hemanshu Nigam, the former chief security officer of MySpace who now runs online safety consultancy SSP Blue, estimates that the number of content moderators scrubbing the world’s social media sites, mobile apps, and cloud storage services runs to “well over 100,000”—that is, about twice the total head count of Google and nearly 14 times that of Facebook.

    This work is increasingly done in the Philippines.

    #Fake_news #Modération #Hébergeurs

  • YouTube’s New Moderators Mistakenly Pull Right-Wing Channels - Bloomberg
    https://www.bloomberg.com/news/articles/2018-02-28/youtube-s-new-moderators-mistakenly-pull-right-wing-channels

    The Google division said in December it would assign more than 10,000 people to moderate content after a year of scandals over fake and inappropriate content on the world’s largest video site.

    In the wake of the Feb. 14 school shooting in Parkland, Florida, some YouTube moderators mistakenly removed several videos and some channels from right-wing, pro-gun video producers and outlets.

    The misstep pulls YouTube, Google and parent Alphabet Inc. deeper into a toxic political fights over gun control, fake and extreme content, and whether internet companies should be responsible for what third parties post on their services. The episode also shows how the huge video site continues to struggle with policing the service and how difficult it is to spot troubling content and decide whether the material should be taken down.

    Gun reform calls since the shooting have sparked a rash of conspiracy theories on the web about the student activists. YouTube was criticized last week after promoting a video with a title that suggested Hogg, the teen survivor of the Florida school shooting, was a paid actor. The clip contained footage from an authoritative news source, leading YouTube’s software-based screening system to misclassify it. After YouTube was alerted to the video, it was pulled.

    In the wake of the Florida shooting, Google and other internet companies are facing external pressure to remove the National Rifle Association’s NRA TV channel from their video streaming services. To date, YouTube and other services haven’t pulled the NRA’s official channel.

    YouTube’s official policy says that “harmful or dangerous” and “hateful” content can violate its guidelines. If video creators break the rules three times within three months, YouTube terminates the account.

    #Fake_news #Modération #Hébergeurs

  • Je voudrais revenir sur cette histoire de deux comptes qu’on a virés hier. Une difficulté dans les discussions qu’on a autour de ces situations, c’est qu’il y a une grande confusion entre deux aspects qui sont très séparés : les contenus problématiques et les comportements de trolls.

    Aspect A : les contenus problématiques

    Les deux comptes éjectés hier avaient des contenus problématiques. Un compte précédemment éjecté avait aussi des contenus problématiques. Mais, à mon avis, ce n’est pas le rôle des administrateurs de #Seenthis de prendre des mesures de censure à tout bout de champ, et ce n’est pas principalement pour cette raison que ces comptes ont été sucrés.

    Il faut tout de même considérer que, sur cet aspect, nous sommes hébergeurs, et que si nous sommes protégés juridiquement pour le contenu des messages postés ici, c’est justement parce que l’hébergeur n’est pas, sauf cas exceptionnel, responsable des contenus.

    Mais comme le rappelle Laurent Chemla, si un hébergeur se met à faire le tri de lui-même dans ce qu’il héberge, alors il devrait être considéré comme un éditeur, et non plus comme un agent neutre. Ce n’est pas exactement le terme actuel de la loi, mais c’est la logique qu’il défend, et que je partage : si on veut que Facebook et Twitter ne soient pas des instruments de censure, alors c’est la piste à défendre en faisant dépendre l’irresponsabilité de l’hébergeur de sa neutralité quant aux contenus.

    De fait, pour moi, ce n’est pas pour cela qu’on a viré ces deux comptes. L’un des comptes qu’on a viré il y a quelques mois est revenu, mais il n’interagit avec personne, du coup on ne l’a pas re-coupé.

    La question se poserait différemment si on était envahi par les comptes fachos. Mais ce n’est clairement pas le cas actuellement.

    Aspect B : le trollage

    Le gros souci, pour moi, ce sont les comportements qui nuisent au fonctionnement social du réseau social qu’est Seenthis. Pour moi, clairement, ces deux comptes ont été éjectés parce que leurs auteurs passaient leurs temps à poster des petits messages provocateurs en réponse aux comptes qui ne les avaient pas encore bloqués.

    Le problème de ces messages, c’est que du coup toute discussion tournait court, puisqu’on se retrouvait invariablement à gérer la question du #troll, rendant impossible la discussion initiale.

    Or, c’est là un des aspects fondamentalement différents de Seenthis par rapport aux autres réseaux sociaux :
    – sur Facebook, le principe premier est de ne discuter qu’avec les gens qu’on connaît déjà, et pour les discussions publiques le flicage se fait à la matraque ; on a là un réseau où, en gros, on discute avec les gens qui vous ont accepté comme amis, ou alors le flicage est direct ;
    – sur Twitter ou Mastodon, en gros les discussions après la publication initiale sont totalement accessoires, et tout le monde s’en fout, puisque la présentation du flux ne met pas du tout en valeur les réponses aux messages initiaux. Il n’y a qu’à essayer de lire le flux complet d’une discussion sur Twitter pour constater que c’est totalement affligeant, selon le principe même du Web 2.0 : vient poster ta crotte en pensant que tu participes à quelque chose, mais en gros tout le monde s’en cogne de ton opinion. Autant la publication initiale est publique, autant les discussions qui s’ensuivent sont semi-privées, puisque les réponses ne profitent de la visibilité du message initial que si l’auteur initial le veut bien (en retweetant les réponses à son propre message).

    Seenthis est construit justement pour que la conversation après le message initial soit au même niveau que le message initial, et cela sans attendre que les gens soient déjà « acceptés » ou en contact. Le côté « intelligence collective » que soulignent par exemple @philippe_de_jonckheere ou @reka, c’est lié à cette structure de discussion, opposé au principe « je publie mon truc one-shot ». Je sais d’ailleurs que beaucoup de gens abandonnent Seenthis à cause de cela, parce que gérer une discussion aussi visible, c’est du boulot, c’est inconfortable, et c’est en général pas leur idée du personal branding.

    Bref, si tu tues les discussions ici par le trollage, tu tues le principe même du réseau social Seenthis, parce que si l’idée c’est que chacun poste sa crotte personnelle et que personne ne lit plus les discussions, hé ben il y a quand même mieux ailleurs.

    Du coup…

    Pour moi, le problème fondamental auquel on a eu besoin de répondre hier, c’est le trollage : certes deux fachos tarés, mais le problème central qu’ils posaient c’est qu’ils parvenaient à tuer les discussions en ramenant tous les flux à la question de leur petite personne.

    • il y a selon moi un problème non abordé, c’est celui de l’histoire d’un territoire internautique, comme Seenthis, qui dans le cas d’une éjection accompagnée de celle des messages du troll, ne se fait pas. Les notions défendues ici, les exemples, y deviennent instantanément des abstractions au lieu de devenir à la fois des pistes de réflexion possibles sur le trollage, la vulgate fasciste dans ce cadre, ses méthodes récurrentes, sa grammaire, les déplacements légers que tout ça opère, et des références pour la suite. Virer un nuisible qui bousille le travail, engorgeant une série d’échanges par des séries de barrages aussi chronophages qu’opacifiants, je trouve ça compréhensible, parfois nécessaire, j’ai déjà eu à le faire sur la liste du Terrier. Mais je pense que ça vaudrait le coup, notamment pour éclairer d’une lecture historicisée les éjections ici, d’archiver les messages des trolls dans un lieu spécial. Une décharge à ciel ouvert. Cet effacement total, sinon me pose problème. il serait déjà tellement économique en conversation, par exemple, lorsqu’intervient un troll, sans autre forme de commentaire, de le renvoyer à cet espace spéculaire !

    • je ne crois pas. Ce qui fait jouir un troll, en dehors du bousillage, sa seule zone d’action possible, c’est sa solide certitude d’avoir une position de franc tireur inédit, insolent et unique contre le monde entier. La prétention à la singularité des esprits conservateurs ou pire est un des plus fascinants paradoxes de ces petites créatures. Cette zone, par la superposition des trollages, les renvoie à l’infinie banalité de ses modalités, de ses thèmes. Il n’est pas nécessaire de nommer les trolls : . a), b), c) d) suffiraient (peut-être a1, a2, b1 etc, par catégories. Le Melenchoniste évangélisateur, le nazi 2.0, etc.).

    • Du coup, je dois en arriver à une piste déjà évoquée, mais sur laquelle on travaille actuellement :

      – il y a déjà dans Seenthis une « note » calculée pour chaque participant, qui s’appelle « troll ». En pratique, c’est plutôt le contraire : une note « troll » à zéro signifie qu’on est un gros troll, une note « troll » à 6000 qu’on est un participant extrêmement apprécié.

      – l’utilité actuelle de cette « note », c’est de savoir qui on présente dans la colonne de droite de la page d’accueil non connecté (on a une liste des membres les plus populaires, et c’est fait automatiquement) ; ainsi que les premières suggestions d’abonnements quand on vient de s’inscrire.

      – un intérêt très particulier, c’est que les liens sur Seenthis sont des liens qui peuvent compter pour le référencement Google. Tous les réseaux sociaux (y compris Mastodon) ne se font pas chier : tous les liens hypertexte vers l’extérieur sont codés avec un « rel=nofollow », qui dit à Google de ne pas attribuer de points à cette page alors qu’elle a été référencée par un usager. C’est un moyen d’éviter de se faire spammer son réseau social, avec des gens qui postent des liens pour se faire monter dans Google. Sur Seenthis, au contraire, on essaie de promouvoir les pages référencées, y compris dans le sens du « page rank » de Google, comme on le fait avec Rezo.net aussi. Mais du coup, pour ça, il faut que l’auteur soit déjà suffisamment populaire ici. Du coup : quand tu ouvres un compte sur Seenthis, personne ne te suit réellement, alors les liens sont, comme ailleurs, en "rel=nofollow" ; mais dès que tu commences à être suffisamment « populaire » et suivi, ce qui se traduit par une valeur « troll » en progrès, tes liens deviennent de véritables liens qui comptent pour Google. (C’est un point dont je suis assez fier, mine de rien, pour marquer le fait que Seenthis s’inscrit dans l’écologie des sites qui sont référencés, là où tous les autres sont extrêmement centripètes, y compris dans leur façon de ne pas « redistribuer » du pagerank aux sites qu’ils référencent.)

      – bref… cette valeur « troll » est calculée en valorisant le fait d’être suivi par d’autres usagers (et plus ces usagers sont eux-mêmes populaires, plus ils te passent de points de troll), et à l’inverse en pénalisant le fait d’être bloqué (et surtout d’être bloqué par des gens populaires).

      J’ai fait ces derniers jours des essais sur ces valeurs de troll, qu’on ne surveillait pas depuis l’origine, et les résultats sont plutôt cohérents. J’ai amélioré l’algorithme cet après-midi, ce n’est pas en ligne pour l’instant, mais ça devient un outil plutôt précis : il y a une vingtaine de comptes, dont précisément ceux qui nous ont posé problème, qui se retrouvent avec une valeur de « troll » à zéro (et tous pour des raisons très logiques, je n’ai pas vu de gens pénalisés à tort).

      Pour l’instant, le fait d’avoir une valeur de « troll » à zéro n’a pas d’impact. Ce qu’on va mettre en place, c’est que ça le devienne : avec un troll à zéro, tu ne pourras plus poster en réponse à quelqu’un qui ne te suit pas. Du coup : tu peux poster dans ton propre flux, et tu peux répondre aux messages des gens qui ont fait le choix de te suivre ; mais tu n’as plus cette liberté que nous avons tous sur Seenthis d’aller participer spontanément en réponse à un message de quelqu’un qui ne nous a pas pré-sélectionné.

      Et, dans le cas de nos 3 trolls, dès 3 ou 4 blocages par des membres très actifs de Seenthis (ce qui n’avait pas traîné), ils n’auraient plus pu continuer à aller polluer d’autres forums.

    • Un score de « réputation » plutôt que de « troll » est peut être plus positif du coup :). On trouve cela à quelques endroits, où plus la réputation augmente, plus les actions/interactions possibles augmentent.

    • Sacré débat… L’ exclusion est mauvaise par nature . Qui définit ce qui est facho ? ou troll ? Valls, on le met où ? Laurence Rossignol on la met où ? Côté fa ?

      Me souviens d’un zozo sur le site du #monolecte, un bon gaucho, qui soutenait dur comme fer avant l’élection de Trump que Trump était un antisémite rabique. Plus facho que le facho dans ses idées, en éructant la doxa médiatique et pourtant le gars était visiblement très à gauche. L’histoire et les faits ne doivent pas le rendre fier et ce gars, faut-il le virer ? Il pense qu’il est à gauche sûrement, mais en réalité c’est un Valls ou une Rossignol, c’est à dire l’obscurantisme absolu. Qui va prendre la décision pour son cas ? Et encore, j’ai l’humilité de ne pas parler de moi…

      Je sais, je ne suis visiblement pas majoritaire dans ces propos, mais je ne peux pas chanter avec la chorale…

      Quelle solution j’apporte ? J’en ai pas. J’aime pas celles proposées mais moi j’en ai pas donc ne m’engueuler pas parce que je n’apporte rien.
      #balance_ton_troll #balance_ton_fa

    • Je comprends @marcimat ce que tu dis, mais ici l’idée n’est pas de distribuer des bonnes notes à celleux qui se comportent bien pour leur ouvrir des accès. Le but est de canaliser celleux qui se comportent comme des merdes pour les empêcher de nuire et je pense qu’il faut appeler un chat un chat, c’est-à-dire un troll un troll parce que c’est de cela précisément dont il s’agit. Du moins c’est ce que je comprends mais on peut me contredire.

    • Bof, je continue à penser que c’est accorder beaucoup de temps, d’attention et d’énergie à ces gens, qui en ont beaucoup justement (de temps et d’énergie, au moins).

      Quelqu’un•e m’agace, m’indispose ou me débecte, je le•la bloque. Punto.

      J’en ai vu plusieurs qui répondaient à carmignola, qui faisaient monter la sauce (@vanderling ou @sombre, de mémoire), ça ne fait que les exiter, et laisser des traces de discussions médiocres et d’insultes.
      (ne cherchez pas d’arguments, ils vous répondront toujours)

      Et finalement, pour le côté censure, j’en pense toujours la même chose : tu as pris une décision de police, tout seul dans ton coin. Oui, c’est ton projet, ton site, tu as le droit et c’est pas simple, je le reconnais.
      Mais ce que tu entreprends, ça entraine d’autres responsabilités, comme dit @laurent (hébergeur/éditeur).

      Je trouve qu’on ("on" vague, communautés, libristes, ...) se disperse beaucoup, y’a pas d’autres trucs qui méritent de l’énergie ?

    • @nicod_ non ça ne suffit pas « JE bloque Machin » uniquement, comme c’est plutôt bien expliqué ici-même plus haut et dans quelques autres discussions. Le fait que tu bloques toi n’empêche pas Machin d’aller troller sur toutes les discussions possibles des gens que tu suis et qui ne l’ont pas encore bloqué (ainsi que sur les comptes flux automatiques comme il y en a aussi).

      Si ton usage de Seenthis c’est en majorité du référencement de choses (c’est une des utilisations), càd que dans ce cas d’usage ce sont les seens « premier niveau » qui intéressent en priorité, oui ça peut te gêner fort peu. Mais de nombreuses personnes l’utilisent aussi et même parfois avant tout pour l’aspect discussion, débat, apports supplémentaires aux seens de premier niveau : dans ce cas les discussions sous les seens sont pourries même avec un ou deux trolls seulement inscrits du moment qu’ils postent partout. C’est bien ce problème là particulier qu’@arno cherche à résoudre en interdisant aux trolls d’écrire chez les gens qui ne l’ont pas suivi explicitement. C’est comme ce que tu fais toi avec « JE bloque » sauf que ça devient « tout le monde l’a bloqué sauf si on l’a suivi » par défaut à partir d’une certaine note.

      Il n’y a justement pas de censure, puisqu’on peut toujours aller suivre Machin explicitement si vraiment on est foufou.

      Là les deux récents, ça a été censuré à la main car le système décrit par @arno n’est pas encore en place et qu’il fallait bien trouver une solution là-maintenant-tout-de-suite pour que les gens qui utilisent vraiment Seenthis puissent ne plus être dérangées. Ce type de modération n’arrivera plus (ou seulement si demande de justice) une fois le blocage auto mis en place.

    • Le troll, c’est la vie… Je veux dire que c’est pratiquement inhérent à l’être humain. Ça commence avec ton gosse qui a toujours un truc vachement important à dire au moment précis où tu es au cœur d’une conversation intense. Il te fait chier jusqu’à obtenir l’interruption et en fait, il t’a flingué ta conversation pour un truc qui aurait largement pu attendre 25 ans de plus… de ton point de vue.
      C’est le vieux qui ne peut jamais commenter un truc d’actu sans partir directement en digression avec « … de mon temps, ça ne se serait pas passé comme ça ! ».
      C’est le collègue qui veut toujours absolument te parler de ses dernières vacances en Grèce, le N+1 qui court-circuite toutes tes tentatives de discussion avec des mises en accusation à peine larvées, etc.
      Nous avons une sorte de culture de l’inattention à l’autre.

      Bon, après, il y a le troll malveillant, mais je ne suis jamais certaine qu’il se vit lui-même comme malveillant, c’est le prototype de la commère du village. Je n’ai jamais trop réfléchi à la signification réelle de ce type de personne et de son rôle. Parfois, le troll pénible est susceptible d’introduire une forme d’altérité qui rompt avec quelque chose qui peut dériver vers l’entre-soi jusqu’à la stérilisation même de l’idée de débat.

      Et puis les haineux qui viennent juste chier sur la table.

      J’ai tendance à penser que la procédure de blocage suffit largement. Qu’il y a une forme de nécessité intellectuelle au chien errant sur l’échiquier.
      J’ai surtout tendance à penser que si on commence à sortir le flingue à dégommer les importuns, il y a de fortes chances que ce ne soit pas un one shot et que naisse une forme d’accoutumance qui abaisse de plus en plus le seul de tolérance.

      Avec toujours la même bonne vieille question : qui tient le flingue et dans quel but ?
      Autrement dit, le risque de se replier dans l’entre-soi grandit au fur et à mesure qu’on s’habitue au flingue.

      Après, l’algo d’ @arno me semble intéressant… mais il sait lui-même qu’on devrait se méfier des algos qui prétendent trier ce qui est recevable de ce qui ne l’est pas → FB !

      J’ai mon propre élevage de trolls. On va dire que j’ai des trolls domestiques, avec leurs obsessions, leurs points de vue et surtout leurs radotages. Mais souvent, ils produisent de l’inattendu et même indirectement, ils nourrissent ma réflexion.
      Les seuls que je vire sans scrupules sont les illégaux, c’est-à-dire ceux qui contreviennent à la loi.
      En fait, depuis 14 ans, je n’en ai viré que deux.

      @arno, t’es sur Mastodon ?

    • Après, l’algo d’ @arno me semble intéressant… mais il sait lui-même qu’on devrait se méfier des algos qui prétendent trier ce qui est recevable de ce qui ne l’est pas → FB !

      Oui, c’est pour cela qu’avant de mettre en place le blocage, je joue avec les valeurs pour éviter les faux positifs. Là je n’en ai pas.

      Et même, j’ai remarqué dans mes tests plusieurs cas d’intervenants ici qui sont beaucoup bloqués par d’autres usagers, soit parce qu’ils expriment des opinions qui ne plaisent pas toujours, soit parce qu’ils une façon de discuter un peu brutale, et qui pourtant obtiennent un assez bon score dans l’algorithme, parce qu’à l’inverse ils sont en même temps assez largement suivis. Du coup, le truc n’est pas destiné à imposer une « pensée unique », parce qu’en l’espèce, si tu as un discours très tranché ou une façon de t’exprimer qui peut choquer une partie des usagers, l’algorithme ne calcule pas du tout que tu dois être pénalisé.

      L’autre point à considérer, c’est qu’il s’agit de mettre en place une alternative à la situation actuelle, où soit l’on accepte de se faire emmerder par un ou deux nuisibles qui tuent les discussions avec une facilité déconcertante, soit on doit les exclure totalement. Passer d’un situation de tout ou rien à une situation où l’on peut éviter les crises avec le moins de dégâts possibles, y compris pour les pénibles

      Enfin, je ne l’ai pas indiqué, mais cette valeur nommée « troll » est, en réalité, doublée d’une autre valeur, nommée « troll_forcer », qui permet à un administrateur du système de forcer une valeur au cas où l’algorithme serait problématique : soit parce qu’il faudrait désarmer rapidement un troll sans couper son compte, alors que l’automatisme ne l’aurait pas détecté, mais bien plutôt parce que la pénalisation automatique serait jugée injuste (c’est la raison initiale de cette valeur manuelle, en fait).

      @arno, t’es sur Mastodon ?

      Nope. (Déjà que je suis « plusieurs » sur Seenthis…)

    • @butadaie je découvre que tu détournes systématiquement le tag qui sert à dénoncer des agressions sexuelles, je trouve ça odieux vu qu’il t’a déjà été expliqué les raisons pour lesquels c’était violent de l’utiliser ici même. En effet, sur seenthis, nous avons fait communauté de féministes et de pro féministes aussi pour nous défendre du sexisme et des phallocrates dans ton genre qui pullulent suffisament sur Internet. Donc, je profite de cette conversation sur les trolls et puisques tu considères toi même que tu ne sers à rien, va donc aussi poser tes cacas de #balanceton ailleurs.

    • Quand je vivais en communauté, j’avais signé seule le bail et j’étais responsable du paiement du loyer et de l’ambiance, encore aujourd’hui je me dis que j’ai fait les deux rôles que je déteste toujours autant : banquier et flic jusqu’au désespoir et abandon de la maison.
      Mais ça a été pareil pour la vie en squatt, poser des règles communes ou partir, sinon c’est la confrontation constante avec ceux qui pensent que l’anarchie c’est chier où on veut.
      Et je me rappelle de discussions avec mon poto pedro, antifa notoire que je traitais de stal mais qui savait éviter ce genre de problème par des éjections immédiates.
      Bref, je vous avoue que je me moque complètement de former un #entre_soi, je l’aime moi cet endroit et ça ne me dérange pas qu’on discute de virer untel et de le faire. Dans le monde virtuel, on ne meurt pas de froid et il y a plein d’endroit où crécher.

    • @nicod_ Je ne faisais pas une fixette sur carmignola_1er loin de m’exciter, j’ai fini par le bloquer. Il s’en étonnait lui-même et me le fit savoir par billets interposés. C’est bien en cela qu’il était devenu pénible et spécialiste. Aussi, à l’inverse de toi qui m’a bloqué, ça m’arrange !
      @sombre @arno et bien d’autres ont fini par être vraiment énervés par ce jean_foutre. Il y a 1 mois, un seen lui était dédié :
      https://seenthis.net/messages/653239
      qui lui était ouvert, @seenthis ayant l’intelligence et l’amabilité, à ce moment, de ne pas le bloquer. Il n’est intervenu qu’une seule fois dans ce fil et à mon sujet.
      Pour moi la guerre était déclaré et pleutre qu’il était comme tout bon troll qui se respecte, il finit par retourner dans sa niche. Comme je l’appréhendais, il revenait à la charge le mois dernier. ( Je jetais un oeil de temps en temps à ses élucubrations). Aujourd’hui @arno lui a coupé le sifflet et je vais surement pas le regretter. C’est pas les os à ronger qui me manque, ma gamelle déborde. Si je manque d’énergie, j’ai beaucoup de temps, je dirais même que j’ai que ça à foutre. Tu peux changer d’avis @nicod_ mais ne me débloque pas, si je ne t’ai pas bloqué mes sentiments envers toi sont au moins réciproque aux tiens !

    • C’est paradoxal d’envisager résoudre un problème concernant le fonctionnement social du réseau par une solution technique. À la rigueur je comprendrais que le problème se pose éventuellement pour des comptes alimentés par flux dont les réponses ne seraient pas toujours contrôlées.

      Chaque compte a déjà la possibilité de bloquer et d’effacer des messages, on peut dire que c’est de leur responsabilité tacite. Chacun·e décide de la pertinence de bloquer ou d’effacer, de l’assumer dans le contexte de ses signalements ou du réseau dans son ensemble, ou parce qu’il faut savoir faire avec les fâcheux et les intempestifs, ou parce qu’il n’est pas question de censurer quoi que ce soit, etc. Déjà la solution technique, aussi limitée soit-elle, exclut d’emblée toutes ces questions — et les positions personnelles qu’elles impliquent.

      Les cas limites sont marginaux et se règlent aujourd’hui en concertation publique, ce qui peut paraître superflu en l’occurrence mais au moins c’est argumenté, légitimé et ça laisse une trace.

      Est-ce que le temps passé/perdu à discuter de la pertinence d’un blocage, même limité, serait moins bénéfique pour le fonctionnement social du réseau que le temps passé/perdu à développer et maintenir un algorithme qui agira sans bruit, à l’insu même des comptes qui le déclenchent ?

      Alors évidemment au bout de la discussion il faut bien quelqu’un qui appuie sur le bouton. S’il s’agit au fond de savoir qui fait quoi, qui décide de quoi et qui se fade le sale boulot, une réponse technique n’est pas la meilleure façon d’éluder la question.

    • Mais est-ce que vous lisez l’explication ou bien ? :D

      Au risque de répéter encore, la solution envisagée n’est pas si technique que ça : elle est basée justement intégralement sur les signalements sociaux des gens : est-ce que ce compte est beaucoup suivi et/ou beaucoup bloqué.

      Si la balance est en sa défaveur pour du blocage, alors le compte n’est PAS censuré mais juste il ne peut plus écrire que chez les gens qui l’ont suivi vraiment exprès.

      Donc arrêtez de parler de censure ou de solution méga-technique genre ça va deviner tout seul ceci-cela : c’est basé sur le signalement humain qu’untel est bloqué par plein de gens et ça l’empêche alors de nuire aux autres qui ne l’ont pas encore bloqué (mais sans le censurer ni virer son compte).

    • Après, l’algo d’ @arno arno me semble intéressant… mais il sait lui-même qu’on devrait se méfier des algos qui prétendent trier ce qui est recevable de ce qui ne l’est pas → FB !

      @rastapopoulos je lis mais dès qu’il s’agit de tuyauterie j’suis largué. La réflexion de @monolecte ci-dessus me parle plus que vos solutions techniques, ainsi que celle de @zorba
      Maintenant c’est vous qui mettez les mains dans le cambouis.

    • @rastapopoulos Je pense savoir lire en effet, j’ai bien compris comment ça marche, je parle bien de blocage limité et j’essaie d’expliquer pourquoi, même limité, de cette façon ce serait problématique.

      Tout le monde n’est pas d’accord sur le pouvoir de nuisance imputé ni sur la manière d’y répondre et surtout certain·e·s donnent quelques arguments sur des conséquences de la solution envisagée éventuellement inverses à ce qui est recherché.

      Pour être tout à fait clair, je suis à 100% d’accord avec @monolecte et j’estime pour ma part que le « fonctionnement social » et l’« intelligence collective » de seenthis auraient plus à perdre qu’à gagner avec cette solution.

    • Le truc que j’ai déjà essayé de dire, mais je ne m’exprime pas aussi bien que vous, c’est que s’il y a un pouvoir de police et de flingage à vue, ç’aurait été bien de le savoir. Mais ça semble s’éclaircir finalement.
      Butadaie ne me semblait pas bien méchant sur le fond.
      Je pense que vous allez finir #entre_vous, à enfoncer des portes ouvertes.
      Allez, fais péter le score de troll...

    • Le troll, c’est la vie ... nous rappelle fort pertinemment @Monolecte. C’est aussi l’air que nous respirons et souvent ça pue comme les gaz issus de la fermentation intestinale. Et malheureusement c’est difficilement évitable dans un « espace » où nous sommes nombreux. Après, c’est vrai qu’on devrait éviter de nourrir un troll car on alimente la fermentation. Mais dans le cas de Carmignola (que j’avais bloqué depuis euh... un bout de temps), ça m’a énervé de le voir semer ses idées nauséabondes sur des discussions que je suivais. Bon, ce type est vraiment « secoué du carafon » comme il a été justement dit. À sa décharge, s’il a menacé de me « foutre à l’air », je l’avais aussi un peu cherché. Ceci dit, les menaces de mort ou autres « sévices corporels » sur le web, Internet, etc ... je ne crois pas qu’il faille leur accorder plus d’importance que ça : nous sommes dans une cour de récré planétaire encadrée par des algorithmes et les joutes qui s’y déroulent n’y resterons que verbales. Finalement, un troll, ça peut servir de punching ball pour se défouler. Si on arrête de le frapper, il redevient aussi inerte qu’un quartier de barbaque en décomposition. Maintenant, j’approuve les décisions des administrateurs de Seenthis à l’encontre de personnages devenant un peu trop visibles par leur grossièreté, leur idéologie ou leurs comportements de harceleurs.

    • Le problème du troll qu’on ne peut pas bloquer se pose lorsque la discussion part d’un compte comme rezo, basta, odm, etc ou de comptes peu actifs dont les contributeurices n’ont pas vu que leur post était pourri.

      Dans ce cas on peut déplacer la discussion sur son propre compte où le troll est bloqué et y reprendre la discussion. Il serait alors intéressant de pouvoir se « décrocher » du fil de discussion pourri en ne recevant plus ses notification mais je sais pas si c’est possible.

    • Et même, j’ai remarqué dans mes tests plusieurs cas d’intervenants ici qui sont beaucoup bloqués par d’autres usagers, soit parce qu’ils expriment des opinions qui ne plaisent pas toujours, soit parce qu’ils une façon de discuter un peu brutale, et qui pourtant obtiennent un assez bon score dans l’algorithme, parce qu’à l’inverse ils sont en même temps assez largement suivis.

      Merci @arno j’avais peur d’etre exclue avec une procédure automatique mais je suis rassurée :)

    • @nicod_ et @butadaie Ce n’est pas si grave. Il y a justement quelque chose que nous apprend une fréquentation assidue de seenthis, c’est de mieux gérer notre orgueil d’une part, et de mieux lire et écouter l’autre d’autre part (ce qui est en soit un vrai apprentissage), deux choses qui demandent un long apprentissage (puisque ça nous oblige à sortir de nous même). Les dérapages de cette discussions sont inutiles, vous auriez sans doute pu dire la même chose en rebondissant sur les termes du débat de manière moins émotionnelle ou injurieuse, plus pragmatique. Seenthis est un outil exceptionnel, essayons de garder le niveau ?

    • Butadaie a été bloqué par arno, donc là encore aucun rapport avec un pouvoir de police ou un flingage à vue, il n’est pas censuré, son compte est toujours là, et celleux qui l’aiment bien peuvent toujours le suivre et avoir des messages de lui sur leurs fils.

      Le but de la modif proposée par arno c’est justement de ne plus avoir à virer des comptes par un pouvoir de police, mais de réguler ceux qui pourrissent les discussions en empêchant celleux qui veulent parler d’un sujet précis de continuer.

      Je ne sais pas si vous avez suivi les derniers qui ont dû être virés à la main mais c’est très exactement ce qui se passait. Ce n’est pas de la théorie et je ne vois pas le rapport avec une « commère du village » ou un enfant @monolecte, c’était concrètement du pourrissage de tous les fils politiques avec des messages explicitement sexistes et racistes et antisémites. Et non ça ne permettait pas du tout aux autres personnes de « continuer la discussion sans y faire attention » : ça c’est de la théorie, dans la réalité aucun des fils n’a pu continué correctement sur le sujet de départ. Donc il faut bien trouver une solution dans ce cas.

      @zorba j’ai beau relire plus, je vois bien des arguments mais qui portent sur les conséquences de vraies censures et suppression de compte, alors que justement ce ne sera pas le cas. Et donc je ne vois pas d’arguments qui portent sur le blocage qui est basé… sur l’intelligence collective des signalements des gens ! Quels sont donc ces mystérieuses conséquences inverses de ce qui est recherché ? Car on l’a déjà dit plus haut : il y a des tests en cours, et il n’y a absolument aucun faux-positifs, 0, que dalle : les gens qui seraient demi-bloqués par la solution proposées sont uniquement les 3 trolls qui ont pourri les discussions, alors que des gens bien bloqués MAIS suivis par d’autres en même temps ne sont pas bloqués (oui mad_meg tu dois en fait partie haha). Alors on peut parler de conséquences tout à fait théoriques, mais les tests montrent pour l’instant qu’il n’y en a pas. On pourra toujours décider de ne plus faire comme ça plus tard si on découvre des problèmes.

    • salut @phalene

      Il suffirait peut-être que tout le monde puisse simplement savoir par qui est bloqué un utilisateur postant un truc pas clair sur son fil. Dès qu’on sait un peu qui est qui et qui est dans le cercle de qui, il est assez facile de se positionner. C’est transparent, et chacun fait ce qu’il veut en conscience. Sur cette base, si vous tenez à une gestion rézosocialiste « les nôtres et les autres », vous pouvez même ensuite proposer un système de filtres automatiques du type « bloquer automatiquement les comptes bloqués par machin + tartempion + ... », qui plus est facilement « positivable » en « suivre automatiquement... » : à chacun donc ses chiens de garde et ses #pisteurs.

      Ceusses bloqués.es par ceux que j’ai bloqués seront toujours bloqués tant qu’ils ne sont pas débloqués.es. Non pas ça, s’il vous plaît, ça ressemble trop à une police de la pensée justement. Ou « bienvenue sur Seenthis » alors voilà ta case
      ton couloir et attention à ne pas déborder. Sinon pan sur les doigts et si t’insiste, tu seras désintégré dans 7 jours.

      qui est qui et qui est dans le cercle de qui,

      par déduction ça se fait naturellement, chacun.e fait son propre potage et de savoir qui est qui et qui est dans le cercle de qui ou qui à des affinités ou pas avec untel ou une telle.
      – Tu t’intéresse vraiment à ça ?
      C’est plus un fil à la patte mais un collier électronique autour du cou que tu suggères.

    • Rooo marielle stp, ne compare pas Aude_v (si tu parles d’elle) aux propos de Phalène qu’elle avait du fortement recadrer et qui à les relire ne me le font pas regretter du tout.

      Nicod_ et Reka, je lis votre « soutien » à xx qui a été bloqué ici sur le compte perso d’arno et je pense (j’espère tout du moins) que vous n’avez pas lu son dernier post ni les propos qu’il a tenu à mad_meg.

      Je tiens le lien de ces discussions à dispo.

      Ceux qui se sentent de partir font ça très bien tout·es seul·es (et qui veut noyer son chien …) d’autant que Seenthis a toujours été (il me semble) un réseau ouvert à tous et à toutes où les critiques diverses sont les bienvenues.

      Un point important à soulever il me semble est la question du féminisme qui est sur seenthis vraiment essentielle et nous sommes plusieurs femmes à nous soutenir dans cette pénibilité, c’est à dire à devoir contrer presque systématiquement des propos que nous ressentons comme violents ou qui tendent à asseoir toujours plus le patriarcat. Ce recadrage ne plait pas en général, surtout aux hommes, d’autres acceptent au contraire de ne pas prendre la parole aux femmes victimes de violence, ils sont exceptionnels. C’est important de le dire tout comme de ne pas laisser pourrir des invectives stériles. Donc cet « #entre_soi » qui semble être votre principal grief contre seenthis et que vous dénoncez est pour moi en tout cas, et je pense que nous sommes plusieurs à vouloir conserver plutôt cette originalité soit avant tout un lieu d’idées, un espace anthropologique pour avancer face à la mélasse sociale et politique. Et parce que cet espace est virtuel et techniquement ouvert, chacun·e peut y entrer pour participer ou en sortir si l’ambiance ne lui convient pas. A nous (ceux et celles qui apprécient les particularités de seenthis) de faire que l’ambiance y soit suffisamment solidaire et ouverte pour que nous puissions continuer d’accueillir de nouvelles ou nouveaux venus de tout horizons, pourvu qu’ils soient assez intelligents. Et l’intelligence n’est pas une histoire de cerveau dans ce cas, mais une histoire d’attention à l’autre.

    • @vanderling : Oui, il y a un mois. Mais ça faisait alors quelque chose comme six mois que je n’avais rien posté ni commenté.

      @arno : y a pas de mal. Je crois qu’il y a aussi @robyx à enlever, et @notabene en avait également exprimé le désir. Ce sont les seuls dont je me souvienne pour le moment.

    • La conséquence inverse à ce qui est recherché, c’est un appauvrissement du fonctionnement social, parce qu’entre autres cette solution

      – décide de ce qui est nuisible à la place des autres sans tenir compte des avis différents ;

      – retire ainsi une partie de la liberté des comptes à modérer leurs fils de discussion comme ils l’entendent — à partir du moment où tu donnes cette possibilité de modération individuelle sans charte particulière contraignante qui la délimiterait hors contrainte légale.

      – sacrifie la phase de discussion publique qui à défaut d’être utile en pratique donne sa légitimité à ce qui sera fait. Et c’est l’essentiel : pour moi le recoupement d’un certain nombre de blocages individuels et non concertés avec des cotes de popularité n’a pas la légitimité sociale d’une discussion argumentée.

      @ rastapopoulos je précise au passage que j’ai sans doute à peu près la même conception du nuisible en l’occurrence que toi et Arno, ce qui n’empêche pas de considérer des conséquences et des arguments différents.

      L’important pour moi c’est que ça se règle jusqu’ici d’une manière plus conforme à ce que j’attends de seenthis que si c’était un algorithme qui s’en chargeait. If it ain’t broke, don’t fix it.

      Tout ceci peut paraitre théorique et un peu dérisoire en regard des cas concernés, mais il s’agit plus de la nature du fonctionnement social du réseau que d’efficacité pratique. Qu’il s’agisse d’un blocage partiel ou total n’est pas la question de ce point de vue, pas plus que la censure ou l’entre soi.

      À propos de la distinction entre entre-soi et espace safe de discussion, j’avais proposé une fois qu’il soit possible de restreindre une discussion à une liste blanche extensible par cooptation. Avec le risque de multiplier les discussions fermées.

    • Il m’arrive de bloquer des contributeurs pour les raisons suivantes :
      – Il publient trop d’article en même temps. Une dizaine d’article l’un derrière l’autre.
      Je me simplifie la lecture, du blog.
      – Ils publient dans une langue que je ne connais pas, ou alors trop d’articles en Anglais.
      Je me simplifie aussi la lecture.
      D’ailleurs, souvent, on trouve la traduction des articles qu’ils publient en Anglais, ils ne prennent pas le temps de chercher.

      Ce ne sont pas des trolls.
      Les raisons d’un blocage peuvent être complexes.

  • Jeuxvideo.com : les coulisses du forum « 18-25 » racontées par les modérateurs
    http://abonnes.lemonde.fr/pixels/article/2017/11/16/jeuxvideo-com-les-moderateurs-racontent-les-coulisses-du-forum-18-25

    Le 4chan français

    « En 2004, la seule chose possible de faire était de supprimer un message », se souvient Thomas. A l’époque, il est surtout question sur les forums de parler de jeux vidéo, ou de commenter les derniers articles des journalistes de Jeuxvideo.com. « Puis, avec le temps, les gens se sont ouverts au dialogue pour parler des problèmes du quotidien, ainsi que des loisirs », se rappelle Julien (prénom modifié), modérateur suisse de 24 ans.

    De nouveaux outils sont venus rejoindre l’arsenal des modérateurs, comme le « kick », condamnant les intervenants au mutisme pendant trois jours, ou encore le « bannissement », lui interdisant de revenir. Une sanction dans les faits un peu vaine : « Tout le monde a depuis longtemps plusieurs pseudos avec lesquels jongler », regrette Thomas.

    « Une surcouche a été rajoutée il y a trois ans, appelée GTA. L’interface est correcte, mais aucun de ses outils n’est réellement conçu pour du traitement de masse. Et je pense n’avoir jamais eu à lire autant d’atrocités que maintenant. »

    Aujourd’hui, il faut avoir l’estomac bien accroché quand on veut modérer le « 18-25 ». « Tu veux même pas savoir le nombre de photos pédophiles, scatophiles, gores et autres vidéos plus ou moins malsaines que j’ai pu voir passer, énumère Nicolas. La nuit en particulier. On essaye de garder l’ambiance un peu borderline du forum, tout en devant contenter les admins qui ont des associations au cul. C’est un vrai casse-tête. »

    Il évoque aussi de la difficulté de se faire détester par une communauté dont il est pourtant issu.

    « On fait notre job, et du coup, ça ne plaît pas. Quand tu deviens modérateur, t’as une partie du forum qui te hait par principe. Quand j’étais simple utilisateur, moi aussi, je vouais une haine farouche aux modérateurs. »

    A l’inverse, il faut aussi faire avec les flatteurs, les flagorneurs, les hypocrites, et même ceux qui, en message privé, envoient des photographies de leur pénis, en espérant en retirer une quelconque faveur.

    « Mais les kheys [surnom que se donnent les habitués du “18-25”] ne sont pas mauvais, insiste Thomas. Ils sont protéiformes et turbulents, comme l’était ma classe de terminale. »

    #Modération #Forum #Jeux_vidéo

  • Dans les coulisses de la #modération du « 18/25 » de jeuxvideo.com
    http://www.lemonde.fr/pixels/article/2017/11/16/jeuxvideo-com-les-moderateurs-racontent-les-coulisses-du-forum-18-25_5215777

    (…) Tous racontent l’histoire de mesures prises dans la précipitation. Les modérateurs bénévoles du « 18-25 » auraient été prévenus le jour même, par un simple message privé. « Les explications sont restées floues », raconte Mickaël, 23 ans, le vétéran de l’équipe. « Chez Webedia, ils ont été des grosses billes sur le coup, y va plus franchement Nicolas (prénom modifié), 22 ans. On n’a eu des informations que jeudi soir, après une journée entière de censure durant laquelle les utilisateurs étaient perdus – et nous aussi. »

    Dans la nuit, une équipe de modérateurs salariés (aussi appelés « administrateurs ») est entrée en action. L’un des modérateurs bénévoles parle de dix postes en CDD. Contactés pour certains par Le Monde, ces « admins » ont invariablement expliqué ne pas avoir le droit de parler à la presse.

    Leur tâche, dans un premier temps : nettoyer les forums de fond en comble, sans faire dans le détail. Les insultes sexistes ou racistes sont systématiquement supprimées, mais aussi des termes jugés polémiques, comme « féministe » ou « Shoah », indépendamment du contexte dans lequel ils sont utilisés.

    « On a perdu pas mal de sujets parlant d’Hitler par exemple, et ce sur tous les forums, précise Nicolas. Ce qui a un peu énervé le modérateur du forum Histoire, par exemple. Ça s’est assoupli depuis, heureusement : les nouveaux salariés ont reçu de nouveaux ordres. »

    Mais la brutalité paye : dans une certaine mesure, l’ordre semble être aujourd’hui à peu près revenu sur le forum « 18-25 » de Jeuxvideo.com. Si l’on y trouve encore des messages misogynes et des blagues plus que douteuses, les appels au harcèlement semblent, pour le moment, contenus.

    *Pour combien de temps ? « De ce que j’ai entendu, les CDD courent jusqu’au 31 décembre », croit savoir Nicolas. Qui ne sait pas s’ils seront prolongés à cette issue.¨ « L’un des administrateurs est pour, semble-t-il presque regretter. Mais si les contrats sont prolongés, les bénévoles comme moi n’auront plus trop de raison d’être. »

    Les bénévoles n’ont plus à s’occuper des sujets agressifs qui pullulaient ces derniers jours et ont même été invités à repenser leur rapport au forum. « Animation, sujets à débat, relais entre les utilisateurs et les administrateurs… », énumère Thomas, modérateur expatrié à Londres. L’avenir qui se dessine pour eux semble d’abord être celui de gestionnaires de communautés.

    Du calme revenu, Thomas se félicite. Lui qui « soutient la cause féministe dans tous ses aspects » dit s’être porté candidat à la modération pour en finir avec ces débordements. Il regrette que les efforts de son équipe, lors des derniers mois, aient été si régulièrement niés.

    « Nous réclamions de meilleurs outils depuis longtemps », poursuit-il. Pour les modérateurs bénévoles, ce n’est pas leur bonne volonté qu’il faut mettre en cause, mais l’évolution trop rapide des forums.

    #digital_labor

  • CheckNews | Qu’est-ce que le forum 18-25 et que se passe t’il en ce moment ?
    https://checknews.fr/question/19131

    Des modérateurs, choisis parmi ses membres sont pourtant chargés de veiller au respect des règles du forum, et d’éviter les débordements. Suite à la déclaration de la ministre, Webedia a annoncé le doublement du nombre de modérateurs sur le forum (sans donner de chiffres précis), dans un communiqué transmis vendredi 3 novembre à l’AFP. Le groupe Webedia y explique « se tenir à la disposition des autorités pour confondre les auteurs de telles attaques ou menaces, et étudie la possibilité d’une action juridique solidaire ou spécifique à l’encontre des utilisateurs ayant possiblement détourné l’usage des forums jeuxvideo.com à des fins malveillantes ».

    Avec le temps, le 18-25 est devenu la caisse de résonnance d’une partie de la culture web. On doit à ce forum des expressions passées dans le langage courant, comme "kikoulol". Mais ce forum s’est aussi distingué par des dérapages de certains de ses membres.

    Mais quelques centaines de membres très actifs jouent peu ou prou la même partition provocatrice. Ceux-ci endossent leur costume de super-héros rendant justice au forum lorsqu’il est dénigré, dans les médias notamment. Leur désir d’influencer l’opinion a abouti à voir parfois ses membres les plus actifs mener une partie du groupe vers le militantisme politique. Aboutissant aujourd’hui à un curieux mélange entre idées réac’, nationalistes, anti-immigration, et des actions de soutien à Jean-Luc Mélenchon (les membres du « 18-25 » ont gardé leur surnom acquis alors de « Kheys »).

    L’exaltation de valeurs viriles, parfois par autodérision (il est bien connu que tout le monde a un pénis de 30 cm sur ce forum), a conduit aux premiers « raids » contre des personnalités féministes actives sur les réseaux sociaux. Un des raids les plus connus a été lancé en 2014 après la diffusion des planches de bande dessinée féministe sur un Tumblr caricaturant les harceleurs en crocodiles. La réponse des trolls du forum sont à retrouver ici. Depuis, les choses ne se sont pas calmées, les attaques contre le numéro « anti-relous » et Nadia Daam en étant le dernier épisode. Et à l’intérieur de la communauté, on s’agace aussi de ce que devient le forum, se demandant alors si « la politique » n’a pas pris le dessus sur l’esprit « bon enfant » qui l’anime.

    #Forum_jeux_video #Modération #Provocation #Sexisme

  • Salut, solidarité avec @mad_meg et mes excuses pour ma relative absence ces jours-ci. Je vais essayer d’expliquer la question du pouvoir de censure sur #seenthis.

    Seenthis (le logiciel et le site) a été conçu par @arno, qui l’hébergeait sur une petite dedibox. Suite à un crash majeur, j’ai proposé de me charger de l’hébergement. J’ai aussi fait un peu de développement sur l’outil, en particulier sur les aspects « moteur de recherche » et « performance » — les aspects « sociaux » sont restés en gros tels quels, je n’étais d’ailleurs pas tout à fait d’accord avec @arno sur ce qu’on voulait de ce point de vue.

    (Dans mon esprit il faudrait des petites instances seenthis où on connaisse les gens, et qui s’interfaceraient entre elles si on veut communiquer avec d’autres — comme l’email ou comme Mastodon. Mais c’est dur à faire et seenthis n’a pas à l’heure actuelle cette capacité.)

    Je n’ai jamais aimé l’idée d’héberger les contenus de n’importe qui, à cause du pouvoir et de la responsabilité que cela me donnait de devoir censurer ou assumer la maintien de tel ou tel message, compte, accès, etc. Les deux faces de la médaille me déplaisent : je suis contre la censure privée (donc pas content d’avoir ce pouvoir), mais évidemment je n’ai pas non plus envie que des gens se servent des ressources que je mets à leur disposition pour en attaquer d’autres, etc.

    Donc dès le départ j’avais conçu cet hébergement comme une aide temporaire à seenthis, avec l’idée de rendre ça à terme plus collectif. Comme il n’y avait pas beaucoup de problèmes, ça a duré deux ou trois ans, pendant lesquels le site s’est bien développé en termes d’utilisateurices et de contenus, et une communauté de plus en plus « magique ». Durant cette période, vu la situation sur l’hébergement, j’ai dégagé sans état d’âme un ou deux trolls bien méchants (notamment @vilistia qui avait envoyé des accusations de pédophilie contre un personnage public), et les spammeurs bien entendu.

    Depuis quelques temps on essaie de passer à une gestion collective du site, avec la question technique et financière de l’hébergement, et celle politique et légale de la modération/censure. Sur la question technique, on a bien avancé avec l’aide de Gilles pendant un an ou plus, puis plus récemment l’aide de BigGrizzly, et on est plusieurs à assumer l’hébergement et le développement, de façon relativement ouverte qui se déroule dans trois lieux : seenthis.net, une mailing-liste seenthis at rezo.net, et les pages github. Sur la question financière, on n’a pas encore beaucoup avancé, la discussion est lente mais constructive.

    Où en sommes-nous sur la question de la modération ? On a semble-t-il des points de vue divergents, tiraillés, entre suppression ou suspension du compte, laisser faire avec le système de blocage, ajouter des fonctionnalités de « signalement », etc.

    Ce que je souhaiterais c’est qu’on avance sur la question de façon concrète. Le faire demandera du temps. Surtout que pour l’instant on a l’air bien divisé·es sur l’approche à adopter.

    Cependant il me semble que ce n’est pas en pleine crise et sous la pression d’un harceleur en crise qu’on va décider des bons principes. Et comme le @dude ne se calme pas, je ne crois pas que ce soit une bonne idée de laisser pourrir tant qu’on en discute.

    Il faut décider quelque chose ici et maintenant, donc je vais (une dernière fois) user/abuser de mon pouvoir et supprimer ce compte, et par la suite tâcher d’interdire à @dude de revenir. Mais je ne veux plus qu’une personne (moi ou un autre) ait ce pouvoir et puisse l’exercer de façon arbitraire, sans que des règles plus claires et plus démocratiques aient été fixées.

    • Merci @fil pour ton soutiens, pour tout ce que tu fait pour Seenthis et pour le bannissement du troll qui me harcelait. Désolé que tu ai du en venir à ces extrémités et que tu ai encore seul la charge de cet acte. Je suis d’accord avec le fait de discuter de ces problèmes de modération au calme. Merci

    • https://seenthis.net/fran%C3%A7ais/mentions/article/recommandations

      — on s’emporte, on s’emporte, et on dit des choses qu’on finit par regretter... si vous êtes énervé, respirez un bon coup, et faites attention à ne pas tomber dans la diffamation ou l’insulte, qui pourraient vous être reprochées par des tiers.

      Est-ce la seule recommandation ? Est-ce qu’elle ne devrait pas être plus étoffée, plus précise, faire l’objet d’une manière de charte à laquelle on pourrait renvoyer des personnes ne la respectant pas et cela de façon graduelle ?

    • Ouaip, vraiment #super_merci #seenthis et @fil et cætera, bref tout le monde. Je trouve ça super impressionnant la sagesse collective qui apparait et au final, c’était peut-être une bonne chose que tu sois pas trop là, Fil, et que tu sois aussi corriace @mad_meg
      Comme je veux pas réagir trop à chaud, je m’en vais lire des textes sur la prise de décision collective, le #consensus, les outils de facilitation, tout ça tout ça ... Là je commence par ça : http://www.le-commun.fr/index.php?page=micropolitiques-des-groupes ... d’ailleurs est-ce qu’il existe un fil-ressource, heu, un #tag précis sur ce genre de textes ?

    • On a déjà 3 lieux de discussion… ça fait peut-être un de trop, il ne me semble pas urgent d’en ajouter un quatrième :)

    • J’ai eu à gérer un troll, il s’inscrivait à nouveau dès que je le virais. Puis il changeait d’adresse mail, et d’adresse IP. Et il persévérait. Le système d’ostracisme de SeenThis est vraiment pratique, étonnamment. Il n’empêche pas les inscriptions multiples, mais il rend en un clic un troll muet et aveugle pour ceux qui ne veulent pas le voir. Ce qui parfois est préférable que de le rendre furieux en le virant.

      J’ai tjs maintenu la position que la plateforme devait être neutre, et que la loi française devait être appliquée en dernier ressort, et sous le contrôle d’un juge. C’est sans doute extrémiste, mais c’est mieux que de devoir s’assurer que les éventuelles procédures démocratiques d’un éventuel règlement intérieur ne seront pas détournées par des trolls vicieux capables de semer la zizanie entre des gens qui par ailleurs s’entendent parfaitement.

    • Du coup solidarité aussi avec toi @fil

      Et je voudrais juste rappeler au passage et pour alimenter la réflexion que quel que soit qui décide de quoi et comment, au final ce sera sur le responsable légal du site que ça retombera en cas d’embrouille sévère.

      (L’anticiper supposerait d’assigner cette responsabilité à une personne morale… une asso par exemple… hum…)

      (Ha oui, et je rajouterai suite à @biggrizzly que la modération individuelle a ses limites, impossible de laisser quelqu’un délirer même tout seul dans son coin sans risquer de finir par nuire à quelqu’un en particulier ou au service entier.)

    • @fil
      1) Je suis assez d’avis que 3 lieux me paraissent trop.
      2) Quand je parlais de signalement ce n’était PAS pour parler d’une fonctionnalité dans le site (comme le plugin de @kent1). C’était pour dire qu’il devrait y avoir un lien (et non pas un bouton) « Signaler un problème », qui amènerait soit directement vers l’un des lieux si c’est assez clair, soit (je trouve ça peut-être mieux) vers une page article interne, qui va expliquer aux gens où et comment illes peuvent signaler des soucis quand il y en a, et cela suivant le type de problèmes (bugs techniques, spam, troll, etc). Actuellement, on peut considérer que personne ne sait comment on doit faire et où exactement, puisque rien n’est expliqué nulle part (seulement quelques happy fews qui ont suivi et ont compris).

      Et cette page permanente peut déjà être faite avant même qu’on ait simplifier le nombre des lieux de discussion, et être mise à jour au fil des changements.

    • Merci @fil pour tout ce que tu fais.

      Je comprends très bien que tu ne veuilles pas tout ça sur tes seules épaules. En passant, tu mentionnes le coté financier : on peut participer ? S’il y avait une cagnotte, un Patreon, ou un truc du genre j’y mettrais.

      Sur la question de la censure, tu parles de règles plus claires et plus démocratiques. Je pense qu’il faut séparer les deux.

      Premièrement, les règles claires. Il existe bon nombre de CoC. Pourrait-il suffire d’en choisir un ? (S’il faut le traduire de l’anglais, je peux aider.) Pour le code http://contributor-covenant.org est relativement populaire (je ne suis pas expert, je ne sais pas si ça peut s’appliquer directement).

      Pour le coté démocratique, au risque d’aller à contre-courant je pense que s’il y a des règles claires et une communauté relativement petite et généralement très sympathique (de ce que j’en ai vu !), il n’y a pas besoin de processus décisionnel lourd. La démocratie de proximité ça peut être aussi simple qu’un petit « conseil » constitué de quelques uns de confiance (avec des remplacements occasionnels quand un-e en a marre). C’est plus simple et moins lourd (et souvent plus juste) qu’un système de vote. La politisation n’a pas toujours que du bon :)

    • to all. La discussion de soutien à @mad_meg a eu aussi lieu sur la liste. J’ai essayé de lire, je voulais commenter, mais suivre jusqu’au bout c’était aussi saoulant qu’un discours présidentiel, je ne voyais pas quoi dire et faire d’autre que de voter pour la fermeture du compte, compte-tenu de la violence et la binarité des propos.

      Je trouve l’idée de la page signaler un problème de @rastapopoulos intéressante, mais ça ne règle pas le problème de la prise de décision.

      Pour ce qui est d’attendre qu’on en arrive à une procédure judiciaire, comme le suggérait @biggrizzly, je suis vraiment contre, car cela représente beaucoup d’énergie et d’argent — pour des résultats aléatoires.

    • Oui tout à fait @supergeante, ça ne résout rien du côté des mainteneureuses. Mais ça clarifie les choses pour les utilisateurices qui seraient victimes d’un problème, et qui actuellement ne savent pas où se tourner à part les quelques potes proches qui gravitent autour du noyau.

      Ensuite pour la partie « qu’est-ce qu’il se passe derrière » pour l’instant ça reste autoritaire avec telle ou telle personne qui font et on réfléchit à comment améliorer ce côté de l’histoire, mais au moins la partie côté public pour les gens serait à peu près réglée. C’est déjà ça. :)

    • @b_b mais pour le public, il y a quelques points à décider/définir quand même : concrètement on leur conseille d’aller où en priorité, de faire quoi ? Si les personnes peuvent, en priorité s’inscrire sur Github et créer des tickets ? Et si elles ne peuvent pas ou trop compliqué, utiliser des tags dédiés auxquels doivent être abonnés les admins (seenthis_bug, seenthis_troll, seenthis_spam, …) et c’est les contributeurices qui créeront le ticket pour s’en rappeler ?

      La partie décision/démocratie n’est pas encore calée, mais comme on le voit, la partie côté utilisateurices n’est pas calée non plus. Ma proposition de page « Signaler un problème » est à mon avis à faire mais… il faut justement décider quoi y mettre et qu’est-ce qu’on conseille de plus simple aux gens.

      Pour l’instant on peut leur expliquer les trois lieux existants
      – le github et synthétiquement en français comment ajouter un ticket
      – la liste email (mais je ne me rappelle même plus si on peut s’y inscrire soi-même ou pas ?)
      – invoquer @seenthis et des tags dédiés ici-même

    • Le problème du signalement sur GitHub est qu’il utilise une autre identité. Si je me sers de SeenThis pour préparer (pseudonymement) le Grand Soir, je n’ai peut-être pas envie qu’on puisse relier cette activité à mon GitHub que j’utilise pour le boulot. Évidemment, je peux créer un second compte là-bas, mais un des principes du signalement est qu’il devrait être simple pour la victime.

      Comme modèle de signalement (actif, non pas juste un lien vers des instructions), une bonne référence est la façon dont c’est fait dans Discourse. En tant qu’un des admins de Specifiction, pui WICG j’avais trouvé ça simple et souple (et orienté vers une résolution pacifique). Mais évidemment, je ne sais pas s’il y a la même chose pour SPIP ou si ça demanderait du dév.

  • Leaked Facebook docs: weird censorship standards that protect “white men but not black children”
    https://boingboing.net/2017/06/29/protected-categories.html

    In practice, that’s a hard line to walk. But there are plenty of lines that are easier to toe: Facebook allows its users to make blanket condemnations of “black children” (because children are not a protected category, and “black children” are a “subset” of all black people). But condemning “white men” is banned, because both race and sex are protected categories.

    The problem is not in the desire to protect people from racist attacks, but in failing to take power into account when enforcing the policy — a failure to recognize the difference between bigotry (disliking someone based on their race, sex, etc) and systemic racism (when one group uses its power to oppress another).