• Quand les tribunaux nourrissent les #trolls

    Les #patent_trolls ou « chasseurs de #Brevets » sont des sociétés parasites qui tirent profit d’un portefeuille de brevets dont elles ont fait le plus souvent des dépôts abusifs. Elles sont particulièrement néfastes aux USA où elles multiplient les menaces de … Lire la suite­­

    #Droits_numériques #Internet_et_société #Non_classé #Censure #MyCroft #pression #VoiceTech

  • Opinion | What We Pretend to Know About the Coronavirus Could Kill Us - The New York Times

    Article passionnant sur l’enjeu des fausses informations, sur la différence de temps entre la réflexion et la science d’un côté et les outils de l’information de l’autre. Les fausses informations se construisent sur la multiplicité des données disponibles. En ajoutant des chiffres et des courbes, les fake news adoptent un « effet de réel » qui les rend crédibles. Une vieille technique littéraire largement exploitée par la science fiction depuis Jules verne.

    (complément : je viens de trouver une version en français à : https://teles-relay.com/2020/04/03/opinion-ce-que-nous-pretendons-savoir-sur-le-coronavirus-pourrait-nous-)

    Other than a vaccine or an extra 500,000 ventilators, tests and hospital beds, reliable information is the best weapon we have against Covid-19. It allows us to act uniformly and decisively to flatten the curve. In an ideal pandemic scenario, sound information is produced by experts and travels quickly to the public.

    But we seem to be living in a nightmare scenario. The coronavirus emerged in the middle of a golden age for media manipulation. And it is stealthy, resilient and confounding to experts. It moves far faster than scientists can study it. What seems to be true today may be wrong tomorrow. Uncertainty abounds. And an array of dangerous misinformation, disinformation and flawed amateur analysis fills the void.

    On Friday, President Trump announced that the Centers for Disease Control and Prevention had changed the recommendation on masks to say that all Americans should use “non-medical, cloth” ones. “You can do it. You don’t have to do it. I’m choosing not to do it,” Mr. Trump said. “It’s only a recommendation.”

    But the reversal may prove costly for the World Health Organization’s and the C.D.C.’s credibility. As Zeynep Tufekci, a University of North Carolina professor, wrote in a Times Op-Ed weeks ago, a lack of transparency up front created its own information crisis. “What should the authorities have said?” she asked. “The full painful truth.”

    The fear and uncertainty around the coronavirus is, of course, fertile ground for extremists and hucksters. Alex Jones of Infowars is pushing a conspiracy theory that the virus is an American-made biological weapon and is directing viewers to purchase any number of overpriced vitamin products from his stores. People who believe the myth that 5G wireless signals are harmful to health have falsely linked the technology to Covid-19.

    The anti-vaccination movement is also capitalizing on the pandemic. The New York Times used the analytics tool CrowdTangle to survey 48 prominent anti-vax Instagram accounts and found that video views spiked from 200,000 in February to more than two million in March, just as the pandemic took off globally. Another Times analysis of anti-vax accounts showed a surge in followers during the last week of March. In private groups on Facebook, junk science and unproven treatment claims proliferate.

    But you don’t have to be a science denier to end up seduced by bad information. A pandemic makes us all excellent targets for misinformation. No one has natural immunity to this coronavirus, leaving us all threatened and looking for information to make sense of the world. Unfortunately, the pace of scientific discovery doesn’t match the speed of our information ecosystems. As Wired reported in March, researchers are moving faster than ever to understand the virus — so fast that it may be compromising some of the rigor.

    But much of the pernicious false news about the coronavirus operates on the margins of believability — real facts and charts cobbled together to formulate a dangerous, wrongheaded conclusion or news reports that combine a majority of factually accurate reporting with a touch of unproven conjecture.

    The phenomenon is common enough that it already has its own name: armchair epidemiology, which Slate described as “convincing but flawed epidemiological analyses.” The prime example is a Medium blog post titled “Covid-19 — Evidence Over Hysteria” by Aaron Ginn, a Silicon Valley product manager and “growth hacker” who argued against the severity of the virus and condemned the mainstream media for hyping it.

    Without a deeper knowledge of epidemiology or evolutionary biology, it would have been easy to be seduced by Mr. Ginn’s piece. This, according to Dr. Bergstrom, is what makes armchair epidemiology so harmful. Posts like Mr. Ginn’s “deplete the critical resource you need to manage the pandemic, which is trust,” he told me. “When people are getting conflicting messages, it makes it very hard for state and local authorities to generate the political will to take strong actions downstream.”

    It’s this type of misinformation on the margins that’s most insidious. “I am seeing this playbook more and more,” Dr. Bergstrom said. “Secondhand data showing a crisis narrative that feels just a bit too well crafted. Mixing the truth with the plausible and the plausible with that which seems plausibly true in a week.” Dr. Bergstrom argues that the advances in available data make it easier than ever for junk-science peddlers to appear legitimate.

    This hybrid of true and false information is a challenge for social media platforms. Covid-19 and the immediate threat to public health means that networks like Facebook, Twitter and YouTube have been unusually decisive about taking down misinformation. “In a case of a pandemic like this, when we are seeing posts that are urging people not to get treatment,” Facebook’s chief executive, Mark Zuckerberg, said recently, “that’s a completely different class of content versus the back-and-forth of what candidates may say about each other.”

    Facebook took down a video of Mr. Bolsonaro when it became clear he was using the platform to spread unproven claims that chloroquine was an effective cure for the coronavirus. Similarly, Twitter temporarily locked the account of Rudolph Giuliani, a former mayor of New York City and Mr. Trump’s personal lawyer, for violating Twitter’s rules on Covid-19 misinformation with regard to hydroxychloroquine treatments. Depending on how you feel about technology companies, this is either heartening progress or proof that the companies could have been doing far more to tamp down misinformation over the past five years.

    The platforms are slightly more prepared than they once were to counter public-health myths, having changed their policies around medical misinformation after measles outbreaks in 2019. “With measles there was a lot of available authoritative information about measles,” Ms. DiResta told me. “The difference with coronavirus is that until months ago, nobody had seen this virus before.”

    “The really big question that haunts me is, ‘When do we return to reality?’” Mr. Pomerantsev mused over the phone from his own quarantine. “Or is it that in this partisan age absolutely everything is chopped, cut and edited to fit a different view? I’m waiting for society to finally hit up against a shared reality, like diving into the bottom of swimming pool. Instead we just go deeper.”

    #Fake_news #Culture_numérique #Trolls #Coronavirus

  • #Twitter is Considering Tipping via Tweet, New Identifiers for #Trolls

    After years of criticism for its perceived failure to evolve its platform, and take action on key elements fast enough, Twitter says that it’s now "picking up the pace” of innovation, and looking to implement more changes and options to help improve the overall Twitter experience.

    We’ve already seen some of these in its updates to lists and the addition of topics to follow, and there are more on the way, with controls over who can reply to your tweets and it’s long-awaited ’conversational’ features. But these are just some of the elements that Twitter’s working on - according to new reports, Twitter is also looking into a new tipping option for tweets, improved identification of trolls, tweaks for lists, and more.

    Here’s an overview of some of the additional Twitter updates we may see in the near future.

    1. Tipping in Tweets

    With Facebook moving further into on-platform payments, and Twitter CEO Jack Dorsey’s enthusiasm for cryptocurrency, it may come as little surprise that Twitter too is looking at its own payment option, with tipping via tweet.

    As reported by The Information:

    “Twitter is considering a feature that will allow users to tip - sending each other money from their tweets - according to two people familiar with the company’s decisions. [...] Twitter and Square already partner to let users make donations to politicians through tweets, according to company filings.”

    There’s a lot to consider here - the capacity to exchange money via tweet could have significant implications for the service, and may provide a whole new revenue stream to popular tweet creators.

    Or not. The key strength of Twitter is the capacity to be able to contribute to public discourse, to have your say on any given topic and add that into the wider Twitter stream. If you were able to charge people to see your tweets - which is not currently the proposal, but maybe an extension of the same - that would also, theoretically, reduce your exposure, which may negate its value anyway.

    But still, no doubt those who share scoops and exclusive insights on Twitter will be doing the math in their heads, calculating what, exactly, their tweets are worth. The truth is, probably not much - but maybe, if they could call for contributions from their loyal fans, it could provide another incremental income stream, if the option were to go that route.

    More likely the option would be a boon for those sharing adult content on the platform - but still, the capacity to raise funds via tweet would open up a range of possibilities. And worth noting, YouTube recently reported that more than 100,000 of its channels are now earning money via its live-stream tipping option, called ’Super Chat’, with some streams generating more than $400 per minute “as fans reach out to creators to say hello, send congratulations, or just to connect”.

    The use case is obviously different, but it may provide some pointers as to where Twitter is looking on this front. 

    It’s also worth noting that various Twitter employees have said that, while this has been discussed, such a project is not actively in development at this stage.

  • #Incendies en #Australie : les climatosceptiques derrière une grande campagne de #désinformation | LCI

    Des chercheurs ont ainsi observé que la crise actuelle avait donné lieu à une campagne de désinformation « sans précédent » dans l’histoire du pays, avec des "#bots" (programmes informatiques qui envoient automatiquement des messages) déployés pour défendre l’idée que les feux ne sont pas liés au réchauffement climatique.

    Alors que des médias, des sites et des hommes politiques conservateurs du monde entier défendent l’idée que les feux seraient en fait criminels, le hashtag #arsonemergency ("urgence incendie criminel") est notamment utilisé en force sur les réseaux sociaux.

    Timothy Graham, expert des médias numériques à l’Université de technologie du Queensland, explique à l’AFP que, selon ses recherches, la moitié des comptes #Twitter utilisant ce #hashtag semblent se comporter comme des « bots » ou des « #trolls », ces internautes publiant des messages intentionnellement provocateurs. « Nos conclusions révèlent un effort concerté pour désinformer le public sur les causes des #feux_de_forêt », indique-t-il. « Cette campagne est sans comparaison dans son ampleur avec ce qu’on a pu voir dans d’autres pays, comme lors de la présidentielle américaine de 2016, mais ce niveau de désinformation en Australie est sans précédent. »


  • How making politicians unblock trolls could hurt speech online - The Verge

    Last week, the Knight First Amendment Institute urged Rep. Alexandria Ocasio-Cortez (D-NY) to unblock critics on Twitter. The Knight Institute has led a push to treat politicians’ social media accounts as public forums, filing a successful lawsuit against President Donald Trump for his Twitter-blocking habits. Ocasio-Cortez argued that the issue was more nuanced, though: she said she was blocking “less than 20 accounts” and that it was for harassment, not political viewpoints.

    Social media poses some unique problems that physical spaces don’t, however. It can operate at a scale that wouldn’t be possible offline, and it’s easy to hijack a conversation or amplify a point of view with automated posts or a handful of dedicated people acting in bad faith. Trolls can attack anyone who participates in a conversation, not just politicians, and they can do it across all of social media, not just in a single thread or post. This can turn supposedly open spaces into deeply hostile or unnavigable ones — not just for public figures like Trump or Ocasio-Cortez, but for anybody who wants to engage with them.

    As writer and law professor Tim Wu, journalist Zeynep Tufekci, and many others have pointed out, new tactics like troll armies and spammed responses have made traditional First Amendment protections less effective at promoting free speech online. “It is no longer speech or information that is scarce, but the attention of listeners,” explained Wu in a 2017 Knight Institute blog post. “No one quite anticipated that speech itself might become a censorial weapon, or that scarcity of attention would become such a target of flooding and similar tactics.”

    #Politique #Twitter #Liberté_expression #Trolls

  • Opinion | How an Online Mob Created a Playbook for a Culture War - The New York Times

    On August 15, 2014, an angry 20-something ex-boyfriend published a 9,425-word screed and set in motion a series of vile events that changed the way we fight online. The post, which exhaustively documented the last weeks of his breakup with the video game designer Zoë Quinn, was annotated and punctuated with screenshots of their private digital correspondence — emails, Facebook messages and texts detailing fights and rehashing sexual histories. It was a manic, all-caps rant made to go viral.

    And it did. The ex-boyfriend’s claims were picked up by users on Reddit and 4chan and the abuse began. Ms. Quinn and her immediate family members were threatened. Her private information was exposed, including old nude photos from a past relationship. Chat rooms popped up to discuss the best ways to “ruin her life” and fantasize about elaborate ways of killing her.

    Using fake Twitter accounts, 4chan users posed as “angry feminists” and got the hashtags #EndFathersDay and #WhitesCantBeRaped to trend globally. At a tech conference in 2013, in an incident called Donglegate, Adria Richards, a tech consultant and woman of color, tweeted about a sexist joke uttered during a keynote speech. Her tweet went viral, and Ms. Richards was fired, doxxed, received death threats and had “images of her beheaded, or her face photoshopped onto the body of porn stars.” Not all of the hoaxes succeeded: 4chan campaigns like “Operation Freebleeding” (where trolls pretended to be feminists rejecting tampons as patriarchal tools of oppression) failed to stoke culture war flames.

    “The energy and ideology of this movement weren’t new but Gamergate was when the movement evolved and the monster grew a voice box,” Whitney Phillips, an assistant professor at Syracuse who studies online harassment and media manipulation, told me. “All the anger, all the toxicity and fear of being replaced by a culture more focused on social justice — it all came together in a spectacularly awful way.”

    Unlike its predecessors, Gamergate jumped out of the obscure fever swamps of the internet and into mainstream consciousness, in part because its arrival coincided with a peculiar online moment in which social media platforms were becoming more mainstream. People who were unfamiliar with the chaotic underbelly of internet culture could be easily tricked or manipulated by its worst actors. “The clash of anonymous imageboard culture with the parts of social media where people live and work created the divide underlying Gamergate,” Jay Allen, a freelance writer, wrote of this dynamic in 2014.

    Crucially, Gamergate emerged during the internet’s shift from a largely anonymous or pseudonymous culture to one centered around personality-driven influencers. And, unlike previous abuse campaigns led by armies of unknown internet users, Gamergate attracted the attention of then-men’s rights bloggers like Mike Cernovich and Roosh V, right-wing political correctness monitors like Christina Hoff Sommers and middling journalists like Milo Yiannopoulos, then a writer for Breitbart.

    “Gamergate really prototyped the rise of harassment influencers,” Ms. Phillips told me, arguing that the size and intensity of the controversy quickly attracted opportunists who saw the conflict as a way to gain large followings stoking the culture war flames. In turn, these personalities extended the conflict, highlighting new controversies. The fact that these influencers were real, identifiable people only further legitimized the event for its followers.

    Today, five years later, the elements of Gamergate are frighteningly familiar: hundreds of thousands of hashtag-swarming tweets; armies of fake Twitter accounts; hoaxes and disinformation percolating in murky chat rooms and message boards before spreading to a confused mainstream media; advertiser boycotts; crowdfunding campaigns; racist, sexist and misogynist memes; YouTube shock jocks; D-list celebrities hand-wringing about political correctness on Twitter; Milo Yiannopoulos, Steve Bannon and Breitbart; Candace Owens.

    Gamergate’s DNA is everywhere on the internet, and the ubiquity of Gamergate’s influence has even spawned a winking trope: Everything Is Gamergate.

    Gamergate wasn’t the birth of a brand-new culture war, it was a rallying cry. And its trollish successes in intimidating women, deceiving clueless brands and picking up mainstream coverage taught a once-dormant subculture powerful lessons about manipulating audiences and manufacturing outrage. Five years on, no lesson feels more prescient than the fact that its supposed central premise — a broad reckoning regarding journalistic ethics in video games — was based on an easily (and frequently) debunked lie.

    Gamergate is occasionally framed as a battle for the soul of the internet between a diverse, progressive set and an angry collection of white males who feel displaced. And it is that, too. But its most powerful legacy is as proof of concept of how to wage a post-truth information war.

    The lesson of Gamergate — the one we feel reverberating throughout our politics every day in 2019 — is that there’s a sinister power afforded to those brazen enough to construct their own false realities and foist them on others.

    #Gamergate #Fake_news #Trolls #Faschosphère

  • Data vandal changes name of New York City to “Jewtropolis” across multiple apps [Updated] | Ars Technica

    Update, 12:20 pm: In a prepared statement sent to press, a Mapbox spokesperson said that Mapbox has “a zero tolerance policy against hate speech and any malicious edits to our maps.” The label change was deleted within an hour. "The malicious edit was made by a source that attempted several other hateful edits," the spokesperson said. “Our security team has confirmed no additional attempts were successful.”

    Mapbox data comes from more than 130 sources, and the Mapbox spokesperson said that the company has "a strong double validation monitoring system." A machine learning system flagged the change for review; this change was one of more than 70,000 that are flagged on a daily basis, according to the company. “While our AI immediately flagged this,” the spokesperson said, “in the manual part of the review process a human error led to this incident. Security experts are working to determine the exact origin of this malicious hate speech. We apologize to customers and users who were exposed to this disgusting attack.”

    #trolls #nazis #cartographie #mapbox via @archiloque

  • Les idéologues parasitent tout #débat sur #Twitter | Slate.fr

    Souvent, mes points de vue font l’objet de débats assez vifs. Dernièrement, j’ai néanmoins remarqué que lorsque je les exprimais sur Twitter, ils étaient systématiquement contredits par des personnes qui, dans leur sillage, entraînaient une meute d’internautes finissant par polluer mes conversations en me submergeant par leur caractère massif et hostile.


  • How journalists can avoid being manipulated by trolls seeking to spread disinformation

    To fight the spread of disinformation through the media, journalists and their allies need to understand the tactics of the #trolls who willfully promote those lies, said Joan Donovan, the project lead on media manipulation at Data & Society.

    “This is an adversarial movement trying to destabilize the entire institution of journalism,” Donovan said during a panel on “Trust: Tools to Improve the Flow of Accurate Information” at the International Symposium on Online Journalism in Austin, Texas, on April 13. Jennifer Preston, vice president for journalism at the John S. and James L. Knight Foundation, led the panel.

    The potential for willfully spreading disinformation is especially true when news is breaking, and separating the truth from lies is very difficult for journalists trying to nab a scoop under deadline pressure, Donovan said.


    #manipulation #désinformation #médias #journalisme #presse
    cc @fil

  • The Dirty War Over Diversity Inside Google | WIRED

    It began subtly. Coworkers peppered mailing lists and company town halls with questions: What about meritocracy? Isn’t improving diversity lowering the bar? What about viewpoint diversity? Doesn’t this exclude white men?
    (…) That’s when it clicked: perhaps some of her coworkers’ questions had not been in good faith. “We didn’t realize that there was a dirty war going on, and weren’t aware of the tactics being used against us,”

    #trolls #manipulation #racisme #sexisme #transphobie #trumpisme #google via @maliciarogue

  • #Le_Pistolet_et_la_Pioche S02E01 : Pourquoi #Twitter nous rend malades

    Le microblogging est une activité chronophage dans laquelle des millions de personnes ont plongé corps et âme. Pas une journée sans lire les tweets, commenter, répondre, donner son opinion, réfuter celle des autres, retweeter la […]

    #addiction_numérique #changement_de_société #haters #polémiques #Réseaux_sociaux #trolls


    • Pour être clair, la mention « perso je suis pour qu’on lui coupe son accès », c’est de moi.

      Dans un monde idéal, je pense qu’on utiliserait la valeur troll (ou sa valeur « manuelle » troll_forcer) de la table des auteurs, et quand cette valeur serait trop basse, l’individu ne pourrait plus poster que sur les gens qui le suivent. On aurait ainsi un moyen de calmer les trolls sans pour autant leur couper complètement la chique. Mais tant qu’on n’a pas ça (il faudrait déjà voir si la valeur troll continue à se mettre à jour et si elle donne des résultats un peu cohérents).

    • @unagi : tout est public sur Seenthis, alors même sans accès, y’a aucun souci pour lire.

      Après, rien n’empêche de toute façon de réouvrir un compte derrière. (Qu’on peut toujours couper si ça retrolle, mais qu’on peut aussi laisser s’il fout la paix.)

    • La solution d’@arno me plait bien, si j’ai bien compris une fois un individu flaggé en troll, c’est comme si toutes les personnes qui ne le suivent pas l’ont bloqué, et que toutes les personnes qui le suivent le voient comme un individu normal. Le troll peut donc écrire des billets, mais ne peut donc plus être lu que par les personnes qui le suivent, et n’intervenir quand dans les fils des billets des personnes qui le suivent.

      Une autre possibilité est de forcer un blocage du compte chez tous les utilisateurs sauf ceux qui le suivent. Ça permettrait de régler un problème d’inconsistance d’interaction entre utilisateurs normaux et utilisateurs normaux ou trolls. Peut être prévoir une page utilisateur où l’on voit tous les profils bloqués ?

      Ce mécanisme peut aussi être mis en place provisoirement pour avertir ou calmer les ardeurs : le bloquage sélectif pourrait être mis en place pour une semaine, un mois, etc

    • En fait, plus sérieusement. Il a un moment été question d’une charte. Cette charte pourrait contenir quelques directives-limites dont on voit bien qu’il, et d’autres avant lui, ont déjà franchies.

      J’ai remarqué, ces derniers jours qu’il a repris de l’activité, que les anciens comme @sine @reka et je ne sais plus qui se contentaient d’un tag #troll et tout un chacun comprenait qu’il ne fallait pas nourrir , mais pour de plus récent.e.s participant.e.s comme @ninachani hier, qui n’ont pas l’historique, on finit par tomber dans le piège. Et c’est presque aussi pénible à lire que le commentaire lui-même (et ce n’est évidemment pas de la faute de @ninachani c’est juste qu’on sait d’avance que cela va l’ancourager au lieu de le décourager).

      C’est très important que nous maintenions le niveau de scrupule au niveau du banissement, mais je crois que de temps en temps il y a des évidences de mauvais comportements. Et là on est clairement dans le mauvais comportement, et voulu tel, il y a même une certaine forme de violence (qui m’atteint, vu ce dans quoi j’essaye de m’impliquer en ce moment, je n’ai pas beaucoup de patience pour les diatribes de ce nuisible à propos de personnes réfugiées qui ont mille fois sa valeur humaine)

      Je n’aurais rien contre une sorte de conseil anti-troll paritaire. Une dizaine de personnes particulièrement actives et respectées (il suffit de prendre statistquement les cinq premières femmes les plus suivies avec les cinq premiers hommes les plus suivis ) qui devraient suivre de temps en temps le tag #troll et étudier la trollitté des cas. Cela n’aurait rien d’autoritaire et cela éviterait qu’on arrive à des situations comme celle des menaces de viol sur @mad_meg où je trouve que nous avons tardé à prendre des mesures en tant que communauté parce que nous avons du prendre le temps d’y réfléchir.

      Voilà mes fifty cents


    • Oui @nicolasm, mais dans le monde réel, on est un tout petit réseau, qui a toutes les caractéristiques d’une bande d’ami.e.s qui se retrouve au bistrot pour tenir des discussions ouvertes, et on a un nombre excessivement faible de cas où un poivrot vient faire chier successivement chaque personne qui ne l’a pas encore envoyé chier.

      Du coup, faire des développements pour gérer un troll tous les deux ans, je pense que personne n’est vraiment motivé pour le faire.

      D’où, je pense, l’option la plus raisonnable : on le vire. (Posté en même temps que le long message de @philippe_de_jonckheere)

    • @nicolasm À priori, bloqué, ça veut seulement dire que la personne ne peut plus poster sous tes propres messages. Mais elle peut toujours te lire (parce que de toute façon, tous les messages sont publics), et surtout tu peux continuer à voir ses posts quand elle poste quelque part.

      L’idée de cacher des messages au motif qu’on a bloqué quelqu’un a toujours été problématique : ça provoque des discussions où certains usagers ont des trous (donc on risque d’augmenter la confusion), et de toute façon ça ne résout pas le problème du trollage, qui repose sur le fait que quelqu’un va, en bonne conscience, répondre à la provocation. Parce que ce qui est chiant avec notre troll du moment, comme l’a rappelé @philippe_de_jonckheere, c’est pas tant ses courts messages à la con, c’est le fait qu’à chaque fois ça tue le fil de discussions initiales en faisant dérailler la conversation. Si on te masquait son message initial, de toute façon ce que tu verrais ce sont des discussions qui sont parties en sucette.

    • Bloqué, ça veut dire que tu lis ses commentaires sur les fils des personnes qui ne l’ont pas bloqué. Mais tu ne lis plus ses publications en propre.
      Si vous lisez encore ses commentaires, c’est que vous suivez des gens qui le tolèrent (les comptes-fils RSS par exemple :-) ).

      Ces trolls ne font que régurgiter toujours les mêmes insanités affligeantes. On pourrait, du fait de cette caractéristique, les considérer comme des bots -> SUPPR.

    • Il couinera seulement pour @klaus @bce_106_6 et @tout_va_tres qui le suivent encore. Je me demande bien pourquoi, d’ailleurs. Je l’ai bloqué depuis longtemps et s’est plutôt reposant. Dans un fil de discussion récent, j’ai répondu à une de ses réflexions raciste (à propos de la famille Traoré) et je me suis ravisé en effaçant ma réponse pour éviter la réplique.
      La petite cage de faraday de @monolecte est beaucoup plus subtile que le bain d’acide. Plus vicieuse aussi ! mais il l’aura bien mérité.

    • @Vanderling Cela peut te paraitre étrange, mais quand je vois un troll, je m’interroge sur ce qu’il faut dire pour le contrer.
      Je m’informe donc.
      Ce n’est pas toujours agréable.
      Cela me permet de me préparer à re cadrer des palotins dans d’autres circonstances.

      A ce jour, le carmignola ne m’a jamais traité d’antisémite (pour une légère différence (trés légère) d’opinion sur un sujet),
      Il(elle) ne m’a pas dit : Tu pue, va mourir et vite , comme le ou la bison, qui devait probablement être alcoolisée ce soir là.

      Un Troll sur SeenThis, ce peut être aussi une façon de dire que sur ce site, on est libre de publier, que toutes les opinions sont représentées.
      Il y a bien les joyeuses bénévoles du grand mix de Tourcoing qui brandissent leur conformisme puant le fric de leurs parents à tour de bras et qui ne sont là que pour faire leur pub.
      On a droit aux titres de médiapart, aux références à des article de le nomde, de libération . . .
      La liste n’est pas limitative et chacun(e) peut avoir ses opinions.

      Bon, point trop n’en faut.

      Post Scriptum : Un commentaire, ça se supprime, une fonction trés peu utilisée.

    • Et pis, comme il ne pourra pas s’empêcher de venir nous lire, il va s’intoxiquer avec sa propre haine, celle qu’il nous voue à tous·tes, une belle bande de « gauchiasses », « journalopes », et autre suppôts du « judéo-bolchevisme » ou de l’"islamo-fascisme/gauchisme", etc ... Et pendant qu’il sera ici à pédaler dans sa béchamel verdâtre, il ira pas pourrir d’autres discussions ailleurs.

    • Je suis un ancien moi ?!

      Bien sûr, je souhaiterais ne plus jamais le lire, mais ce n’est pas agréable d’exclure, ni facile d’avoir des critères objectifs pour le faire.

      Je croyais d’ailleurs avoir lu @monolecte dire qu’elle refusait de bloquer les gens, ce que j’avais interprété comme « je préfère lire ce que les fachos ont à dire plutôt que de me voiler la face », opinion que je respecte, même si j’ai du mal à la partager.

      Un critère objectif pourrait aussi être que si une personne est bloquée par au moins X (10 ?) personnes, c’est qu’il y a un problème. D’ailleurs, on ne sait pas combien ni qui bloque une personne, ni même la liste des gens qu’on bloque. Je ne sais pas si ça aiderait de savoir...

    • @vanderling Jusqu’à présent je ne me suis même pas rendu compte qu’il existait ce #troll, mais puisque vous me le faites remarquer je viens de jeter un coup d’oeuil sur ses messages et je pense que ... bof ... qu’est-ce qu’il veut celui-là ...
      Alors pfuit ...

    • Le risque étant que quand on met le doigt là dedans (supprimer un compte nauséabond), on risque de devoir recommencer et de devoir passer son temps à définir la nauséabonditude.
      Aspects légaux : les messages ou commentaires illégaux doivent être supprimés si on ne veut pas faire peser une responsabilité légale sur les éditeur et éditrices de seenthis.net. Mais qui sont ils/elles ? Est-ce que les ’contributions’ du troll sus-nommé rentrent dans ce cadre ?
      En ce qui me concerne, j’ai bloqué son compte et avais oublié son existence jusqu’à récemment où je l’ai vu ré-apparaître en commentaires d’autres posts, mais de manière exceptionelle.
      Si son compte est supprimé, il peut revenir facilement.
      Est-ce que finalement il ne se dévalorise pas tout seul, bloqué par à peu près tout le monde ?

    • A ce jour, le carmignola ne m’a jamais traité d’antisémite (pour une légère différence (trés légère) d’opinion sur un sujet),

      Non ce n’était pas une légère et encore moins tres legère difference d’opinion. Tu as tenu des propos antisémites en comparant les personnes qui ont dénoncé les violences sexuelles à des collabos gestapiste.


      Un critère objectif pourrait aussi être que si une personne est bloquée par au moins X (10 ?) personnes, c’est qu’il y a un problème. D’ailleurs, on ne sait pas combien ni qui bloque une personne, ni même la liste des gens qu’on bloque. Je ne sais pas si ça aiderait de savoir...

      Je serais probablement bannie alors car je doit pas ètre loin de ces 10 bloquages. Ce systhème que tu propose me semble injuste. Le bloquage fonctionne très bien, il suffit de bloquer @bce_106_6 en plus de carmignola.

    • Effectivement peut-être que @bce_106_6 @klaus et @tout_va_tres
      devraient se poser des questions sur le suivi d’un tel auteur. Pour moi c’est la meilleure solution (Ne plus le suivre !). On peut toujours supprimer un commentaire haineux ou bloquer un auteur. Personnellement je ne bloque personne. Je choisis de suivre ou pas.
      Bloquer quelqu’un pour en empêcher un autre me parait aussi injuste (sauf si le premier est aussi nuisible que le second et là ce n’est pas le cas) mais c’est un autre choix @mad_meg que je respecte. Il me semble que je suis moi-même bloquée par certaines personnes (une ou deux, je crois).

      Je n’aurais rien contre une sorte de conseil anti-troll paritaire. Une dizaine de personnes particulièrement actives et respectées (il suffit de prendre statistiquement les cinq premières femmes les plus suivies avec les cinq premiers hommes les plus suivis )

      Cela me parait plutôt bien ! @philippe_de_jonckheere

    • Perso je le zappe aussi rapidement que les spams que je reçois où quand certain mot comme Macron passe devant mes yeux. C’est une petite gymnastique, car il est tellement minable que je ne vois pas trop qui peut y croire même en débarquant sur seenthis.

      On pourrait le mettre en quarantaine manuellement ? Votre quota de trolleries a été atteint, votre compte est désactivé pour un mois.

      Un temps on en a eu un bien dodu qui a lâché à force de dire des atrocités tout seul comme un cinglé.

    • @marielle Je suis tout le monde - mais puisque vous me dites tous et toutes que ce compte n’est pas intéressant, je vous fais confiance et je me désabonne. Consacrer plus de temps à cette histoire me paraît absurde vu que l’année touche à sa fin et j’ai encore plein de choses à faire avant ;-)

    • Grace au tag #troll je découvre le fil que je pensais nécessaire, c’est cool. Pour moi aussi le bannissement est un souci, évidemment, mais je n’ai jamais vu de conversion de troll sur internet. Effectivement, je ne connais qu’une seule manière de venir à bout d’un troll, c’est qu’il s’ennuie parce qu’il n’atteint plus sa / ses cibles. Ainsi tant qu’un @bce_106_6 fera des coucou à ce troll, nos tentatives seront limités.
      J’ai proposé la notion de #charte par là https://seenthis.net/messages/655225#message655341 parce que je ne connaissais pas la possibilité d’effacer un commentaire qui ne nous plait pas sous une de nos publications. Je pense que les deux sont complémentaires. La solution de bot isolant me semble intéressante... jusqu’au jour où un de ces troll publie un truc gravissime répréhensible par la loi et fout dans la merde tout le réseau... Par ailleurs, comme dit dans le commentaire que je mentionne, j’ai la sensation qu’un petit réseau de trolls est en train de naître, ce qui me met très mal à l’aise. J’ai l’impression que si nous n’agissons pas assez nous risquons de perdre des personnes auxquelles nous tenons, et ça me chafouinerait beaucoup...
      Et merci pour l’article, @cdb_77 , je vais lire ça de ce pas !

    • Je reviens de 3 jours en Pologne. Hier matin bazar en plein air. Un vieux approche et me demande en allemand si je suis américain. Je réponds que non que je suis francais.
      Et là il me dit "alors tout va bien bien, aujourd’hui est une bonne journée pas de terroristes (arabes) et pas de noirs.
      Je ne suis pas choqué, particulièrement, par la saillie raciste mais par le fait que le racisme devienne la normalité et qu’on puisse échanger ce genre de merde entre voisins ou rencontre de hasard.
      Pour en revenir à carmina, ne rien faire c’est participer à cette normalité. je ne siis pas particulièrement dérangé par cette sous-merde que je ne trouve pas rafraichissante ni exitée ni entrant dans le monde intéressant de seenthis.
      Si on tape son nom, carminola dispose de nombreux support adaptés à sa logorré on peut dire qu’ils est très présents dans beaucoup de forums.
      Envoyons le bouler au loin.
      C’était mon avis.

    • Je disais donc, au mauvais endroit, voilà qui est réparé : Je reviens un peu sur le sujet parce que je vois que y’a pas vraiment d’opposition formelle à l’exclusion de carmignola (si c’est bien là qu’on en débat publiquement) mais je vois que rien ne se passe. Hors une réponse de @vanderling (merci !) par ici https://seenthis.net/messages/656430#message657365 sur un x-ième trollage me fait réaliser que non, perso, je peux pas faire comme s’il n’existait pas. Parce qu’en fait je peux pas envoyer un lien à des gens vers une discussion trollée par exemple, c’est rédhibitoire. Et je me vois mal, actuellement, conseiller le réseau à une personne étant régulièrement confrontée au racisme dans sa vie. Et la manière d’accueillir @olivier8 hier est aussi entachée par ça. Alors vraiment, oui, j’aimerai bien que seenthis adopte une charte qui ne permette pas aux racistes, sexistes et autres de venir soit-disant débattre, soit disant dans une neutralité, quand on sait la place que ces propos occupent désormais sur la toile. Mais oui, la modération collective doit se faire collectivement et pas incomber à un-e manitou-puissant.

    • Je pose une opposition formelle.

      C’est quoi la procédure pour supprimer un compte ?
      Cinq plaintes et le compte est supprimé ?
      C’est écrit ou ?

      Et pour en créer un ?
      Parce que faut pas rêver, un compte supprimé = aussitôt recréé.
      Tout nouveau compte ne peut être validé que s’il est certifié par cinq membres suite à des rencontres IRL ?

      C’est écrit où tout ça ?

      Non mais sérieusement, vous n’êtes pas capable d’ignorer un pignouf ?
      Moi y’a des gens que je bloque, parce qu’ils/elles ont dépassé mes limites de tolérance en terme de bêtise / d’agressivité, et je m’en porte très bien.

    • PS : en plus de bloquer, il manque peut être une option « mute » (muet) à seenthis, comme sur Mastodon, qui permettrait à un•e utilisateurice de ne voir aucun message de la personne en question (ce serait un réglage personnel).

    • Le fait de pouvoir bloquer un compte ou d’effacer ses réponses sont suffisant pour que @francoiscarmignola1 ne me cherche pas des poux dans la tête. Le problème est que ce con saute de tête en tête et que personne ne s’en accommode et qu’il en irrite certain.es. (@val_k entre autres). Maintenant je ne connais ni remède, ni astuce pour débarrasser @seenthis de ce parasite particulièrement résistant.

      @nicod_ je suis capable d’ignorer ce pignouf même si parfois l’envie me démange de lui foutre mon poing dans la gueule.
      Je ne connais pas ce mignola_1er et ne cherche ni à le connaitre, ni à le rencontrer. Car je possède un moyen radical pour m’en débarrasser : une sulfateuse à #pou_troll ou à #troll_poux (auto-reverse) fatale ! mais celle-ci ne passe pas dans les tuyaux de ce réseau, dommage.

    • ha ben, si ! tiens la v’la.

      Robillard, André (sans titre), 1964 sculpture de bois et matériaux divers long. 114 cm
      © Crédit photographique
      Collection de l’Art Brut, Lausanne
      Sulfateuse à poux_troll, dézingue un troll à 300 m, radical à bout touchant.
      magnifique collection ci_dessous :

    • Vu que la discussion continue je me permets de rappeller quelques pratiques utiles qu’on connaît depuis l’invention de l’internet :

      Quelque chose ne te plaît pas -> tu ne vas plus le voir.
      On t’innonde de messages indésirés -> tu mets l’auteur dans ton killfile et t’es tranquille.
      Tu découvres sur ton serveur / dans ton forum un truc qui te menace toi, ton serveur, ton projet, ta famille etc. -> tu effaces le contenu, AFK tu agis en fonction de la gravité de la menace.

      Je pense qu’en suivant cet algorithme on fait tout ce qui est possible pour rester en bonne santé et préserver sa bonne humeur. Finalement les choses qui nous dérangent sur internet ne sont que des bits et octets mis en place par quelqu’un à l’autre bout du monde que je peux très bien ignorer s’il ne m’intéresse pas ou s’il m’énerve.

      En ce qui concerne les nazis et autres ciminels, je lutte contre AFK / IRL.

      Seenthis contient tous les outils nécessaires pour créer des échanges avec des gens bien et intéressants. C’est ainsi et surtout par vos recommendation, qu’il est devenu pour moi un outil important.

      #merci #seenthis :-)

    • On ne parle pas d’internet en général, mais d’un site qu’"on" héberge collectivement, donc de ressources qu’on met à la disposition des gens. Faut-il laisser des fachiiistes patentés s’en servir sans rien dire ? Moi ça ne me convient pas (mais j’entends bien qu’on peut avoir des avis divergents là-dessus).

    • @fil

      Tu découvres sur ton serveur / dans ton forum un truc qui te menace toi, ton serveur, ton projet, ta famille etc. -> tu effaces le contenu

      ... ou le compte nuisible ...
      Donc ... boum ... et bye bye ... ;-)

    • @fil j’entends parfaitement ton argument, et je suis d’accord sur le principe mais faudrait que ce soit un peu plus formalisé : c’est qui qui décide ?
      Si j’ai un problème avec un•e utilisateurice, je peux consulter le qui-qui décide ?
      Sinon, je ne sais pas ce qui peut sortir d’une question ouverte aux participants de Seenthis (sujet initial), une fois que tout le monde a donné son avis...

    • En fait, je crois avoir fait une erreur d’appréciation. Je pensais qu’on pouvait jouer avec lui comme avec un punching ball mais c’est plutôt lui qui se joue de nous. À moins que certain·es aient la patience de porter la controverse avec lui, mais je doute que ce soit efficace, il vaudrait mieux le jarreter car somme toute, il nous fait perdre du temps et ce n’est pas en défoulant nos mauvaises humeurs sur lui que nous ferons progresser nos réflexions. Donc, couic ! On lui coupe le sifflet.

      Après, il est vrai que se pose le problème de la légitimité de la décision, le fameux « qui fait quoi ». Personnellement, je pense que les administrateur·rices de Seenthis ont mûri leurs réflexions par rapport à ce qui apparaît dans cette discussion mais pas que. il suffit d’aller se balader sur le site du bonhomme en question pour se faire une idée du problème. Non pas que je voudrais que l’on instaure une « police de la pensée » ici, mais il y a des limites à ne pas franchir, surtout si les propos haineux et nauséabonds qui y ont cours se retrouvent « hors les murs » et finissent par venir polluer nos espaces de réflexions. D’autre part, si on se montre trop tolérant par rapport à ce genre de pensées, on risque de laisser croire que sur cet espace tout est permis. Et malheureusement, les propos outranciers attirent immanquablement des réactions d’humeur, ce qui est le but recherché (la provocation, la polémique stérile) par celles et ceux qui les tiennent. On nourrit la bête.

      J’espère au moins que Monsieur Carmignola appréciera le symbole que je lui dédie car cet outil tranchant est une invention « bien de chez nous ».

    • Ce sera donc ici que la décision commune de ne pas laisser cette pestilence s’installer se prend publiquement et clairement, avec un laps de temps suffisant pour en discuter ensemble.
      Pour ma part, ayant évolué grace à vous, je suis devenue partisane de la #coupure_d'accès

    • lamignocar_1er a publié 525 billets sur @seenthis (je viens de les parcourir, vite fait) peu de thèmes utilisés, il suit 3 hashtags
      #jenesuispasuntroll #troll #asile . 1 billet étoilé par @indymedianantes et je sais pourquoi, il a collé la même réponse sur leur site qui était censuré.
      1 billet de @vacarme partagé par moi-même, @unagi et @colporteur

      C’est tout, aucun autre billet étoilé et troll_1er doit être la personne la plus bloquée ici. Il le dit dans un post :

      N’étant pas lu et étant bloqué, je peux commenter dans mon coin.

      La suprême instance de seenthis peut décider de supprimer son compte. A mon avis, une mise en quarantaine avec une camisole suffira car je soupçonne @francoiscarmignola1 d’être : raciste, misogyne, royaliste, filloniste, sectaire, catho-intégriste (tendance civitas), narcissique, baltringue ... je ne comprends pas ce qu’il fout là, il n’intéresse personne et aucun.e ne s’intéresse à lui. Seenthis est public et ouvert à tout le monde et par conséquence tout les profils et tendances peuvent s’y exprimer dans un partage collectif.
      C’est le propre d’un #réseau_social .Ce réseau est très riche, singulier, cosmopolite avec une ouverture à nulle autre pareille. (le seul que je fréquente avec tumblr, mais j’utilise seulement tumblr comme une banque d’image).
      Autant garder ce troll, plus bête que méchant, si #seenthis lui coupe son accès, il reviendra sous une autre identité.
      Laissons le végéter dans son coin sans pâtée ni croquttes.

      pour l’enterrer, le jardin suffira ou il faudra se cotiser pour l’équarrissage : à votre bon coeur messieurs dames, 1€ pour gnomicarla notre troll préféré, pauvre toutou !

    • J’aime bien la capture de ses billets @sombre et @cdb_77 + le lien qui correspond pour celles et ceux qui veulent avoir la nausée. Je vois que tu lui a répondu, je pense qu’apporter de l’eau à son moulin est inutile. Je préfère le laissé se noyer dans son potage insipide. @bce_106_6 a essayé de comprendre et a fini par jeter l’éponge (avec le potage). @francoiscarmignola1 est secoué du carafon et pas tout seul dans sa tête. Troll n°1 est intervenu qu’une seule fois, hier, dans ce fil qui lui est dédié. Donc, tes questions lamignocar_1er, s’est ici que tu les poses. @seenthis qui a l’amabilité de ne pas te bloquer, prendra le temps ou non de te répondre. Ou bien quelqu’un.e qui pense que tu mérites une réponse.
      Moi je pense que tu mérites une correction et une sévère, estime toi heureux de pouvoir encore dégoiser dans ton coin.

  • Pour venir à bout des #trolls, éliminez leur espace de discussion

    Autrement dit, les « redditors » qui insultaient les Noirs et les gros ont soit quitté Reddit, soit intégré d’autres communautés où ils n’ont pas importé leur comportement. Sur le fond, ces utilisateurs n’avaient sûrement pas changé. Ça les amuserait toujours d’écrire des choses horribles sur les Noirs et les gros. Mais leur comportement raciste et hostile n’apparaissait plus en public, n’étant plus toléré et encore moins encouragé hors de leurs sous-forums de prédilection. Comme le résume Eric Gilbert, l’un des chercheurs de l’équipe :

    « Ils n’ont pas banni des individus. Ils n’ont pas banni tel ou tel mot. Ils ont banni des espaces où ces mots étaient susceptibles d’être écrits. »

    #racisme #grossophobie #banissement

  • What is the alt right? A linguistic data analysis of 3 billion Reddit comments shows a disparate group that is quickly uniting — Quartz

    We’re witnessing the radicalization of young white men through the medium of frog memes. In order to see it, all you need to do is look at the words coming out of their mouths. The alt-right isn’t yet united, but it soon will be.

    #text-mining #trolls #alt-right #Trump #reddit

  • The Whole World Is Now a Message Board

    Whatever else the alt-right is, it is a movement born and incubated on the internet, and it couldn’t have existed without that technology. Circulation, discussion, and debate are oxygen to political ideas. Commercial and social mechanisms like “the cost of owning a printing press” and “No one will invite you to parties if you openly praise Hitler” traditionally cut off extreme thinkers from mass circulation. Now, though, you can reproduce your ideas essentially infinitely, for prices so low as to be effectively free, and suffer no ill social effect. In fact, online, toxic ideas are more likely to get attention and social capital (plus, thanks to programmatic ad networks, real capital) that goes along with attention.

    And there is a literal army of dissatisfied, disenchanted, mostly male young adults ripe for radicalization. The internet is host to what the writer and programmer David Auerbach calls “the first wide-scale collective gathering of those who are alienated, voiceless, and just plain unsocialized” — seeking freedom from the disappointments of the physical world in places where social interaction is decoupled from material and emotional signals they don’t understand or have access to. “There’s people that are, like, behind the counter at a Pizza Hut or whatever, and their intellect and their skills are not being used in the real world in a way that’s appealing to them,” the web-comic artist and longtime 4chan observer Dale Beran tells me. “The only interesting stuff that’s going on is the internet and video games.”

    This was the sensibility galvanized in 2014 by — what else? — a depressed and frustrated man’s rambling, 9,000-word post falsely accusing his game-developer ex-girlfriend Zoë Quinn of exchanging sex for video-game reviews. Quinn came to stand in for all the women who were attempting to carve out roles in an industry where “three-dimensional female character” traditionally referred to modeling breast physics in a graphics engine. That Quinn was innocent of the charges against her was irrelevant. She had become a meme: an endlessly replicable, endlessly remixable referent, a shibboleth for the quasi-religious systems of internet culture. Memes do not make for a particularly compassionate politics. As Whitney Phillips, a professor at Mercer University who specializes in internet culture, explains, “When you’re engaging with a meme, you’re not engaging with a full narrative” — much less with the real person on the receiving end.

    And so the keening wail of a rejected boyfriend became a dedicated and highly organized media campaign: Gamergate. Some Gamergaters harassed and insulted journalists and feminist critics of video games in attempts to silence them. The repetitive-task, button-pushing skills developed through years of gaming had paid off in a new, bigger game: ruining people’s lives.

    Message-board culture does more than radicalize the disaffected; it also teaches them how to manipulate the attention economy. Message-board threads only superficially resemble real-world conversations; in fact, public online social interaction is built around competing with your peers for attention from the group as a whole. As Beran puts it to me, “There’s an evolutionary struggle” for ideas to be seen. If a post isn’t clever or catchy enough, “it just dies, and no one ever sees it. The best stuff, in a Darwinian struggle, gets to the top. That’s how memes are created.”

    As the mainstream media increasingly takes its coverage cues (and its revenue sources) from a small handful of powerful social networks, the news becomes easier and easier for them to influence. The shitlords of the internet don’t create the conditions that lead to reaction, but they are more than happy to exploit them. And skilled at it, too.

    #post-truth #gamergate #trolls

  • Guerre culturelle qu’ils disent. Contre culture.

    Les trolls sur Internet, nouveaux « colleurs d’affiches » du Front national

    Les trolls sur Internet, nouveaux « colleurs d’affiches » du Front national
    Anonymat, images de grenouilles et humour « limite » : une jeune génération d’internautes s’est approprié les codes de l’extrême droite américaine.

    #front_national #fn #trolls #fachosphère

  • Dissecting Trump’s Most Rabid Online Following, by Trevor Martin | FiveThirtyEight

    Comparing subreddits, with Latent Semantic Analysis in R

    The article looks at various popular and notorious subreddits and finds those that are most similar to the main subreddit devoted to Donald Trump and also to the main other contenders in the 2016 campaign for president, Hillary Clinton and Bernie Sanders.

    #machine_learning #LSA #gensim #R #howto #trolls #reddit #text-mining

  • This site is “taking the edge off rant mode” by making readers pass a quiz before commenting

    Digital security is a controversial topic, and the conversation around security issues can become heated. But the conversation in the comments of the article was respectful and productive: Commenters shared links to books and other research, asked clarifying questions, and offered constructive feedback.

    The team at NRKbeta attributes the civil tenor of its comments to a feature it introduced last month. On some stories, potential commenters are now required to answer three basic multiple-choice questions about the article before they’re allowed to post a comment. (For instance, in the digital surveillance story: “What does DGF stand for?”)

    Remarque intéressante (et pas franchement surprenante):

    However, when NRKbeta stories — such as the story on digital surveillance — are placed on the main NRK homepage, they attract readers who aren’t regulars, which can bring down the level of conversation.

  • Les trolls viennent à bout d’une chroniqueuse | ICI.Radio-Canada.ca

    Épuisées par le nombre et la violence des commentaires sur les réseaux sociaux, plusieurs femmes dans les médias décident de s’en éloigner. C’est le cas notamment de Judith Lussier, qui a récemment abandonné sa chronique d’opinion largement consacrée aux idées féministes.

    Un texte de Vincent Rességuier

    Judith Lussier a signé des chroniques pendant sept ans (deux ans au magazine Urbania et cinq ans au journal Métro). À travers ses textes, elle provoquait des débats, souvent à propos de féminisme, parfois en lien avec son homosexualité. Elle a souvent fait le choix d’affronter les trolls sur les réseaux sociaux, mais elle a décidé de jeter l’éponge parce qu’ils sont une « source d’épuisement » et qu’ils ont fini par la décourager, explique-t-elle à Radio-Canada.

    Elle affirme que pendant sept ans elle s’est convaincue que la violence verbale faisait partie de son travail. Dans cet esprit, elle a tenté de supporter « les petits et grands désaccords, les insultes, les humiliations publiques, les argumentations malhonnêtes, la mauvaise foi, le paternalisme, le harcèlement ». Mais elle juge aujourd’hui que la société ne devrait pas accepter un tel niveau de violence et que « personne ne mérite de vivre autant d’agressivité dans son travail ».

    Elle juge que la violence verbale a provoqué de l’usure dans la pratique de sa profession. Elle ne retient aucune parole en particulier, mais plutôt l’accumulation des commentaires.

    Elle a tout de même porté plainte une fois auprès de la police de Montréal et, en tant que travailleuse autonome, a dû assumer l’intégralité des frais. Elle explique que la plainte n’a jamais abouti, car il est très « difficile » de démontrer qu’un commentaire haineux est commis par une personne derrière un compte sur les réseaux sociaux. « Bref, c’est compliqué, épuisant et inutile », conclut-elle.

    La faute à Facebook

    Bien que sa chronique soit ouverte aux commentaires sur le site du journal Métro, ce sont les paroles dans les médias sociaux qui l’ont épuisée. D’abord, parce que la page du journal est gérée par une équipe de modérateurs, mais surtout parce que son compte Facebook est à la fois son outil de travail et un lieu de socialisation.

    #trolls #feminisme #Facebook #violence #médias_sociaux

    • Lundi soir, l’auteure et blogueuse Manal Drissi, lassée des insultes et des menaces de trolls, a affirmé qu’elle envisageait, elle aussi, de s’éloigner des médias.

      « Pour être une femme dans les médias dans l’état des choses, il faut avoir une santé mentale de fer et une résilience surhumaine », écrit-elle sur son compte Facebook.

      « Va falloir réfléchir à ce qu’on attend des femmes dans l’espace public. Parce que présentement on s’attend à ce qu’elles se fassent entendre sans parler fort, qu’elles se démarquent sans déranger et qu’elles prennent leur place sans la revendiquer », poursuit-elle.

  • Les trolls viennent à bout d’une chroniqueuse | ICI.Radio-Canada.ca

    Épuisées par le nombre et la violence des commentaires sur les réseaux sociaux, plusieurs femmes dans les médias décident de s’en éloigner. C’est le cas notamment de Judith Lussier, qui a récemment abandonné sa chronique d’opinion largement consacrée aux idées féministes.

    Un texte de Vincent Rességuier

    Judith Lussier a signé des chroniques pendant sept ans (deux ans au magazine Urbania et cinq ans au journal Métro). À travers ses textes, elle provoquait des débats, souvent à propos de féminisme, parfois en lien avec son homosexualité. Elle a souvent fait le choix d’affronter les trolls sur les réseaux sociaux, mais elle a décidé de jeter l’éponge parce qu’ils sont une « source d’épuisement » et qu’ils ont fini par la décourager, explique-t-elle à Radio-Canada.

    Elle affirme que pendant sept ans elle s’est convaincue que la violence verbale faisait partie de son travail. Dans cet esprit, elle a tenté de supporter « les petits et grands désaccords, les insultes, les humiliations publiques, les argumentations malhonnêtes, la mauvaise foi, le paternalisme, le harcèlement ». Mais elle juge aujourd’hui que la société ne devrait pas accepter un tel niveau de violence et que « personne ne mérite de vivre autant d’agressivité dans son travail ».

  • Les résaux du Kremlin en France

    Émission du 17 février, entretien avec Cécile Vaissié. « Le Kremlin mène depuis quelques années des campagnes de » séduction « sur différents créneaux de population en France. Pour cela, il a créé en Occident des fondations, des think-tanks et des médias, auxquels il consacre de plus en plus d’argent ; il a imaginé des » usines à trolls « chargés d’influer sur l’opinion publique par le biais des réseaux sociaux ; il organise des rencontres, prestigieuses ou plus secrètes ; il missionne des spécialistes idéologiques chargés de tenir certains discours très codifiés et d’entretenir des contacts utiles. En fait, le Kremlin mélange sa conception du soft power avec des méthodes traditionnelles de ce KGB qui a formé l’essentiel des dirigeants russes actuels, pour influencer très concrètement les affaires intérieures françaises et européennes... »


    #Radio_Libertaire #offensive_sonore #audio #radio #urss #russie #propagande #kremlin #poutine #sputnik #Cécile_Vaissié #fn #gauche #droite #france #trolls