#faschosphère

  • « Me voilà intégré à une équipe fantôme » : les extraits d’un récit d’infiltration dans l’équipe de Zemmour
    https://www.lemonde.fr/idees/article/2022/02/17/me-voila-integre-a-une-equipe-fantome-les-extraits-d-un-recit-d-infiltration

    Je viens de rejoindre un nouveau groupe de travail nommé « WikiZédia ». J’avais repéré cette initiative début octobre [2021], sur le canal Telegram « Groupe de discussion », ouvert à 1 400 personnes. Un membre proposait de « Contribuer à Zemmour & Wikipédia : ajouter du contenu qui concerne Zemmour, compléter et rectifier si nécessaire. = > contacter @Choucroutegourmande ».

    Je contacte @Choucroutegourmande, le 10 novembre, lui signifie mon envie de contribuer, et me voilà intégré à WikiZédia. Une fois de plus, personne ne vérifie mon identité. Et là, c’est vertigineux : j’ai désormais accès à des stratégies et à des tactiques officieuses, non assumées publiquement.

    Gabriel ajoute ce qu’il a appris de son expérience : « Je le déplore, mais il est quasiment impossible de procéder à des ajouts qui paraissent partisans sans s’appuyer sur des articles de presse “mainstream” (malheureusement…). Il faut donc la jouer assez finement. D’ailleurs, à mes débuts, j’ai fait l’objet de sanctions (blocages) pour des modifications trop engagées. » (…)

    La page « consignes » rappelle les priorités : « Mettre à jour les pages “CSA” ; “Face à l’info” ; page “Liste des épisodes Face à l’info” ». Et créer ainsi, au sein de Wikipédia, une myriade de nouveaux liens concernant de près ou de loin Eric Zemmour. Ça a l’air compliqué, mais c’est pourtant très simple. Il s’agit d’un lobbying numérique qui s’évertue à contourner les règles imposées par Wikipédia.

    Je sollicite Jules, l’administrateur de Wikipédia avec qui je suis entré en contact [Jules, sans aucun lien avec l’équipe Zemmour, aide l’auteur à repérer les manœuvres de celle-ci sur Wikipédia], pour obtenir plus d’informations sur Gabriel, alias « Cheep ». Pour rappel, dans la discussion de la cellule WikiZédia, Gabriel s’est présenté comme « chargé de la page Wikipédia d’Eric Zemmour ». Jules se montre tout de suite choqué quand il apprend que « Cheep » fait partie de la cellule WikiZédia. Car « Cheep » n’est pas n’importe qui dans la communauté des « wikipédiens » : d’après les statistiques fournies par l’encyclopédie en ligne, il totalise, depuis 2006, près de 169 000 contributions, ce qui en fait le 64e contributeur de Wikipédia en langue française. Il s’agit donc d’un utilisateur extrêmement expérimenté, que la communauté nomme « Autopatrolled 35 », c’est-à-dire dont les modifications sur les pages sont considérées comme vérifiées automatiquement.
    Lire aussi Comment des militants d’Eric Zemmour gonflent artificiellement la présence de leur candidat sur Twitter

    Le 3 décembre 2021, à 00 h 05, Gabriel- « Cheep » intervient sur la page Wikipédia consacrée à Eric Zemmour. Il ajoute des portraits photo du maréchal Pétain et de Pierre Laval, chef du gouvernement sous le régime de Vichy. Sous les photos, « Cheep » rédige la légende suivante : « Philippe Pétain et Pierre Laval, dont la responsabilité dans la Shoah en France est sujette à débat. » Une affirmation totalement fausse.

    (…) Un autre utilisateur de Wikipédia (dont le pseudo est « Lefringant ») annule une première fois la modification mensongère de Gabriel- « Cheep », une minute seulement après sa publication. A 00 h 10, « Cheep » revient à la charge en indiquant « Images appropriées ». « Lefringant » annule de nouveau la modification en commentant : « L’image peut-être, la légende absolument pas ». « Cheep » passe en force en disant : « Il suffit de lire l’article sur Laval. » « Lefringant » annule de nouveau. Une administratrice de Wikipédia (dont le pseudo est « Bédévore ») intervient pour stopper la « guerre d’édition ». Elle immobilise cette page pendant vingt-quatre heures, sans la légende de « Cheep ».

    Le lendemain, plusieurs contributeurs expérimentés reprochent à Gabriel- « Cheep » ses modifications contraires à la neutralité de point de vue, l’un des principes fondateurs de Wikipédia. Un administrateur propose un blocage d’une semaine pour « Cheep ». Pour se défendre, « Cheep » demande à ce que l’on suppose sa bonne foi, autre règle fondamentale sur Wikipédia. Il écrit : « Pas de procès d’intention. Il s’agit de l’article consacré à Zemmour, donc il me semblait relativement évident que la légende concernait son avis sur le sujet. » En tant que contributeur expérimenté, il sait pourtant que sa légende ne présentait nullement un point de vue, mais une affirmation générale. Son ancienneté le sauve, il n’est pas bloqué. Sa modification est néanmoins masquée pour « contenu illégal ».

    #Wikipédia #Zemour #Faschosphère #Communs #Enclosures

  • Devin Nunes and the Power of Keyword Signaling | WIRED
    https://www.wired.com/story/devin-nunes-and-the-dark-power-of-keyword-signaling

    We increasingly turn to search engines to seek out information. Since Google’s earliest days, marketers have relied on “search engine optimization” to try to maximize the likelihood that Google returns content that highlights their cause or company. In today’s media landscape, organizations and individuals also use these tactics to manipulate the algorithms behind Facebook/Instagram and Twitter feeds. The problem is, whether or not we’re aware, the key words we search are coded with political biases. My research demonstrates that it’s possible to position ideological searches to maximize the exposure of their content.

    When there is limited or no content available on a topic, it’s possible to game search engines to guarantee that certain keywords will be directed to content that includes these terms or is tagged accordingly. This is why conspiracy theorists were able to capitalize on the concept of a “crisis actor.” By producing a plethora of insidious content rife with the term and maximizing SEO, conspiracy theorists filled what Microsoft’s Michael Golebiewski and danah boyd referred to as a “data void.” Searches for “crisis actor” got conspiratorial results until other sources filled the void with more legitimate content debunking the theory.
    screenshot of a google search
    Courtesy of Francesca Tripodi

    To demonstrate how this works in politics, I Googled a few key phrases used in both of Nunes’ speeches. The results demonstrate how politicians and pundits can exploit data voids to create ideological information silos. During each hearing, Nunes describes “the Russia collusion hoax.” When you search for “collusion hoax,” the links returned support the position that investigations into the president are bogus. The top links are from a story in The New York Post published just last week that Dems are trying to block Barr’s probe into the “Russian collusion hoax” and a link to Amazon to purchase a book titled The Russia Hoax: The Illicit Scheme to Clear Hillary Clinton and Frame Donald Trump, by Fox News legal analyst Gregg Jarrett.

    Strategic signaling also drew attention to what the Mueller report did not focus on. On June 12, Nunes noted that the report had not procured any “useful information on figures who played key roles in the investigation such as Joseph Mifsud,” a Maltese academic and figure in the George Papadopoulos case, “or the Democrat paid operative, former spy Christopher Steele,” the British intelligence officer behind the now notorious pee tape allegations. In the days following Nunes’ remarks, the search returns were primarily conservative content published anywhere between two weeks to 12 minutes before Nunes’ speech. In addition to traditional conservative sources like Fox News, Washington Examiner, and National Review, there are also digital-first sources like the Daily Caller and the Daily Wire, as well as stories posted from more dubious publications like the Epoch Times.

    These findings reveal that existing studies on algorithms, filter bubbles, and misinformation online are missing a crucial component regarding the problem of political polarization, specifically data focused on how we access news and information. Epistemological frameworks can lead us into algorithmic rabbit holes. Understanding keyword signaling is an essential part of studying political polarization. While most focus on how output (e.g., search results or social media newsfeeds) keeps us in filter bubbles, more research is needed on how inputs are manipulated for political gain. This level of sophistication highlights how conservative groups systematically work to optimize their content for search and social media. Not unlike the tactics of Republican strategist Frank Luntz, political players and members of the right-wing media ecosystem are able to fill data voids with their own ideas and stories.

    #Politique_numérique #Moteurs_recherche #Faschosphère #Mots_clés #Fake_news

  • Opinion | How an Online Mob Created a Playbook for a Culture War - The New York Times
    https://www.nytimes.com/interactive/2019/08/15/opinion/what-is-gamergate.html

    On August 15, 2014, an angry 20-something ex-boyfriend published a 9,425-word screed and set in motion a series of vile events that changed the way we fight online. The post, which exhaustively documented the last weeks of his breakup with the video game designer Zoë Quinn, was annotated and punctuated with screenshots of their private digital correspondence — emails, Facebook messages and texts detailing fights and rehashing sexual histories. It was a manic, all-caps rant made to go viral.

    And it did. The ex-boyfriend’s claims were picked up by users on Reddit and 4chan and the abuse began. Ms. Quinn and her immediate family members were threatened. Her private information was exposed, including old nude photos from a past relationship. Chat rooms popped up to discuss the best ways to “ruin her life” and fantasize about elaborate ways of killing her.

    Using fake Twitter accounts, 4chan users posed as “angry feminists” and got the hashtags #EndFathersDay and #WhitesCantBeRaped to trend globally. At a tech conference in 2013, in an incident called Donglegate, Adria Richards, a tech consultant and woman of color, tweeted about a sexist joke uttered during a keynote speech. Her tweet went viral, and Ms. Richards was fired, doxxed, received death threats and had “images of her beheaded, or her face photoshopped onto the body of porn stars.” Not all of the hoaxes succeeded: 4chan campaigns like “Operation Freebleeding” (where trolls pretended to be feminists rejecting tampons as patriarchal tools of oppression) failed to stoke culture war flames.

    “The energy and ideology of this movement weren’t new but Gamergate was when the movement evolved and the monster grew a voice box,” Whitney Phillips, an assistant professor at Syracuse who studies online harassment and media manipulation, told me. “All the anger, all the toxicity and fear of being replaced by a culture more focused on social justice — it all came together in a spectacularly awful way.”

    Unlike its predecessors, Gamergate jumped out of the obscure fever swamps of the internet and into mainstream consciousness, in part because its arrival coincided with a peculiar online moment in which social media platforms were becoming more mainstream. People who were unfamiliar with the chaotic underbelly of internet culture could be easily tricked or manipulated by its worst actors. “The clash of anonymous imageboard culture with the parts of social media where people live and work created the divide underlying Gamergate,” Jay Allen, a freelance writer, wrote of this dynamic in 2014.

    Crucially, Gamergate emerged during the internet’s shift from a largely anonymous or pseudonymous culture to one centered around personality-driven influencers. And, unlike previous abuse campaigns led by armies of unknown internet users, Gamergate attracted the attention of then-men’s rights bloggers like Mike Cernovich and Roosh V, right-wing political correctness monitors like Christina Hoff Sommers and middling journalists like Milo Yiannopoulos, then a writer for Breitbart.

    “Gamergate really prototyped the rise of harassment influencers,” Ms. Phillips told me, arguing that the size and intensity of the controversy quickly attracted opportunists who saw the conflict as a way to gain large followings stoking the culture war flames. In turn, these personalities extended the conflict, highlighting new controversies. The fact that these influencers were real, identifiable people only further legitimized the event for its followers.

    Today, five years later, the elements of Gamergate are frighteningly familiar: hundreds of thousands of hashtag-swarming tweets; armies of fake Twitter accounts; hoaxes and disinformation percolating in murky chat rooms and message boards before spreading to a confused mainstream media; advertiser boycotts; crowdfunding campaigns; racist, sexist and misogynist memes; YouTube shock jocks; D-list celebrities hand-wringing about political correctness on Twitter; Milo Yiannopoulos, Steve Bannon and Breitbart; Candace Owens.

    Gamergate’s DNA is everywhere on the internet, and the ubiquity of Gamergate’s influence has even spawned a winking trope: Everything Is Gamergate.

    Gamergate wasn’t the birth of a brand-new culture war, it was a rallying cry. And its trollish successes in intimidating women, deceiving clueless brands and picking up mainstream coverage taught a once-dormant subculture powerful lessons about manipulating audiences and manufacturing outrage. Five years on, no lesson feels more prescient than the fact that its supposed central premise — a broad reckoning regarding journalistic ethics in video games — was based on an easily (and frequently) debunked lie.

    Gamergate is occasionally framed as a battle for the soul of the internet between a diverse, progressive set and an angry collection of white males who feel displaced. And it is that, too. But its most powerful legacy is as proof of concept of how to wage a post-truth information war.

    The lesson of Gamergate — the one we feel reverberating throughout our politics every day in 2019 — is that there’s a sinister power afforded to those brazen enough to construct their own false realities and foist them on others.

    #Gamergate #Fake_news #Trolls #Faschosphère

  • La « colère Internet ». Et si les révolutions étaient désormais algorithmiques ? | Mais où va le Web
    http://maisouvaleweb.fr/colere-internet-revolutions-etaient-desormais-algorithmiques

    Clément Mabi (@C_Mabi), maître de conférences à l’UTC de Compiègne, spécialiste des questions d’expérimentation démocratique, de participation citoyenne et de culture numérique, interroge dans ce texte le rôle d’Internet dans l’émergence et la structuration des mouvements politiques récents. Là où nous posons trop souvent un regard binaire sur Internet, le jugeant coup à coup favorable à la démocratie, ou encourageant des visées populistes, son propos opte pour une remise en contexte sociale de l’usage des technologies qui permet de dépasser cette dichotomie trop stricte. Il défend qu’Internet n’est pas stricto sensu une représentation fidèle du monde social, mais plutôt son miroir déformant qu’il convient d’étudier sous différents angles avant de se laisser aller à des jugements hâtifs et englobants.

    Culture numérique
    La « colère Internet ». Et si les révolutions étaient désormais algorithmiques ?

    Ce que je propose dans cet article est d’éviter d’avoir une lecture binaire du rôle politique de l’internet en faisant un pas de côté pour rappeler qu’internet est un prisme déformant de la réalité sociale, que la médiation qu’il engage tronque notre vision du monde et que certains sujets épousent plus ou moins bien les caractéristiques sociotechniques d’internet, s’approprient plus ou moins les règles de visibilité. Autrement dit, je pense que les « colères internet » seraient celles qui ont réussi à s’adapter aux contraintes sociotechniques de la communication en contexte numérique et à passer la barrière du tri algorithmique imposé par le web. Approcher le problème de cette manière devra me permettre de remettre les technologies à leur place et d’insister sur le fait qu’elles ne peuvent assumer à elles seules la responsabilité des tensions sociales et politiques que nous connaissons.

    Dans ce bouillonnement, l’autorité d’un argument se construit désormais moins par le statut du locuteur que dans sa capacité à convaincre la communauté. Les arguments qui circulent le plus largement sont ceux qui ont réussi à trouver « leurs publics » de manière horizontale, de groupe en groupe. Les contenus qui vont le plus facilement circuler dans cet espace public seront donc ceux qui vont réussir à « toucher » les gens, à faire appel à leurs émotions et à leurs affects de manière à encourager une analyse subjective des contenus : c’est parce qu’un contenu prend sens dans ma réalité vécue que je le repartage et qu’il peut rendre compte de mon ressenti.

    L’analyse du sociologue Martin Gurri s’appuie sur ce contexte sociotechnique pour montrer que le développement des réseaux sociaux contribue à la fois à l’affaiblissement des autorités traditionnelles et à l’agrégation des colères populaires[5]. Du fait de ces bulles de filtres, les citoyens chercheraient de moins en moins à s’informer auprès des experts et préfèrent récolter du contenu auprès de ceux qui font écho à leur colère, qui en sort renforcée. Il évoque ainsi une « cinquième vague » de diffusion de l’information, après les médias de masse, qui via les réseaux sociaux permet aux communautés d’échanger et de s’informer directement entre elles. Stéphania Milan parle elle de « cloud protesting » pour rappeler l’épaisseur algorithmique de l’action collective, qui se retrouve reconfigurée dans une logique de « politique de visibilité » qui en découle[6]. Son travail empirique cherche à montrer combien les usages des technologies numériques, leurs imaginaires et leurs représentations (réunis au sein du concept de cloud) ont contribué à façonner les discours produits sur des mouvements sociaux récents (à l’image –une nouvelle fois- des Printemps Arabe), leurs organisations et la manière dont leurs membres se sont perçus entre eux.

    On constate que les « colères Internet » qui obtiennent le plus de visibilité sont celles qui parviennent le mieux à utiliser la force des émotions des sujets pour toucher leurs publics tout en mobilisant des réseaux organisés pour optimiser la circulation des messages et ainsi réussir à exploiter la force de frappe de l’internet. Loin d’éclater les organisations, l’espace public numérique semble récompenser les collectifs les mieux structurés qui contribuent à faire monter artificiellement leurs contenus .

    #Clément_Mabi #Internet_citoyen #Mobilisation #Extrême_droite #Faschosphère #Révolutions_internet #Empowerment

  • Neo-Nazis on DeviantArt Radicalized a Woman Who Planned a Mass Shooting - VICE
    https://www.vice.com/en_us/article/zmp5y3/neo-nazis-on-deviantart-radicalized-a-woman-who-planned-a-mass-shooting

    DeviantArt, founded in 2000, is home to millions of users and hundreds of millions of pieces of art. It’s offered a home for marginalized artists and communities to create and share work. If you can visualize it, odds are DeviantArt has it.

    But like many large social media platforms, there exists a small but thriving hive of extremists on DeviantArt, similar to the ones Souvannarath came across. These extremists have created a network of far-right user groups where they create and share far-right propaganda, talk and write about fascism, and recruit vulnerable users.

    The far-right propaganda posted on DeviantArt is then disseminated across the web, which experts say works as a gateway drug to recruitment to neo-Nazi groups.

    Jeremy Blackburn, a professor at the University of Alabama at Birmingham, studies memes and the online spaces of the far-right. Blackburn said that in the far-right ecosystem like 4Chan’s /pol/ board or Gab, images like the ones created and stored on DeviantArt are immensely important.

    "Essentially what is happening is that people’s brains are being hacked, especially in terms of imagery—it’s very digestible, it’s super-duper easy to share,” said Blackburn. “It takes like 15 to 20 seconds, at most, to look at a meme and that’s where I think the danger is. You can become inundated with them and basically read the equivalent of reams of propaganda.”

    When VICE provided spokespeople for DeviantArt with evidence of neo-Nazi content on the site, they referenced the site’s commitment to freedom of artistic expression and its zero tolerance policy for “hate propaganda.”

    “As an art-centric social network, the DeviantArt community has traditionally been allowed a wide range of expression both in comments and in artistic themes,” spokespeople said in an emailed statement. “This is important for a site that aims to represent all artists. However, we draw a hard line when it comes to hate speech that aims to purposely cause pain to others in a hateful way. DeviantArt’s Etiquette Policy clearly states that ‘hate propaganda is met with zero tolerance.’”

    eviantArt was founded at the turn of the millennium by three friends. In 2017, the site was bought by the web development company Wix for $36 million. At the time of purchase, Techcrunch reported that the site had over 40 million members and over 325 million pieces of individual art online.

    While the vast majority of the site is innocuous, if you stumble across the wrong keyword, the website will feed you content ranging from graphic art of neo-Nazis gunning people down to Hitler drawn as an anime girl.

    Fascist groups on DeviantArt have hundreds of members and hundreds of thousands of views. All of the pages are pretty similar, but have a flavour that couldn’t be found anywhere but DeviantArt.

    “We are a group of Fascist, National Socialists, Phalangist, Intergalists, Civic Nationalists, and others who also happen to like anime,” reads the description of one page called Fascist Anime. “The main purpose of the group is to combine fascist propaganda with anime, usually with cute anime girls. Why? Because the internet needed something like this!”

    Souvannarath’s case is one amplified to an extreme degree, but it is an outsized reflection of the way the content economy works. DeviantArt has long been a core source of artwork that powers the rest of the internet’s image and meme-based economy, with original work from DeviantArt spreading throughout the message boards and the rest of the social web. So it goes with DeviantArt’s fascist repositories, with images first posted there later spreading among white supremacist groups on Twitter, Gab, 4Chan, and Reddit.

    Non-hierarchical, but predictable, behaviour from neo-Nazi propagandists is exactly what Blackburn found when researching 4Chan. There, he found that the best art or memes would be curated and shared through a pipeline by power users to other social media sites.

    One propagandist, who goes by the alias “Dark Foreigner” and has been connected to Atomwaffen and its sister groups, has been uploading his propaganda to DeviantArt and cross-linking it to his other accounts for over a year. Dark Foreigner uses the automated DeviantArt system to sell his prints for $4.79 USD a pop. DeviantArt controls the prints section of its website and takes upwards of an 80 percent cut, meaning that if someone buys neo-Nazi propaganda on DeviantArt, the company not only ships it to them, but makes a profit.

    VICE asked DeviantArt questions regarding Dark Foreigner’s business selling propaganda but did not receive any responses. His work remains for sale on the website.

    #Faschosphère #DeviantArt #Wix #Economie_numérique

  • (10) Elliot Lepers - Cyberharcèlement et harcèlement contre les acteur du numéro « anti-relous »
    https://www.facebook.com/getelliot/posts/866229713550513

    COMMUNIQUÉ
    Mardi 31 octobre à 12h

    Lancée vendredi 27 octobre dans après-midi, notre initiative de « numéro anti-relous » a été largement relayée dans la presse tout au long du weekend.

    Lundi soir, nous avons été victimes d’une attaque coordonnée contre le service et d’une campagne de harcèlement contre nos personnes. Plusieurs dizaines de messages de haine, et notamment des menaces de mort, ont également été publiés sur Twitter et d’autres plateformes à notre encontre.

    À partir de 16h, plus de 20 000 messages d’insultes ont été envoyés en masse au service, dans l’objectif affiché de nous causer un préjudice financier pour que le service soit interrompu. Nous avons été contraints de désactiver la ligne téléphonique à 20h pour contenir le pic de charge. Le préjudice financier est minime, les mesures de sécurité mises en places pour pallier ces comportements, hélas prévisibles, ayant fonctionné comme prévu.

    À 23h, un homme s’est présenté au domicile de l’un d’entre nous et a sonné plusieurs fois avant de repartir. Plusieurs dizaines de commandes de nourriture ont également été passées à notre nom dans le but d’être livrées chez nous.

    Tout au long de la soirée, nous avons pu rassembler des éléments de preuve accablants dans le but de confondre les auteurs. Nous mettons actuellement en oeuvre les démarches juridiques pour que les responsables soient poursuivis.

    Nous tenterons de réactiver un service similaire dès que possible, et poursuivons notre collecte à cette fin sur le site 3615relous.fr. Nous saluons à cette fin l’élan massif de solidarité qui a accompagné ces attaques depuis hier soir.

    À ce jour, ni Twitter, interpellé à propos de menaces de mort, ni Webedia, société éditrice du site jeuxvideo.com sur lequel les délinquants se sont coordonnés, n’ont réagi. Leur silence a trop duré, alors que nombre de militantes ont subi des attaques similaires ces dernières années, en France et dans le monde.

    Au-delà de notre cas particulier, nous voulons que cet épisode, qui n’est qu’un symptôme de plus, contribue à mettre fin à l’impunité du cyber-harcèlement. Il ne s’agit de rien d’autre qu’une police politique de la pensée qui utilise l’intimidation, l’incitation à la haine, et la violence pour réduire les féministes au silence.

    Nous tenons à leur dire qu’ils n’y parviendront pas et que cela ne fait que renforcer notre détermination à créer une société égalitaire et respectueuses des opinions de toutes et tous.

    Surtout, nous voulons que le gouvernement réagisse à la hauteur de l’attente exprimée ces dernières semaines par la société toute entière concernant la lutte contre les violences faites aux femmes. L’État doit également se tenir aux côtés de celles et ceux qui luttent pour l’égalité, et soutenir les associations présentes sur le terrain.

    Elliot Lepers et Clara Gonzales

    #Cyberharcèlement #Gamergate #Anti-relous #Faschosphère

    • C’est fabuleux de voire que la moindre tentative pour se défendre du harcelement(ici de rue) de la part des femmes se prend une telle violence en retour. Deux femmes proposent une solution pacifiste et éducative qui leur coûte à elles 18 centime par appel et le lendemain tu as 20000 masculinistes qui les harcèlent, publie leurs adresse et coordonnées perso, menace de mort, commande de nourriture abusive.

      Certains bitards prétendent qu’il suffit de donner aux harceleurs de rue un faux numero. Pour l’avoir fait une fois, j’ai pu constaté que le mec qui me faisait chier et dont j’arrivait pas à me débarassé a verifié devant moi si le numero etait fonctionnel (un habitué du harcelement qui a du recevoir beaucoup beaucoup de faux numero pour pensé à cette parade) d’ou l’interet d’un numero qui existe et qui répond une heure plus tard.

      La moindre tentative de solidarité entre femmes se prend la fraternité en plein face (les misogynes de j-v.com s’appelent entre eux les Kheys qui veut dire « frères » arabe
      #fraternité