• #Alfonsina

    Alfonsina Storni (1892–1938) est une légende en Argentine. Dans la chanson « Alfonsina et la mer », créée dans les années 1960 et encore chantée partout aujourd’hui, Alfonsina est célébrée en héroïne qui se jette dans les flots de l’Atlantique avec la bénédiction divine. La légende qui voit en elle une féministe intrépide et une poétesse aux vers scandaleux, briseuse de tabous, est née de son vivant déjà.

    https://www.swissfilms.ch/fr/movie/alfonsina/A9A534B6233A476081C99E78F53E2855
    #film #Alfonsina_Storni #poésie #Argentine #féminisme #anarchisme #modération

  • Kauna, modératrice pour Facebook au Kenya : « J’ai vu beaucoup de suicides en vidéo » - L’Humanité
    https://www.humanite.fr/social-et-economie/facebook/kauna-moderatrice-pour-facebook-au-kenya-jai-vu-beaucoup-de-suicides-en-vid


    Attention, elle parle un peu des contenus à modérer et ça craint.

    Facebook prétend que ces contenus sont majoritairement modérés par des IA…

    C’est un #mensonge et c’est triste. Nous faisons le gros de ce travail. Mais, comme c’est caché, dans le back-office de Facebook, il est impossible de s’en rendre compte si on n’y a pas accès. On apprend à l’algorithme à repérer les contenus problématiques, mais nous devons les vérifier avant de les supprimer. C’est sûr qu’on se sent invisibilisé. Ce système devrait être expliqué, montré à tout le monde : ces entreprises technologiques font faire le travail ingrat à des travailleurs payés à peine plus d’un dollar de l’heure en Afrique.

    #IA

  • Comment Israël a payé plusieurs millions de dollars pour inonder les internautes français de publicités anti-Hamas
    par Elsa de La Roche Saint-André | le 25 octobre 2023 – Libération
    https://www.liberation.fr/checknews/comment-israel-a-paye-plusieurs-millions-de-dollars-pour-inonder-les-inte
    https://www.liberation.fr/resizer/K2tcdaO1fDAF0r_88WJ4K7ZsiVI=/1200x630/filters:format(jpg):quality(70)/cloudfront-eu-central-1.images.arcpublishing.com/liberation/XG6QJZW2K5GZXO3GZNTKLLRWUQ.JPG

    Depuis le 7 octobre, en plus des combats qui opposent sur le terrain l’armée israélienne aux forces du Hamas, une autre bataille se joue entre l’Etat hébreu et le mouvement islamiste au pouvoir à Gaza, celle de la communication. Parmi les outils privilégiés par Israël pour rallier l’opinion mondiale à sa cause, l’un s’est particulièrement fait remarquer en France : des vidéos abondamment diffusées sous forme de spots publicitaires sur YouTube. Sur les réseaux sociaux, des internautes s’étonnent ainsi d’avoir vu apparaître, alors qu’ils visionnaient des vidéos sur la plateforme appartenant à Google, des publicités dénonçant les crimes perpétrés par le Hamas, parfois estampillées d’un logo « State of Israel ».

    Et à en croire les calculs d’un outil de marketing digital, de nombreux internautes français ont été exposés à ces contenus : plus de 4,6 millions de dollars (environ 4,3 millions d’euros) auraient été investis par le ministère des Affaires étrangères israélien en vue de distribuer ces campagnes publicitaires en France. Faisant de l’Hexagone le pays le plus ciblé par la diffusion de ces contenus. (...)

    #abonnés #7oct23

    • Dès le 8 octobre, au lendemain de l’attaque terroriste du Hamas en Israël, le journaliste Vincent Manilève rapportait sur X (anciennement Twitter) l’existence d’une vidéo diffusée avant les contenus de youtubeurs français connus, comme [l’antisémite, ndc] Squeezie ou Amixem. Pendant les vingt-neuf secondes de la vidéo, s’affiche en lettres rouges capitales un message, par ailleurs lu par une voix automatique sur fond de musique angoissante : « Le Hamas a déclaré la guerre à Israël. Les terroristes armés du Hamas se sont infiltrés en Israël par le biais d’une invasion terrestre et ont commencé à massacrer des Israéliens innocents. Des centaines de #civils israéliens, y compris des enfants et des femmes, ont été tués ou blessés. Des Israéliens ont été pris en otage. C’est une guerre et Israël prendra toutes les mesures nécessaires pour protéger ses citoyens contre ces terroristes barbares. »

      D’après les éléments disponibles dans le Centre de transparence publicitaire de Google, cette #vidéo importée sur le compte du ministère des Affaires étrangères d’#Israël, n’a été diffusée en France que sur la journée du 8 octobre. Pour cause : elle a rapidement été signalée par plusieurs internautes. La réponse adressée le 9 octobre par #You_Tube à l’un d’eux a été consultée par Arrêt sur images : la plateforme explique avoir « décidé de prendre des mesures à l’encontre de cette annonce », après avoir « déterminé que l’annonce ne respectait pas les règles de Google ». Après cette décision, il n’a plus été possible pour cette vidéo d’être distribuée comme publicité, sans pour autant être définitivement retirée de la chaîne YouTube de la diplomatie israélienne. Chaque jour, de nouvelles vidéos y sont importées. Et pour faire simple, celles qui comptabilisent le plus de vues sont celles qui ont, au moins un temps, été monétisées.

      Une quinzaine de campagnes publicitaires

      Car après sa vidéo du 8 octobre, cette chaîne a lancé de nouvelles #campagnes_publicitaires. Une semaine plus tard, l’humoriste Matthieu Longatte, plus connu sur les réseaux sociaux sous le pseudo Bonjour Tristesse, a par exemple été confronté à une autre annonce vidéo. « WTF les pubs de #propagande israélienne avant les vidéos YouTube », s’étonnait-il le 14 octobre. Cette vidéo, en effet, a été diffusée auprès des utilisateurs français de YouTube du 13 au 19 octobre. A l’écran, on lit : « Le Hamas, une organisation terroriste vicieuse, a assassiné plus de 1 300 Israéliens innocents […] des familles entières ont été massacrées dans leurs maisons. » Là aussi, des signalements ont été envoyés, mais différentes versions de la vidéo ayant été importées et monétisées par la chaîne, cette annonce a pu continuer à circuler.

      Dans la quinzaine de campagnes publicitaires du ministère israélien des Affaires étrangères qu’affiche le centre de transparence publicitaire de #Google, on trouve aussi une vidéo intitulée Ramenez nos enfants à la maison diffusée depuis le 19 octobre. Comptabilisant plus de 4,4 millions de vues sur YouTube, ce qui fait d’elle la plus visionnée sur la chaîne du ministère, elle se veut un avertissement adressé au reste du monde : « Plus de 200 bébés, enfants, personnes âgées, hommes et femmes innocents ont été enlevés par les terroristes du Hamas de Daech. Le Hamas a enlevé nos êtres chers. Demain, ce peut être les vôtres ! »

      Les mêmes publicités ont aussi été diffusées en dehors de YouTube, bien que toujours hébergées par la plateforme. Les vidéos sont ainsi apparues dans des #applications_de_jeu mobile – Candy Crush ou Angry Birds ont entre autres été citées par les internautes. « Je jouais tranquillement à un jeu mobile quand cette pub est tombée devant mes yeux », a tweeté la streameuse Twitch Artillerie lourde, qui ajoute plus tard : « deuxième vidéo sur le même jeu et les deux pubs redirigent sur le compte YouTube du ministère des Affaires étrangères israélien ».

      On peut également citer l’exemple d’une vidéo, déjà mentionnée par CheckNews, qui mettait en avant le chiffre de « 40 nourrissons » assassinés par le Hamas (qui n’a jamais été confirmé) dans une animation aux tons pastel. Selon le Centre de transparence publicitaire, cette vidéo a été diffusée comme annonce en France du 13 au 15 octobre. Malgré son apparence enfantine, elle n’a pas, comme toutes les annonces « à caractère politique » ou comportant des « références à la mort », pu « être diffusée auprès des enfants ou sur des contenus conçus pour les enfants, ou encore apparaître sur YouTube Kids », a expliqué un représentant de Google à CheckNews. Elle a en revanche continué à l’être auprès des adultes, les équipes du géant de la tech ayant considéré qu’elle était « en règle avec [ses] règlements publicitaires ».

      La Commission européenne a pris les devants

      De nouveau contacté, ce représentant de Google ne commente pas les autres vidéos sponsorisées par la diplomatie israélienne. Mais se contente de rappeler que les règles de YouTube interdisent aux annonceurs de monétiser « des vidéos contenant de la violence ou un contenu choquant ». Par ailleurs, Google a instauré une réglementation spécifique pour les « événements sensibles », « souvent mis en place à la suite de catastrophes naturelles ou d’autres événements tragiques », nous indique-t-on, sans accepter de préciser si le conflit entre Israël et le Hamas est concerné. Lorsque des événements ont été déclarés comme sensibles, « les annonces qui exploitent ou capitalisent sur ces tragédies ne sont pas autorisées, tout comme la monétisation des vidéos YouTube qui exploiteraient ou capitaliseraient sur ces tragédies, à moins qu’elles n’incluent un contexte crucial, tel qu’un rapport d’actualité faisant autorité ».

      Un mois après le début de la guerre en Ukraine, le 23 mars 2022, YouTube avait pour cette raison suspendu la « monétisation de tout contenu qui exploite, ignore ou cautionne la guerre ». Et c’est en appliquant ces règles qu’en 2021, YouTube avait déjà retiré une vidéo sponsorisée comme publicité par Israël. La plateforme avait alors estimé que cette séquence de quinze secondes alternant images de roquettes, d’explosions et de civils blessés ne respectait pas ses règles. « Nous avons une politique ferme à l’égard des publicités qui contiennent un contenu choquant », avait expliqué un porte-parole de Google à Vice.

      Dans le contexte du conflit actuel, la Commission européenne a pris les devants pour rappeler à #Alphabet, la maison mère de Google, ses obligations en matière de #modération sur YouTube. Dans un courrier adressé vendredi 13 octobre au patron d’Alphabet, le commissaire européen chargé du Numérique, #Thierry_Breton, soulignait que Google a une « obligation particulière de protéger les millions d’enfants et d’adolescents » utilisant sa plateforme « contre les contenus violents représentant des prises d’otages et autres vidéos choquantes ». Un appel qui semble avoir été entendu s’agissant de l’une des vidéos du ministère des Affaires étrangères israéliens. Après avoir été monétisée du 14 au 16 octobre, la séquence, qui montrait des murs et sols couverts de sang, des housses mortuaires ou encore des otages dénudés, a été définitivement supprimée de YouTube.

      France, Allemagne et Royaume-Uni

      Au total, les montants engagés par le ministère des Affaires étrangères pour diffuser ces publicités sont de l’ordre de 8,5 millions de dollars (8 millions d’euros), selon l’outil Semrush, un logiciel notamment utilisé pour estimer les performances des campagnes en ligne. La quasi-totalité de cette somme a été consacrée à trois pays européens : la France, l’Allemagne et le Royaume-Uni.

      Ces investissements ont permis au ministère israélien des Affaires étrangères de réaliser en tout plus d’1,1 milliard d’impressions sur ses vidéos, dont 535 millions auprès du public français, toujours selon Semrush. Le pic de ces impressions se situe sur le week-end des 14 et 15 octobre, soit une semaine après l’attaque terroriste menée par le Hamas en Israël.

      Interrogé par CheckNews sur les raisons pour lesquelles le public français a été particulièrement exposé à ces vidéos de propagande, le porte-parole de l’ambassade d’Israël en France, Hen Feder, indique qu’il n’a « pas connaissance d’un ciblage spécifique de la population française ». Et l’ambassade d’ajouter qu’Israël est « maintenant en guerre contre une organisation vicieuse semblable à Daech », qui conduit une « guerre de propagande ». L’Etat hébreu explique donc publier « sur des plateformes, dont YouTube, pour [diffuser] la vérité sur l’horrible attaque terroriste du Hamas. »

      en Europe, la France est le pays qui compte le plus de musulmans et de juifs

      #propagande_de_guerre #légitimation #internet

  • « Forçats du numérique » : Comment une décision de justice au Kenya fragilise la sous-traitance des multinationales du web
    https://theconversation.com/forcats-du-numerique-comment-une-decision-de-justice-au-kenya-fragi

    L’histoire commence en mai 2022 au Kenya : Daniel Motaung, un ancien modérateur de contenu de la société locale Samasource Ltd dépose alors une plainte (petition en anglais) contre ses dirigeants, ainsi que leurs donneurs d’ordre, de nombreux géants du web, dont Meta (la société mère de Facebook).

    Dans cette plainte, Daniel Motaung accuse Sama et Meta de traite d’êtres humains, de démantèlement de syndicats et de ne pas fournir un soutien adéquat en matière de santé mentale.

    Sama – leader dans le domaine de l’annotation – emploie des « étiqueteurs », qui ont pour mission de visionner et de taguer des contenus très éclectiques, souvent consternants, parfois extrêmement violents, provenant de divers réseaux sociaux et d’internet. L’objectif : modérer les contenus sur les réseaux sociaux et fournir des bases de données équilibrées pour l’apprentissage des intelligences artificielles.

    Neuf mois, plus tard, le 6 février 2023, une première décision historique a été rendue par le juge kényan Jakob Gakeri : ce dernier a statué sur le fait que les cours kényanes étaient compétentes pour juger des sociétés étrangères dont des filiales se trouvent au Kenya, ainsi que la responsabilité des donneurs d’ordre. La procédure est en cours pour de nouvelles audiences.

    C’est la première fois qu’une telle affaire est jugée dans les pays où vivent ces « forçats du numérique », et que le jugement se fait selon les termes de la plainte déposée. Une façon d’exposer à la planète entière les coûts humains du numérique.

    #Modération #Médias_sociaux #Kénya #Sus-traitance #Maltraitance #Justice

  • OpenAI Used Kenyan Workers on Less Than $2 Per Hour: Exclusive | Time
    https://time.com/6247678/openai-chatgpt-kenya-workers

    In a statement, an OpenAI spokesperson confirmed that Sama employees in Kenya contributed to a tool it was building to detect toxic content, which was eventually built into ChatGPT. The statement also said that this work contributed to efforts to remove toxic data from the training datasets of tools like ChatGPT. “Our mission is to ensure artificial general intelligence benefits all of humanity, and we work hard to build safe and useful AI systems that limit bias and harmful content,” the spokesperson said. “Classifying and filtering harmful [text and images] is a necessary step in minimizing the amount of violent and sexual content included in training data and creating tools that can detect harmful content.”

    Even as the wider tech economy slows down amid anticipation of a downturn, investors are racing to pour billions of dollars into “generative AI,” the sector of the tech industry of which OpenAI is the undisputed leader. Computer-generated text, images, video, and audio will transform the way countless industries do business, the most bullish investors believe, boosting efficiency everywhere from the creative arts, to law, to computer programming. But the working conditions of data labelers reveal a darker part of that picture: that for all its glamor, AI often relies on hidden human labor in the Global South that can often be damaging and exploitative. These invisible workers remain on the margins even as their work contributes to billion-dollar industries.

    Read More: AI Helped Write This Play. It May Contain Racism

    One Sama worker tasked with reading and labeling text for OpenAI told TIME he suffered from recurring visions after reading a graphic description of a man having sex with a dog in the presence of a young child. “That was torture,” he said. “You will read a number of statements like that all through the week. By the time it gets to Friday, you are disturbed from thinking through that picture.” The work’s traumatic nature eventually led Sama to cancel all its work for OpenAI in February 2022, eight months earlier than planned.
    The Sama contracts

    Documents reviewed by TIME show that OpenAI signed three contracts worth about $200,000 in total with Sama in late 2021 to label textual descriptions of sexual abuse, hate speech, and violence. Around three dozen workers were split into three teams, one focusing on each subject. Three employees told TIME they were expected to read and label between 150 and 250 passages of text per nine-hour shift. Those snippets could range from around 100 words to well over 1,000. All of the four employees interviewed by TIME described being mentally scarred by the work. Although they were entitled to attend sessions with “wellness” counselors, all four said these sessions were unhelpful and rare due to high demands to be more productive at work. Two said they were only given the option to attend group sessions, and one said their requests to see counselors on a one-to-one basis instead were repeatedly denied by Sama management.

    In a statement, a Sama spokesperson said it was “incorrect” that employees only had access to group sessions. Employees were entitled to both individual and group sessions with “professionally-trained and licensed mental health therapists,” the spokesperson said. These therapists were accessible at any time, the spokesperson added.

    The contracts stated that OpenAI would pay an hourly rate of $12.50 to Sama for the work, which was between six and nine times the amount Sama employees on the project were taking home per hour. Agents, the most junior data labelers who made up the majority of the three teams, were paid a basic salary of 21,000 Kenyan shillings ($170) per month, according to three Sama employees. They also received monthly bonuses worth around $70 due to the explicit nature of their work, and would receive commission for meeting key performance indicators like accuracy and speed. An agent working nine-hour shifts could expect to take home a total of at least $1.32 per hour after tax, rising to as high as $1.44 per hour if they exceeded all their targets. Quality analysts—more senior labelers whose job was to check the work of agents—could take home up to $2 per hour if they met all their targets. (There is no universal minimum wage in Kenya, but at the time these workers were employed the minimum wage for a receptionist in Nairobi was $1.52 per hour.)

    In a statement, a Sama spokesperson said workers were asked to label 70 text passages per nine hour shift, not up to 250, and that workers could earn between $1.46 and $3.74 per hour after taxes. The spokesperson declined to say what job roles would earn salaries toward the top of that range. “The $12.50 rate for the project covers all costs, like infrastructure expenses, and salary and benefits for the associates and their fully-dedicated quality assurance analysts and team leaders,” the spokesperson added.

    Read More: Fun AI Apps Are Everywhere Right Now. But a Safety ‘Reckoning’ Is Coming

    An OpenAI spokesperson said in a statement that the company did not issue any productivity targets, and that Sama was responsible for managing the payment and mental health provisions for employees. The spokesperson added: “we take the mental health of our employees and those of our contractors very seriously. Our previous understanding was that [at Sama] wellness programs and 1:1 counseling were offered, workers could opt out of any work without penalization, exposure to explicit content would have a limit, and sensitive information would be handled by workers who were specifically trained to do so.”

    In the day-to-day work of data labeling in Kenya, sometimes edge cases would pop up that showed the difficulty of teaching a machine to understand nuance. One day in early March last year, a Sama employee was at work reading an explicit story about Batman’s sidekick, Robin, being raped in a villain’s lair. (An online search for the text reveals that it originated from an online erotica site, where it is accompanied by explicit sexual imagery.) The beginning of the story makes clear that the sex is nonconsensual. But later—after a graphically detailed description of penetration—Robin begins to reciprocate. The Sama employee tasked with labeling the text appeared confused by Robin’s ambiguous consent, and asked OpenAI researchers for clarification about how to label the text, according to documents seen by TIME. Should the passage be labeled as sexual violence, she asked, or not? OpenAI’s reply, if it ever came, is not logged in the document; the company declined to comment. The Sama employee did not respond to a request for an interview.
    How OpenAI’s relationship with Sama collapsed

    In February 2022, Sama and OpenAI’s relationship briefly deepened, only to falter. That month, Sama began pilot work for a separate project for OpenAI: collecting sexual and violent images—some of them illegal under U.S. law—to deliver to OpenAI. The work of labeling images appears to be unrelated to ChatGPT. In a statement, an OpenAI spokesperson did not specify the purpose of the images the company sought from Sama, but said labeling harmful images was “a necessary step” in making its AI tools safer. (OpenAI also builds image-generation technology.) In February, according to one billing document reviewed by TIME, Sama delivered OpenAI a sample batch of 1,400 images. Some of those images were categorized as “C4”—OpenAI’s internal label denoting child sexual abuse—according to the document. Also included in the batch were “C3” images (including bestiality, rape, and sexual slavery,) and “V3” images depicting graphic detail of death, violence or serious physical injury, according to the billing document. OpenAI paid Sama a total of $787.50 for collecting the images, the document shows.

    Within weeks, Sama had canceled all its work for OpenAI—eight months earlier than agreed in the contracts. The outsourcing company said in a statement that its agreement to collect images for OpenAI did not include any reference to illegal content, and it was only after the work had begun that OpenAI sent “additional instructions” referring to “some illegal categories.” “The East Africa team raised concerns to our executives right away. Sama immediately ended the image classification pilot and gave notice that we would cancel all remaining [projects] with OpenAI,” a Sama spokesperson said. “The individuals working with the client did not vet the request through the proper channels. After a review of the situation, individuals were terminated and new sales vetting policies and guardrails were put in place.”

    In a statement, OpenAI confirmed that it had received 1,400 images from Sama that “​​included, but were not limited to, C4, C3, C2, V3, V2, and V1 images.” In a followup statement, the company said: “We engaged Sama as part of our ongoing work to create safer AI systems and prevent harmful outputs. We never intended for any content in the C4 category to be collected. This content is not needed as an input to our pretraining filters and we instruct our employees to actively avoid it. As soon as Sama told us they had attempted to collect content in this category, we clarified that there had been a miscommunication and that we didn’t want that content. And after realizing that there had been a miscommunication, we did not open or view the content in question — so we cannot confirm if it contained images in the C4 category.”

    Sama’s decision to end its work with OpenAI meant Sama employees no longer had to deal with disturbing text and imagery, but it also had a big impact on their livelihoods. Sama workers say that in late February 2022 they were called into a meeting with members of the company’s human resources team, where they were told the news. “We were told that they [Sama] didn’t want to expose their employees to such [dangerous] content again,” one Sama employee on the text-labeling projects said. “We replied that for us, it was a way to provide for our families.” Most of the roughly three dozen workers were moved onto other lower-paying workstreams without the $70 explicit content bonus per month; others lost their jobs. Sama delivered its last batch of labeled data to OpenAI in March, eight months before the contract was due to end.

    Because the contracts were canceled early, both OpenAI and Sama said the $200,000 they had previously agreed was not paid in full. OpenAI said the contracts were worth “about $150,000 over the course of the partnership.”

    Sama employees say they were given another reason for the cancellation of the contracts by their managers. On Feb. 14, TIME published a story titled Inside Facebook’s African Sweatshop. The investigation detailed how Sama employed content moderators for Facebook, whose jobs involved viewing images and videos of executions, rape and child abuse for as little as $1.50 per hour. Four Sama employees said they were told the investigation prompted the company’s decision to end its work for OpenAI. (Facebook says it requires its outsourcing partners to “provide industry-leading pay, benefits and support.”)

    Read More: Inside Facebook’s African Sweatshop

    Internal communications from after the Facebook story was published, reviewed by TIME, show Sama executives in San Francisco scrambling to deal with the PR fallout, including obliging one company, a subsidiary of Lufthansa, that wanted evidence of its business relationship with Sama scrubbed from the outsourcing firm’s website. In a statement to TIME, Lufthansa confirmed that this occurred, and added that its subsidiary zeroG subsequently terminated its business with Sama. On Feb. 17, three days after TIME’s investigation was published, Sama CEO Wendy Gonzalez sent a message to a group of senior executives via Slack: “We are going to be winding down the OpenAI work.”

    On Jan. 10 of this year, Sama went a step further, announcing it was canceling all the rest of its work with sensitive content. The firm said it would not renew its $3.9 million content moderation contract with Facebook, resulting in the loss of some 200 jobs in Nairobi. “After numerous discussions with our global team, Sama made the strategic decision to exit all [natural language processing] and content moderation work to focus on computer vision data annotation solutions,” the company said in a statement. “We have spent the past year working with clients to transition those engagements, and the exit will be complete as of March 2023.”

    But the need for humans to label data for AI systems remains, at least for now. “They’re impressive, but ChatGPT and other generative models are not magic – they rely on massive supply chains of human labor and scraped data, much of which is unattributed and used without consent,” Andrew Strait, an AI ethicist, recently wrote on Twitter. “These are serious, foundational problems that I do not see OpenAI addressing.”

    With reporting by Julia Zorthian/New York

    #Travail_clic #Etiquetage #Intelligence_artificielle #Kenya #Violence_sexuelle #Modération

  • L’aventure de la #Modération – épisode 5 (et dernier ?)
    https://framablog.org/2023/01/19/laventure-de-la-moderation-episode-5-et-dernier

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le cinquième. Le dernier, pour l’instant. Si vous avez raté les … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libres_Services #Communaute #Internet

  • L’épisode de la #Modération – épisode 4
    https://framablog.org/2023/01/12/lepisode-de-la-moderation-episode-4

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le quatrième. Alors maintenant que je vous ai dit tout ça, … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libertés_Numériques #Libres_Services #Communaute #Internet

  • L’aventure de la #Modération – épisode 3
    https://framablog.org/2023/01/05/laventure-de-la-moderation-episode-3

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le troisième. Les cas d’étude c’est bien sympa, mais cela ne … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libertés_Numériques #Libres_Services #Communaute #Internet

  • L’aventure de la #Modération – épisode 2
    https://framablog.org/2022/12/30/laventure-de-la-moderation-episode-2

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le deuxième. Maintenant que je vous ai fait une introduction de … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libertés_Numériques #Libres_Services #Communaute #Internet

  • L’aventure de la #Modération – épisode 1
    https://framablog.org/2022/12/23/laventure-de-la-moderation-episode-1

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le premier. Il me semble que mon parcours rassemble plusieurs spécificités … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libertés_Numériques #Libres_Services #Communaute #Internet

  • Ethiopie : plainte contre Meta, accusée d’inaction contre la haine en ligne
    https://www.lemonde.fr/afrique/article/2022/12/14/ethiopie-plainte-contre-meta-accusee-d-inaction-contre-la-haine-en-ligne_615

    Une guerre oppose depuis novembre 2020 les autorités dissidentes du Tigré aux forces du gouvernement fédéral éthiopien. La maison mère de Facebook et Instagram est accusée d’avoir contribué à raviver les rivalités ethniques.

    Le Monde avec AFP
    Publié le 14 décembre 2022 à 12h06, mis à jour le 14 décembre 2022 à 12h10

    Temps de Lecture 2 min.

    Nouvelle procédure juridique contre Meta. Une organisation non gouvernementale (ONG) kényane et deux particuliers éthiopiens ont déposé, mercredi 14 décembre à Nairobi, au Kenya, une plainte contre la maison mère de Facebook et Instagram. Ils l’accusent d’inaction face aux discours de haine en Afrique, menant notamment au meurtre d’un professeur d’université dans l’Ethiopie en guerre.

    La plainte porte sur deux cas relatifs à la guerre du Tigré, qui oppose depuis novembre 2020 les autorités dissidentes de cette région septentrionale de l’Ethiopie aux forces du gouvernement fédéral et a ravivé des haines ethniques, notamment envers les Tigréens.

    Un des plaignants est un universitaire éthiopien d’origine tigréenne, Abrham Meareg, dont le père, professeur de chimie à l’université de Bahir Dar (nord-ouest), a été abattu le 3 novembre 2021 à la suite de publications calomnieuses et appelant au meurtre sur Facebook. Malgré plusieurs signalements, ces messages n’ont jamais été retirés par la plate-forme. Un autre plaignant est un membre éthiopien d’Amnesty International, Fisseha Tekle, vivant au Kenya depuis 2015. Auteur pour l’ONG de plusieurs rapports sur les violations des droits humains durant le conflit, il a été victime de harcèlement en ligne.

    Ils dénoncent également l’échec de Facebook à modérer les contenus signalés dans son pôle de Nairobi, qui couvre une vaste zone d’Afrique de l’Est et australe représentant 500 millions d’habitants. Ils font ainsi écho aux propos tenus par Frances Haugen, l’ancienne employée de Facebook à l’origine de la fuite de documents internes connue sous le nom de « Facebook Files », qui avait dit redouter « l’impact destructeur » que risquait d’avoir la plate-forme sur une société éthiopienne déjà extrêmement polarisée. Des craintes justifiées notamment par les difficultés de l’entreprise à modérer les messages émanant de groupes s’exprimant dans des langues locales, comme l’amharique, le tigrinya, l’oromo ou le somali.

    #Facebook #Droits_humains #Modération #Afrique #Meta

  • https://www.alternatives-economiques.fr/stopper-elon-musk/00105194

    Y a-t-il encore une limite à la puissance des multimilliardaires ? Le rachat de Twitter pour 44 milliards de dollars par l’homme le plus riche du monde illustre les possibilités offertes par une accumulation extrême de richesse.

    A la tête d’une fortune oscillant entre 200 et 300 milliards de dollars, composée très majoritairement d’actions Tesla dont le cours s’est envolé, Elon Musk a un patrimoine équivalent au produit intérieur brut (PIB) du Portugal. Et il s’achète une entreprise valant deux fois le budget du ministère de l’Intérieur français.

    Musk a dorénavant la haute main sur une plate-forme où échangent plus de 400 millions de personnes. Un réseau possédant un fort impact sur le débat public, car prisé au sein des milieux politiques, économiques et médiatiques. Une semaine après son rachat, l’entrepreneur, fidèle à son goût de la disruption, a licencié 3 500 personnes, soit la moitié des salariés de l’entreprise. Et il commence à mettre en place ses réformes.

    « En devenant l’actionnaire majoritaire, Elon Musk n’a pas vraiment de contre-pouvoir. C’est pareil au sein du groupe Meta qui possède Facebook, Instagram et WhatsApp. La plupart des réseaux sociaux sont des entreprises avec une gouvernance très centralisée et opaque », pointe Anne Bellon, politiste à l’université technologique de Compiègne.

    Quelles sont les motivations de ce rachat ? « Il y a une dimension idéologique à ne pas sous-estimer. Elon Musk a une vision absolutiste de la liberté d’expression, stipulant que plus de liberté signifie moins d’intervention », complète Anne Bellon. Soit une modération des contenus réduite au minimum légal.

    Musk reproche à l’ancienne direction de Twitter une intervention excessive et des biais anticonservateurs. Et il regrette les suspensions de comptes opérées sur le réseau, comme celle concernant Donald Trump. A l’instar de l’ancien Président dont le compte a déjà été rétabli, plusieurs personnes précédemment bannies pourraient faire leur retour. La conséquence de cette politique devrait être une brutalisation accrue du débat au travers d’une plus grande diffusion de contenus jugés problématiques, parce que haineux ou relayant de fausses informations.
    DSA, rempart européen ?

    Le multimilliardaire l’a cependant assuré : il respectera la loi. Si la législation américaine comporte très peu de contraintes en la matière, la réglementation européenne est plus stricte et la Commission le répète : sur le Vieux Continent, Twitter devra la respecter. Bruxelles s’érige en rempart, en mettant en avant son nouvel outil pour réguler les contenus des plates-formes numériques : le Digital Services Act (DSA).

    Une partie de ce dispositif européen pourrait entraver les ambitions de l’américain. Le DSA oblige en effet les grandes plates-formes à prendre en compte les « risques systémiques », qui englobent aussi bien le harcèlement sexiste que les « effets négatifs » sur les élections ou la sécurité publique.

    Il les contraint ainsi à suivre finement ce qui se passe sur leur réseau et à ne pas se contenter de supprimer quelques messages clairement illégaux (pédopornographie, apologie du terrorisme, etc.). Mais avec le licenciement de la moitié de ses salariés, la capacité de modération humaine de Twitter est réduite à peau de chagrin.

    « Elon Musk a une croyance très forte dans la technologie et va sûrement renforcer le rôle des outils algorithmiques dans la modération, pense Anne Bellon. Une telle évolution rendrait les décisions de modération plus opaques, réduisant ainsi leur possible contestation. »

    Elle exigerait aussi des régulateurs qu’ils montent en compétence pour entrer dans la boîte noire de la technologie de la plate-forme. Les grands projets d’Elon Musk pour Twitter concernent cependant principalement les Etats-Unis. Le reste du monde semble être secondaire dans ses plans, même s’il représente l’immense majorité de l’activité de l’entreprise.
    Reprise chaotique

    Au-delà de l’aspect idéologique, y a-t-il une logique économique au projet d’Elon Musk ?

    « Ce rachat peut paraître paradoxal, car Twitter a toujours eu du mal à trouver un modèle économique et affiche une fragilité en décalage avec la portée de ce réseau, qui voit intervenir des personnes d’influence mondiale, qu’elles soient chefs d’Etat ou dirigeants de grandes firmes », pointe Julien Nocetti, chercheur au centre Geode (Géopolitique de la datasphère).

    Le réseau à l’oiseau bleu a certes un impact fort sur les termes du débat public, mais il ne pointe qu’à la 16e place des réseaux sociaux les plus utilisés au monde et ses comptes oscillent selon les années entre le rouge et le vert.

    Elon Musk l’a d’ailleurs affirmé mi-novembre : « La perspective d’une banqueroute n’est pas à exclure. » Quatre jours après son rachat, 875 000 utilisateurs avaient désactivé leur compte – le double du rythme habituel –, selon la société Bot Sentinel. De leur côté, General Motors, Dyson, Disney, Coca-Cola ou encore Stellantis ont tour à tour suspendu leur campagne publicitaire sur le réseau.

    « Les annonceurs peuvent jouer un rôle de contre-pouvoir car ils préfèrent ne pas voir leurs messages à côté de contenus jugés problématiques. Une faillite n’est effectivement pas impossible », estime Annabelle Gawer, professeure d’économie numérique à l’université du Surrey.

    Un risque aggravé par la saignée opérée dans les effectifs, à laquelle s’ajoutent a minima plusieurs centaines de départs sur les salariés ­restants. Ceux-ci quittent le navire à cause des méthodes autoritaires du nouveau patron qui leur demande de se donner « à fond, inconditionnellement » et de « travailler de longues heures à haute intensité ».

    Le milliardaire affiche cependant comme ambition de trouver un nouveau modèle économique au réseau, qui repose aujourd’hui quasi exclusivement sur les revenus publicitaires. C’est pourquoi il a lancé mi-­novembre un abonnement à 8 dollars par mois pour obtenir une certification de compte, ouvrant la voie à une meilleure visibilité des contenus.

    Cette option était jusqu’alors proposée gracieusement aux personnalités ou entreprises dont l’identité avait été vérifiée. Véritable aubaine pour les trolls, l’offre a rapidement été suspendue après l’imposture de nombreux utilisateurs usurpant l’identité d’entreprises ou de personnalités publiques. Malgré ce fiasco initial, l’offre devait faire son retour fin novembre, « corrigée des bugs ». Ouvrant ainsi la voie à un modèle partiellement payant.

    Tesla, présentée aujourd’hui comme une success story, a frôlé la faillite plusieurs fois à la fin des années 2010

    Ce n’est pas la première fois qu’Elon Musk fait emprunter un chemin périlleux à une entreprise qu’il dirige. Tesla, présentée aujourd’hui comme une success story, a frôlé la faillite plusieurs fois à la fin des années 2010, enchaînant notamment retards de livraison et difficultés d’approvisionnement.

    Le fabricant de voitures électriques haut de gamme a d’ailleurs été accusé d’avoir supprimé un test de sécurité pour accélérer la production ou d’avoir minimisé d’autres problèmes pour éviter des rappels de véhicules qui auraient pu être destructeurs pour ses finances. La méthode Musk est connue.

    A plus long terme, le rêve du nouveau patron de Twitter est d’en faire une « app universelle ». Sur le mode du WeChat chinois, une application qui concentre un maximum d’usages : tweeter, commander un taxi, un repas, prendre un ­rendez-vous médical, etc.

    « La X App de Musk est un écosystème technologique total, en l’occurrence totalement fermé sur lui-même, où tous les services numériques seraient disponibles et interconnectés, concentrant ainsi l’ensemble des usages. Un effet système sans couture qui organiserait l’enfermement algorithmique et permettrait une captation sans discontinuité des données. Le socle techno­logique primaire de la X App serait donc basé sur l’architecture existante de Twitter », détaille l’enseignante à Sciences Po Asma Mhalla, dans un article du Grand Continent.

    Avec le réseau à l’oiseau bleu, Elon Musk attrape aussi un puissant outil informationnel pour s’immiscer encore davantage sur la scène géopolitique. Le milliardaire a en effet déjà « offert » – moyennant le concours financier de l’Etat américain – aux autorités ukrainiennes un accès à sa constellation de satellites Starlink, la plus grande au monde, permettant une connexion à Internet via l’espace en évitant ainsi les infrastructures terrestres mises à mal par les combats.
    Aussi puissants que des États

    De sa proposition de plan de paix pour cette guerre à celle formulée pour régler le conflit entre la Chine et Taiwan, de quoi se mêle-t-il ? Est-ce simplement l’expression d’un mégalomane voulant trouver des solutions à tout, au mépris de sa connaissance des situations ? Ou plutôt la preuve que les géants de la tech sont en train de devenir des puissances géostratégiques ? L’un n’empêche pas l’autre.

    « Les entreprises techno­logiques prennent de plus en plus position sur les sujets internationaux, de manière très visible pour Elon Musk ou plus discrètement comme Microsoft ou Google pour l’Ukraine », détaille Julien Nocetti, également chercheur à l’Institut français des relations internationales (Ifri).

    « La puissance des plus grandes plates-formes numériques équivaut à celle de certains Etats, en termes de ressources financières mais pas que, résume Annabelle Gawer. Ce sont des régulateurs privés qui autorisent ou non des entreprises et des individus à opérer sur leurs réseaux qui sont devenus des infrastructures essentielles. » L’Union européenne ne s’y est pas trompée et a envoyé cette année un ambassadeur permanent à la Silicon Valley pour échanger directement avec ces « big tech ».

    Elon Musk et ses entreprises sont aussi les produits du gouvernement américain et l’expression de son soft power

    Elon Musk est-il le symbole de cette nouvelle puissance qui échapperait aux Etats ? C’est plus ­complexe, car les big tech entretiennent un lien étroit avec la puissance publique, en l’occurrence américaine. SpaceX, l’entreprise de lancement de satellites fondée en 2002 par le futur boss de Twitter, s’est développée grâce aux fonds de la Nasa, via le contrat de ravitaillement de ses stations.

    Situation similaire pour Tesla : l’entreprise a bénéficié pendant des années de subventions à hauteur de plusieurs milliards de dollars. « Sans le soutien politique de Washington, Tesla n’aurait jamais pu construire son usine à Shanghai », observe Julien Nocetti. Une usine stratégique, car elle permet à Tesla de servir le marché chinois, le second par la taille après celui des Etats-Unis. Une Tesla sur quatre y est vendue.

    En somme, Elon Musk et ses entreprises sont aussi les produits du gouvernement américain et l’expression de son soft power. Certes, le multimilliardaire appelle à voter ouvertement pour les républicains. Certes, il entretient des relations tendues avec l’administration démocrate de Joe Biden. Pour autant, cette dernière ne lui a pas coupé ses financements et a même soutenu financièrement SpaceX, qui opère Starlink, dans son aide à l’Ukraine. Pour Asma Mhalla, « à l’instar des bien moins bruyants Microsoft, Palantir ou Google, Elon Musk participe, à sa mesure, à façonner le rôle des Etats-Unis dans la géopolitique mondiale ».

    Les éclats d’un Elon Musk ne sont ainsi que le reflet d’une économie qui voit les big tech peser de plus en plus lourd dans un monde conflictuel. L’Europe peut-elle encore se limiter à brandir ses normes pour seule réponse ?

    #big_tech #capitalisme_de_plateforme #Elon_Musk #twitter #modération sur les #réseaux_sociaux #hégémonie #fabrique_de_l'opinion

  • Usbek & Rica - « Il faut absolument lutter contre l’invisibilisation des modérateurs de contenus »
    https://usbeketrica.com/fr/article/il-faut-absolument-lutter-contre-l-invisibilisation-des-moderateurs

    La première étape, c’est de lutter contre l’invisibilisation des modérateurs. Il faut absolument les sortir de l’ombre de leurs écrans, ce que cultivent les entreprises de réseaux sociaux avec un recours fréquent à de strictes clauses de confidentialité leur permettant d’échapper à tout examen public (des usagers, de la société civile, des régulateurs) et de maintenir des salaires bas. C’est aussi pour ne pas avoir à reconnaître combien ces réseaux sociaux peuvent être des canaux de diffusion pour du contenu répugnant, outrageant, choquant, bien loin de l’image qu’ils cherchent à cultiver auprès du grand public et surtout des annonceurs. « Ouvrez un trou sur Internet, il se remplira immédiatement de merde », souligne l’un de mes interlocuteurs dans le livre. Qui voudrait y être associé  ? Enfin, reconnaître l’existence d’un « intermédiaire », c’est mettre à mal le mythe fondateur d’Internet comme espace d’une expression démocratique libre et sans entrave. Pour responsabiliser ces acteurs, et ouvrir un débat sur les garde-fous à mettre en place, je crois à la pression du nombre. Journalistes, militants de la société civile, modérateurs en personne, universitaires comme moi… Nous sommes déjà quelques-uns à mettre ces métiers, ce travail, sur la place publique, à exposer les conditions de travail, et il faut absolument poursuivre dans cette voie.

    #RéseauxSociaux #Algorithme #Modération #GAFAM

    • Enfin, reconnaître l’existence d’un « intermédiaire », c’est mettre à mal le mythe fondateur d’Internet comme espace d’une expression démocratique libre et sans entrave.

      Difficulté ici : dans le « mythe fondateur d’internet », il n’a justement jamais été souhaité, voire même imaginé, que l’on centralise la quasi intégralité de l’expression publique (et notamment politique et militante) en un seul et unique endroit. Je pense même que, dans ce « mythe fondateur », si on avait décrit un tel endroit, évidemment il aurait été immédiatement évident qu’un tel endroit concentrerait également à la fois toute la merde et toute la censure possibles (parce que de manière assez extrême, on aurait re-décrit l’hyperconcentration de la télévision).

  • Kenya’s Threat to Ban Facebook Could Backfire | WIRED
    https://www.wired.com/story/kenya-facebook-elections-hate-speech-ban

    Que Facebook ait du mal à filtrer les messages de haine produits par des particuliers, on peut le comprendre (même si cela remet en cause ce que l’on peut penser des médias sociaux). Mais que Facebook n’arrive pas à filtrer les publicités incitant à la haine... L’argent n’a pas d’odeur, mais celle de Facebook pue profondément.

    In July, Meta touted its efforts to clamp down on hate speech on Facebook ahead of Kenya’s August 9 election. It spoke too soon. The company continued to permit ads encouraging ethnic violence in the country, according to a new report—and now Meta’s platforms face a possible suspension.

    In the report, researchers from the activist group Global Witness and the British law firm Foxglove Legal attempted to buy ads that included hate speech and calls for violence, including genocide, in both Swahili and English. Meta’s ad systems eventually approved all of them.

    “It is very clear that Facebook is in violation of the laws of our country,” Danvas Makori, the commissioner of Kenya’s National Cohesion and Integration Commission (NCIC), said in a press conference following the publication of the Global Witness report. “They have allowed themselves to be a vector of hate speech and incitement, misinformation, and disinformation.” The NCIC said Meta would have a week to comply with the country’s hate speech regulations, or be suspended. (The NCIC and the Communications Authority did not respond to requests for comment by the time of publication).

    But shutting down the platform, or even the mere threat of doing so, could have long-term consequences, says Odanga Madung, a Kenyan journalist and Mozilla fellow who has researched disinformation and hate speech on social platforms. “We have been saying for years that if the platforms do not clean up their act, their models of doing business won’t be sustainable,” says Madung. Leaving up hate speech and other content that may violate local laws provides governments an easy justification to ban social platforms altogether. “In authoritarian governments, or governments with authoritarian streaks, they are looking for convenient reasons to get rid of platforms.”

    Kenya formed the NCIC in 2008 to ensure peaceful elections, after the results of the country’s 2007 presidential elections led to widespread violence and the displacement of some 600,000 people. Earlier this year, the commission warned that hate speech on social platforms had increased 20 percent in 2022, citing the “misuse of social media platforms to perpetuate ethnic hate speech and incitement to violence.” Experts have warned that this year’s elections are also at risk of becoming violent.

    In June, Global Witness and Foxglove found that Meta continued to approve ads in Amharic targeting Ethiopian users that included hate speech and calls for violence. Facebook has been implicated in spreading hate speech and stoking ethnic violence in Ethiopia’s ongoing conflict.

    Crider argues that Facebook needs to invest more in its moderation practices and protections for democracy. She worries that even the threat of a ban allows the company to deflect accountability for the problems it has left unaddressed.

    “What the researchers did was stress-test Facebook’s systems and proved that what the company was saying was hogwash,” says Madung. The fact that Meta allowed ads on the platform despite a review process “raises questions about their ability to handle other forms of hate speech,” says Madung, including the vast amount of user-generated content that does not require preapproval.

    #Facebook #Modération #Publicité

  • Safer Together: Making Twitch Safer with Shared Ban Info
    https://safety.twitch.tv/s/article/Safer-Together-Making-Twitch-Safer-with-Shared-Ban-Info?language=en_US

    Today, we’re expanding on that work to help flag another type of potentially malicious user, with Shared Ban Info. Shared Ban Info builds on the Suspicious User Controls system and provides a simple way for you to share information about who you’ve banned in your channel with other streamers so you can collaborate to help keep serial harassers out of your communities.

    #jeu_vidéo #jeux_vidéo #réseau_social #réseaux_sociaux #twitch #modération #bannissement #censure #partage #sécurité #collaboration

  • Riot Games commencera à enregistrer les discussions vocales à compter du 13 juillet
    https://www.nextinpact.com/lebrief/69543/riot-games-commencera-a-enregistrer-discussions-vocales-a-compter-13-jui

    À terme, les algorithmes doivent permettre de retrouver les auteurs d’insultes et autres comportements jugés intolérables, mais uniquement sur la base de signalements d’autres joueurs.

    VALORANT Voice Evaluation Update
    https://playvalorant.com/en-us/news/announcements/valorant-voice-evaluation-update

    On July 13 we will begin a background launch of the voice evaluation system in North America/English-only to help train our language models and get the tech in a good enough place for a beta launch later this year.

    Voice evaluation during this period will not be used for disruptive behavior reports. That will only begin with the future beta. And we know that before we can even think of expanding this tool, we’ll have to be confident it’s effective, and if mistakes happen, we have systems in place to make sure we can correct any false positives (or negatives for that matter).

    Riot Games se prépare à enregistrer les dialogues audio des joueurs de League of Legends et de Valorant pour modérer, a posteriori, les propos déplacés.

    #jeu_vidéo #jeux_vidéo #censure #modération #riot_games #jeu_vidéo_lol #jeu_vidéo_league_of_legends #jeu_vidéo_valorant #enregistrement_vocal #audio

  • Avec le métavers, une nouvelle étape dans la difficile lutte contre les agressions sexuelles sur Internet
    https://www.lemonde.fr/pixels/article/2022/06/14/avec-le-metavers-une-nouvelle-etape-dans-la-difficile-lutte-contre-les-agres

    Des cas d’agression sexuelle dans les mondes en réalité virtuelle soulèvent la question de la modération des métavers. Si certains existent depuis longtemps, notamment dans les jeux vidéo, ils n’ont pas pour autant de solution simple.

    Par Lucie Ronfaut

    Elle a également relancé une crainte : celle des agressions, notamment sexuelles, en réalité virtuelle. Andrew Bosworth, directeur technique de Meta, reconnaît lui-même que le harcèlement dans un métavers est « une menace existentielle » pour les ambitions de son entreprise, d’après un mémo confidentiel révélé en novembre par le Financial Times. Il a aussi admis qu’une modération à grande échelle était « pratiquement impossible ».

    « Le choc est le même que dans la vraie vie »

    Ces questions ne sont, pourtant, pas neuves. Les exemples d’agression sexuelle dans des mondes immersifs, qu’il s’agisse ou non d’expériences en réalité virtuelle, sont nombreux. En 2016, une utilisatrice du jeu de tir QuiVR racontait dans un post de blog avoir subi des attouchements à la poitrine par un autre joueur. Et dès 1993, un article du journaliste américain Julian Dibbel, « A Rape in Cyberspace » (« Un viol dans le cyberespace »), décrivait comment un membre d’un « MOO » (Multi-user dimension Object Oriented), une communauté en ligne reposant sur des échanges textuels, avait forcé d’autres joueurs et joueuses à des simulations d’actes sexuels.

    Plus largement, d’après une récente étude de l’institut Ipsos, 41 % des Français (et 81 % des 18-24 ans) ont déjà été victimes de violence en ligne. « En un sens, le harcèlement dans les métavers est motivé par les mêmes facteurs que celui qu’on constate sur d’autres plates-formes : on se sent déconnecté des conséquences de nos actions, explique Katherine Cross, chercheuse américaine en sciences de l’information à l’université de Washington, spécialisée dans le harcèlement en ligne. Mais il existe une différence fondamentale, qui peut rendre cette expérience bien pire : la réalité virtuelle est conçue pour nous faire croire que ce que nous vivons est vrai. »

    Et, au contrôle du contenu produit par les internautes (textes ou images, comme sur un réseau social classique), s’ajoute celui des discussions tenues à l’oral et des comportements physiques. « Dans un métavers, la toxicité prend plein de formes différentes. Il y a le sujet de la voix. Comment repérer une insulte ? Ou si une personne très jeune discute avec d’autres plus âgées ? », détaille Charles Cohen, PDG de Bodyguard, entreprise française spécialisée dans les outils automatiques de modération pour les particuliers et les entreprises. « Et puis, il y a les gestes. Si un avatar en suit un autre, est-ce par jeu, ou s’agit-il de harcèlement ? »

    A défaut de pouvoir contrôler ce genre d’attitudes en direct, la plupart des plates-formes proposent une panoplie d’outils pour améliorer l’expérience des internautes : activer une frontière invisible autour de son corps virtuel, moduler la tessiture de sa voix (si une femme veut se faire passer pour un homme), réduire les autres avatars à des petites boules flottantes… On peut aussi signaler les actions problématiques, comme sur un réseau social, mais encore faut-il avoir enregistré une vidéo à apporter comme preuve.

    L’autre sujet crucial est celui du design. Comment construit-on un univers virtuel qui empêcherait les abus en amont ? Des métavers proposent des avatars sans jambes (évitant ainsi des postures sexuelles), proscrivent certains gestes avec les mains virtuelles (sur la version de base de VRChat, on peut lever son pouce en l’air, mais pas son majeur), prévoient des zones où un avatar devient aussitôt invisible aux yeux des autres, que ce soit pour se protéger ou faire une pause.

    Beaucoup de mondes virtuels choisissent aussi de rappeler leurs règles de manière peu subtile, au travers de posters ou d’avertissements qui s’affichent pendant les temps de chargement. Comme si, en marchant dans la rue, des panneaux nous rappelaient sans cesse qu’il est interdit de gifler autrui.

    La modération est, depuis longtemps, une épine dans le pied des grandes entreprises du Web, accusées de ne pas assez investir pour la sécurité des internautes, et d’avoir conçu des plates-formes impossibles à contrôler. Les métavers, parfois décrits comme notre futur en ligne, pourraient-ils être l’occasion de faire les choses correctement, dès le commencement ? Ou, au contraire, est-on déjà en train de reproduire les erreurs du passé ? « La modération est souvent utilisée comme un pansement pour régler les problèmes structurels des plates-formes, regrette Katherine Cross. On doit construire des métavers qui prennent en compte les abus potentiels dès la première ligne de code. Mais, pour des grosses entreprises comme Meta, malheureusement, la modération restera probablement un sujet auquel on réfléchira après coup. Comme cela a toujours été. »

    #Metavers #Agressions_sexuelles #Modération

  • Algospeak : les influenceurs, bilingues en censure automatisée - Par Thibault Prévost | Arrêt sur images
    https://www.arretsurimages.net/chroniques/clic-gauche/algospeak-les-influenceurs-bilingues-en-censure-automatisee
    https://api.arretsurimages.net/api/public/media/screenshot-2022-05-07-at-04-38-40-creez-des-collages-de-photos-en-ligne/action/show?format=thumbnail&t=2022-05-07T04:39:41+02:00

    Pour échapper aux robots-censeurs, les utilisateurs de TikTok et d’Instagram ont développé leur propre dialecte : l’algospeak. Une nouvelle preuve que, sur internet, même le langage a été privatisé.

    Sur TikTok, personne ne vous entendra parler de sexe, de santé mentale, d’automutilation, de suicide, d’addictions, de viol, d’avortement, de guerre, de violence et, globalement, de tout ce qui est considéré par vos invisibles maîtres algorithmiques comme des sujets « sensibles ». Sur Instagram, même combat. Sur YouTube, pareil. Si vous essayez, ne serait-ce qu’un peu, de mettre ces sujets en avant, dans le titre, le résumé ou le référencement – via les hashtags – de votre vidéo, la sanction tombe : suppression sans préavis, avec le risque que votre chaîne toute entière subisse le même sort pour outrage aux toutes-puissantes Conditions générales d’utilisation (CGU) de la plateforme en question. Ici-bas, code is law, le code fait loi, c’est comme ça et pis c’est tout – et d’ailleurs, de plus en plus souvent, sur les questions de modération, law is code. On ne négocie pas avec un logiciel de modération automatique. Mais de l’autre côté, au bout du clavier, des êtres humains ont des choses à dire sur ces sujets interdits. Alors, comment on fait ? On camoufle la langue, se marrent les créateurs et créatrices de contenu, qui ont apparemment tous pris la LV2 option algorithmes.

    #TikTok #RéseauxSociaux #Langage #Algorithme #Modération #Instagram

  • Will Substack Go Beyond Newsletters? A Company Weighs Its Future. - The New York Times
    https://www.nytimes.com/2022/04/13/business/media/substack-growth-newsletters.html?algo=combo_lda_channelsize5_unique_edimp_f

    Not long ago, Substack haunted mainstream media executives, poaching their star writers, luring their readers and, they feared, threatening their viability. Flush with venture money, the start-up was said to be “the media future.”

    But now, Substack finds itself no longer a wunderkind but a company facing a host of challenges. Depending on whom you talk to, those challenges are either standard start-up growing pains or threats to the company’s future.

    Tech giants, news outlets and other companies have released competing newsletter platforms in the past year. Consumers who loaded up on newsletters during the pandemic began to scale back. And many popular writers left, such as the associate English professor Grace Lavery and the climate journalists Mary Annaïse Heglar and Amy Westervelt, often complaining about the company’s moderation policy or the pressure to constantly deliver.

    “Substack is at a pivot point where it needs to think about what it’s going to be when it grows up,” said Nikki Usher, an associate journalism professor at the University of Illinois Urbana-Champaign.

    The good news for the company, five years old this summer, is that it is still growing. Paid subscriptions to its hundreds of thousands of newsletters exploded to more than one million late last year from 50,000 in mid-2019. (The company won’t disclose the number of free subscribers.) A hiring spree hopes to net more than a dozen engineers, product managers and other specialists. Executives hope to eventually take the company — which has raised more than $82 million and is said to be valued at $650 million — public.

    But to maintain that growth, Substack executives say, the company must offer more than newsletters.

    In practice, that means Substack will be not just a delivery channel for written newsletters but more of a multimedia community. Executives want users to create “personal media empires” using text, video and audio, and communicate with subscribers through expanded comments that could feature GIF images and profiles for readers. This week, Substack announced new tools for writers to recommend other newsletters.

    But as Substack evolves beyond newsletters, it risks looking like another social network or news publisher — which could make it less appealing for writers.

    Ben Thompson, whose tech-focused Stratechery newsletter inspired Substack, wrote last month that Substack has gone from being a “Faceless Publisher” behind the scenes to trying to put “the Substack brand front-and-center,” building up its app as a destination on the backs of writers.

    “This is a way for Substack to draft off of their popularity to build an alternative revenue model that entails readers paying for Substack first, and publishers second, instead of the other way around,” Mr. Thompson wrote.

    Publishing on Substack is free, but writers who charge for subscriptions pay 10 percent of their revenue to Substack and 3 percent to its payment processor, Stripe. The company also offers hefty advances to a small group of writers, whose identities it refuses to divulge.

    Substack has one key difference from most other media companies: It refuses to chase advertising dollars. “Over my dead body,” Mr. McKenzie once wrote. “The antithesis of what Substack wants to be,” Mr. Best said.

    But Substack’s biggest conflict has been over content moderation.

    Mr. McKenzie, a former journalist, describes Substack as an antidote to the attention economy, a “nicer place” where writers are “rewarded for different things, not throwing tomatoes at their opponents.”

    Critics say the platform recruits (and therefore endorses) culture war provocateurs and is a hotbed for hate speech and misinformation. Last year, many writers abandoned Substack over its inaction on transphobic content. This year, The Center for Countering Digital Hate said anti-vaccine newsletters on Substack generate at least $2.5 million in annual revenue. The technology writer Charlie Warzel, who left a job at The New York Times to write a Substack newsletter, described the platform as a place for “internecine internet beefs.”

    Substack has resisted pressure to be more selective about what it allows on its platform. Employees of Twitter who worried that its content moderation policies would be relaxed by Elon Musk, the world’s richest man and the platform’s largest shareholder, were told to not bother applying for jobs at Substack.

    “We don’t aspire to be the arbiter of saying, ‘Eat your vegetables,’” Mr. Best said. “If we agree with or like everything on Substack, that would be falling short of what a healthy intellectual climate looks like.”

    Substack makes it easy for writers to break away, and defectors have a fast-growing collection of competitors waiting to welcome them.

    #Edition #Substack #Newsletter #Modération

  • Twitter déploie son énième tentative pour juguler les rageux
    https://www.numerama.com/tech/736353-twitter-deploie-son-enieme-tentative-pour-juguler-les-rageux.html

    Twitter va progressivement déployer une nouvelle option sur le réseau social qui permet de bloquer automatiquement des comptes, en cas de comportement inapproprié. Cette initiative s’ajoute à la longue liste des actions lancées par la plateforme pour en finir avec certains contenus ou propos offensants.

    #twitter #moderation

  • Facebook’s Secret Rules on Word “Zionist” Impede Criticism of Israel
    https://theintercept.com/2021/05/14/facebook-israel-zionist-moderation

    Obtained by The Intercept, the policies alarmed advocates, who said Facebook is silencing political speech. Facebook’s secret internal rules for moderating the term “Zionist” let the social network suppress criticism of Israel amid an ongoing wave of Israeli abuses and violence, according to people who reviewed the policies. The rules appear to have been in place since 2019, seeming to contradict a claim by the company in March that no decision had been made on whether to treat the term (...)

    #Facebook #antisémitisme #censure #modération

  • Comment Facebook laisse des dirigeants tromper leur population
    https://www.courrierinternational.com/article/revelations-comment-facebook-laisse-des-dirigeants-tromper-le

    Un utilisateur de Facebook ne peut avoir qu’un seul compte. Mais il peut créer plusieurs pages capables de liker, commenter, partager d’autres comptes, et ainsi créer du “faux engagement”. Cette faille dans la réglementation de Facebook contribue à de vastes opérations de manipulation, révèle une enquête du quotidien britannique The Guardian. Facebook a, à plusieurs reprises, laissé des dirigeants et des personnalités politiques tromper la population ou harceler des opposants sur sa plateforme, bien que (...)

    #Facebook #manipulation #modération

  • Facebook’s A.I. Whiz Now Faces the Task of Cleaning It Up. Sometimes That Brings Him to Tears.
    https://www.nytimes.com/2019/05/17/technology/facebook-ai-schroepfer.html

    Facebook has heralded artificial intelligence as a solution to its toxic content problems. Mike Schroepfer, its chief technology officer, says it won’t solve everything. MENLO PARK, Calif. — Mike Schroepfer, Facebook’s chief technology officer, was tearing up. For half an hour, we had been sitting in a conference room at Facebook’s headquarters, surrounded by whiteboards covered in blue and red marker, discussing the technical difficulties of removing toxic content from the social network. (...)

    #algorithme #manipulation #modération #addiction

  • Modération en ligne : des ONG appellent le Parlement européen à rejeter le règlement contre les contenus terroristes
    https://www.lemonde.fr/pixels/article/2021/03/25/moderation-en-ligne-des-ong-appellent-le-parlement-europeen-a-rejeter-le-reg

    Une soixantaine d’organisations de défense des droits de l’homme estiment que le texte, qui doit être débattu le mois prochain, menace la liberté d’expression, la liberté d’information, le droit à la vie privée et l’Etat de droit. Une soixantaine d’organisations non gouvernementales (ONG) de défense des droits de l’homme, dont Human Rights Watch, Reporters sans frontières et Amnesty International, ont exhorté, jeudi 25 mars dans une lettre ouverte, les eurodéputés à rejeter le projet de règlement européen (...)

    #algorithme #censure #manipulation #législation #modération #AmnestyInternational #HumanRightsWatch (...)

    ##RSF