• YouTube says Nope! to age-gating Balatro videos | The Verge
    https://www.theverge.com/news/645257/youtube-balatro-univeristy-videos-age-gated-localthunk

    “Videos featuring Balatro gameplay should not be age-restricted,” YouTube says in a post on X. We’re reviewing the age-restrictions on these videos and conducting a platform-wide review. Thanks for your patience as we fix!”

    #jeu_vidéo #jeux_vidéo #jeu_vidéo_balatro #youtube #pegi #modération

  • (Meta drops rules protecting L.G.B.T.Q. community as part of content moderation overhaul.
    1) Meta to End Fact-Checking on Facebook, Instagram Ahead of Trump Term: Live Updates - The New York Times
    https://www.nytimes.com/live/2025/01/07/business/meta-fact-checking#meta-fact-checking-facebook

    Kate Conger
    Jan. 7, 2025, 4:09 p.m. ET12 minutes ago

    Kate CongerReporting on the X Platform
    Meta drops rules protecting L.G.B.T.Q. community as part of content moderation overhaul.
    Image
    The Meta headquarters in Menlo Park, Calif., on Tuesday.Credit...Jason Henry for The New York Times

    For years, social media companies made it a top priority to combat hate speech. But in recent months, they have waffled over how to tackle hateful online commentary, particularly when it is directed at L.G.B.T.Q. communities.

    Meta on Tuesday said it would drop some of its rules protecting L.G.B.T.Q. people. The changes included allowing users to share “allegations of mental illness or abnormality when based on gender or sexual orientation, given political and religious discourse about transgenderism and homosexuality.”

    The social media company, which owns Facebook and Instagram, will “get rid of a bunch of restrictions on topics like immigration and gender that are just out of touch with mainstream discourse,” Mark Zuckerberg, chief executive of Meta, said in a video.

    The change comes amid broad political debate over transgender rights. At least 26 states have restricted gender-affirming care for minors, according to a tally by The New York Times. Tech companies have also faced years of criticism from conservatives, accusing the platforms of promoting liberal voices and stifling dissent.

    The changes to Meta’s content policy follow similar ones at X, which recently rolled back rules against hate speech targeting transgender people and made the use of “cisgender” — a word used to describe people who identify with the gender they were assigned at birth — a slur.

    Meta will refocus its content moderation efforts on “illegal and high-severity violations,” its new global policy chief, Joel Kaplan, said in a blog post.

    “It’s not right that things can be said on TV or the floor of Congress, but not on our platforms,” Mr. Kaplan added.

    Cecilia Kang contributed reporting.
    Danielle Kaye
    Jan. 7, 2025, 3:38 p.m. ET43 minutes ago

    Danielle Kaye
    Tech watchdogs warn Meta’s decision could cause a surge in disinformation.
    Image
    President-elect Donald Trump walks through an ornate room at his Mar-a-Lago Club on Tuesday.
    President-elect Donald J. Trump at his Mar-a-Lago Club in Palm Beach, Fla., on Tuesday.Credit...Doug Mills/The New York Times

    While Republicans largely cheered Meta’s announcement on Tuesday that it would effectively end its fact-checking program, several tech watchdog groups condemned the decision, warning of the potential for a surge in disinformation.

    Nicole Gill, executive director of Accountable Tech, said in a statement that the decision was “a gift to Donald Trump and extremists around the world.” Meta, she cautioned, was inviting “the exact same surge of hate, disinformation and conspiracy theories” that fueled the Jan. 6 attack on the Capitol.

    Nora Benavidez, senior counsel at the advocacy group Free Press, said in a statement that Mark Zuckerberg, Meta’s chief executive, was “saying yes to more lies, yes to more harassment, yes to more hate.”

    “While Zuckerberg characterized the platform giant’s new approach as a defense of free speech, its real intentions are twofold: Ditch the technology company’s responsibility to protect the health and safety of its users, and align the company more closely with an incoming president who’s a known enemy of accountability,” Ms. Benavidez said.

    Valerie Wirtschafter, a fellow at the Brookings Institution, said that Meta should have continued to build on its fact-checking resources, adding crowdsourced content to existing practices. As they stand, Meta’s changes are “likely to make the information environment worse,” she said.

    But Meta’s announcement was greeted with open arms by President-elect Donald J. Trump, who has long claimed that the feature unfairly treated posts by conservative users.

    In an unrelated news conference at Mar-a-Lago on Tuesday, Mr. Trump said that Meta had “come a long way,” conceding that the change was “probably” in response to threats that he has made against the company and Mr. Zuckerberg. A chorus of Republican lawmakers, who have echoed Mr. Trump’s claims about censorship of conservative viewpoints, chimed in to praise the move.

    Senator Rand Paul of Kentucky called it “a huge win for free speech” in a post on X. Representative Jim Jordan of Ohio called Meta’s decision “a huge step in the right direction.”

    At least one Republican lawmaker voiced skepticism of Meta’s decision. Senator Marsha Blackburn of Tennessee said in a post on X that Meta’s change was “a ploy to avoid being regulated,” though she, too, repeated the claim that Meta has censored conservatives.

    #Meta #Moderation #Désinformation

  • (1) Meta to End Fact-Checking on Facebook, Instagram Ahead of Trump Term: Live Updates - The New York Times
    https://www.nytimes.com/live/2025/01/07/business/meta-fact-checking#meta-fact-checking-facebook

    The social networking giant will stop using third-party fact-checkers on Facebook, Threads and Instagram and instead rely on users to add notes to posts. It is likely to please President-elect Trump and his allies.

    ImageThe word Meta and its logo displayed on a white sign.
    Since the election, Meta has moved swiftly to try to repair its relationships with conservatives.Credit...Jason Henry for The New York Times
    Pinned
    Theodore Schleifer
    Mike Isaac

    Theodore Schleifer and Mike Isaac
    Zuckerberg conceded there would be more ‘bad stuff’ on his sites. Here’s the latest.

    Meta on Tuesday announced changes to its content moderation practices that would effectively end a fact-checking program instituted to curtail the spread of misinformation across its social media apps. Instead of using news organizations and other third-party groups, Meta, which owns Facebook, Instagram and Threads, will rely on users to add notes to posts that may contain false or misleading information.

    The reversal of the years-old policy is a stark sign of how the company is repositioning itself for the Trump presidency in the weeks before it begins. Meta described the changes with the language of a mea culpa: Joel Kaplan, Meta’s newly installed global policy chief, said in a statement that the company wanted to “undo the mission creep that has made our rules too restrictive and too prone to over-enforcement.”

    Meta’s chief executive, Mark Zuckerberg, said in a video that the new protocol, which will begin in the United States in the coming months, is similar to the one used by X, called Community Notes.

    “It’s time to get back to our roots around free expression,” Mr. Zuckerberg said. The company’s current fact-checking system, he added, had “reached a point where it’s just too many mistakes and too much censorship.”

    Here’s what to know:

    A trade-off: Mr. Zuckerberg conceded that there would be more “bad stuff” on the platform as a result of the decision. “The reality is that this is a trade-off,” he said. “It means that we’re going to catch less bad stuff, but we’ll also reduce the number of innocent people’s posts and accounts that we accidentally take down.”

    Advance notice: Meta executives recently gave a heads-up to Trump officials about the change in policy, according to a person with knowledge of the conversations who spoke on condition of anonymity. The fact-checking announcement coincided with an appearance by Joel Kaplan, Meta’s newly installed global policy chief, on “Fox & Friends,” a favorite show of President-elect Donald J. Trump. Mr. Kaplan told the hosts of the morning show popular with conservatives that there was “too much political bias” in the fact-checking program.

    Currying favor: Ever since Mr. Trump’s victory in November, few big companies have worked as overtly to curry favor with the president-elect. In a series of announcements during the presidential transition period, Meta has sharply shifted its strategy in response to what Mr. Zuckerberg called a “cultural tipping point” marked by the election.

    Inspired by X: Mr. Zuckerberg seems to be taking a page from Mr. Trump’s favorite tech mogul, Elon Musk. Mr. Musk has relied on Community Notes to flag misleading posts on X. Since taking over the social network, Mr. Musk, a major Trump donor, has increasingly positioned X as the platform behind the new Trump presidency.

    Conservatives cheer: Meta’s move on Tuesday morning elated conservative allies of Mr. Trump, many of whom have disliked Meta’s practice of adding disclaimers or warnings to questionable or false posts. Mr. Trump has long railed against Mr. Zuckerberg, claiming the fact-checking feature treated posts by conservative users unfairly.

    Eased restrictions: Among the changes announced on Tuesday are the removal of restrictions on topics like immigration and gender identity that Mr. Zuckerberg said were “out of touch with mainstream discourse.” The company’s trust and safety and content moderation teams will be moved away from California, with the U.S. content review shifting to Texas, in a move that would “help remove the concern that biased employees are overly censoring content,” Mr. Zuckerberg added.

    –------

    Mark Zuckerberg’s history of moving Meta toward where the political wind blows.
    Image
    Mark Zuckerberg in 2019.Credit...Jessica Chou for The New York Times

    In 2016, Mark Zuckerberg announced that he was instituting a fact-checking program across Facebook and Instagram after being accused of disseminating misinformation. Eight years later, Mr. Zuckerberg has done an about-face, ending the program and characterizing it as a gross overcorrection.

    It may seem like whiplash. But it is far from the first time that Meta’s chief executive has shifted his stance based on where the political winds are blowing.

    In January 2021, Mr. Zuckerberg banned Mr. Trump from posting on Meta’s apps two days after the Jan. 6 riot at the U.S. Capitol. At the time, Mr. Zuckerberg said the “risks” of allowing Mr. Trump — who had urged his followers to take action after losing to the Democratic challenger, Joseph R. Biden, in the presidential election — to continue posting to Facebook and Instagram were “simply too great.”

    Less than four years later, Meta rolled back those restrictions and reinstated Mr. Trump, saying it was important for the American public to hear from both Mr. Biden and Mr. Trump in the run-up to the 2024 election. Meta also said that the restrictions on Mr. Trump’s account in 2016 were a result of “extraordinary circumstances.”

    Mr. Zuckerberg has flip-flopped on political content as well. Last year, Meta trotted out its top executives to defend a policy of downplaying speech on political or social issues across its apps. At the time, Mr. Zuckerberg and his allies didn’t want to see such content online, instead opting to have more fun or personal connections on social media.

    But on Tuesday, Mr. Zuckerberg announced an abrupt end to that policy as well. He said people actually do want political speech across Meta’s apps, and that censoring some of those topics was “out of touch with mainstream discourse.”

    Mr. Zuckerberg maintained that his position was consistent with past beliefs he professed in public, including a speech at Georgetown University in 2019 in which he defended the company’s policy of not wanting his social network to be “an arbiter of speech.”

    While Mr. Zuckerberg may believe in that principle, he has shifted the ways Meta’s policy teams have applied it over the course of the Biden and Trump administrations. Under President Biden, Mr. Zuckerberg was more willing to take down certain forms of content specifically around Covid-19, a move he said he later regretted making.

    On Tuesday, Mr. Zuckerberg said Meta was looking forward to “going back to its roots” on free speech, and that working with the Trump administration would help them to do that more effectively.

    At least until the next president takes office in 2028.

    –---------

    Meta says fact-checkers were the problem. Fact-checkers rule that false.
    Image
    Mark Zuckerberg, dressed in a black T-shirt, at San Francisco’s Chase Center last year.
    Mark Zuckerberg, Meta’s chief executive, in San Francisco last year.Credit...Mike Kai Chen for The New York Times

    Mark Zuckerberg, Meta’s chief executive, blamed the company’s fact-checking partners for some of Facebook’s moderation issues, saying in a video that “fact-checkers have been too politically biased” and have “destroyed more trust than they created.”

    Fact-checking groups that worked with Meta have taken issue with that characterization, saying they had no role in deciding what the company did with the content that was fact-checked.

    “I don’t believe we were doing anything, in any form, with bias,” said Neil Brown, the president of the Poynter Institute, a global nonprofit that runs PolitiFact, one of Meta’s fact-checking partners. “There’s a mountain of what could be checked, and we were grabbing what we could.”

    Mr. Brown said the group used Meta’s tools to submit fact-checks and followed Meta’s rules that prevented the group from fact-checking politicians. Meta ultimately decided how to respond to the fact-checks, adding warning labels, limiting the reach of some content or even removing the posts.

    “We did not, and could not, remove content,” wrote Lori Robertson, the managing editor of FactCheck.org, which has partnered with Meta since 2016, in a blog post. “Any decisions to do that were Meta’s.”

    Meta is shifting instead to a program it’s calling Community Notes, which will see it rely on its own users to write fact-checks instead of third-party organizations. Researchers have found the program can be effective when paired with other moderation strategies.
    Danielle Kaye
    Jan. 7, 2025, 2:09 p.m. ET2 hours ago

    Danielle Kaye

    Several digital rights groups are condemning Meta’s reversal of its fact-checking program. Nicole Gill, executive director of Accountable Tech, said in a statement that the decision is “a gift to Donald Trump and extremists around the world.” Nora Benavidez, senior counsel at advocacy group Free Press, said in a statement that Zuckerberg is “saying yes to more lies, yes to more harassment, yes to more hate.”
    Kate Conger
    Jan. 7, 2025, 2:08 p.m. ET2 hours ago

    Kate CongerReporting on the X Platform
    The Community Notes program from X requires consensus from users with varying perspectives before a fact-check is published. But researchers have found that, as Americans become increasingly polarized, few fact-checks see the light of day. According to Mediawise, a media literacy program at the Poynter Institute, less than 10 percent of Community Notes drafted by X users end up getting published on the platform.

    –---------

    Meta’s content moderation changes are taking effect amid U.S. regulatory scrutiny.


    Lina Khan, chair of the Federal Trade Commission, sits in a chair as she testifies before a House Judiciary Committee hearing in 2023 in Washington.
    Lina Khan, the chair of the Federal Trade Commission, in Washington in 2023.Credit...Tom Brenner for The New York Times

    Meta is changing the way it moderates content on its site amid heightened U.S. regulatory scrutiny.

    The Federal Trade Commission has sued Meta, accusing the company of breaking antitrust laws when it acquired both Instagram and WhatsApp. That trial is slated to start in April. Meta also faces suits by dozens of state attorneys general over child safety and privacy violations.

    Republicans have also harshly criticized Meta’s policies on removing content they say amounts to censorship of conservative voices and have held hearings on Capitol Hill grilling Mark Zuckerberg and other executives. And in recent weeks, President-elect Donald J. Trump has selected new leaders of the F.T.C. and Federal Communications Commission who have vowed to crack down on the power of the biggest tech companies and to punish them for stifling speech.

    Since Mr. Trump’s election, Mr. Zuckerberg has made several overt attempts to win over the incoming administration, meeting with the president-elect, publicly congratulated his victory and donating $1 million to his inauguration.

    But some Republicans shared skeptical reactions to Meta’s decision to delegate fact-checking posts to its users.

    “Now that President Trump is about to take office, Meta has allegedly decided to stop censoring conservatives,” Rep. Marsha Blackburn, R-Tenn., posted on X. “This is a ploy to avoid being regulated. We will not be fooled.”

    Mr. Trump during a news conference on Tuesday said he was impressed by the decision but conceded that the change was “probably” because of threats he’s made against the company and Zuckerberg.

    The F.T.C. didn’t immediately respond to a request for comment. Meta declined to comment.

    Meta has been caught up in a larger effort by U.S. regulators to crack down on the power of the biggest tech companies in the internet era. The F.T.C. and the Department of Justice have also sued Apple, Google and Amazon over monopolistic practices.

    The April trial against Meta will help determine the company’s fate as the world’s biggest social media juggernaut.

    The lawsuit was originally filed during the Trump administration, although it’s unclear how much support Andrew Ferguson, Mr. Trump’s pick to lead the F.T.C., might lend to its continuing prosecution. The F.T.C. under Democratic chair Lina Khan, brought a revised version of its lawsuit against Meta in January 2022.

    The F.T.C. has said the company’s purchases of Instagram in 2012 for $1 billion and WhatsApp in 2014 for nearly $19 billion were intended to destroy competition and create a social media monopoly. In the suit, the F.T.C. said the company abused its monopoly position through a “buy or bury” acquisition strategy.

    Judge James Boasberg of U.S. District Court of the District of Columbia said the case will likely last about eight weeks but could go longer. Mr. Zuckerberg is expected to be among witnesses to appear during the trial.

    The F.T.C.’s case against Meta may be harder to win than other cases of tech monopolization, legal experts say. It focuses on acquisitions that are more than a decade old and are hard to review in retrospect for antitrust violations. The F.T.C. also allowed the mergers to proceed when the deals were first announced.
    Theodore Schleifer
    Jan. 7, 2025, 12:46 p.m. ET3 hours ago

    Theodore Schleifer

    Trump was asked about Meta’s announcement at an unrelated news conference he was hosting at Mar-a-Lago. Trump said he watched Joel Kaplan’s interview on Fox and found it “impressive,” adding that the company had “come a long way.” A beat later, though, Trump conceded that the change was “probably” due to threats that he has made against the company and its leader, Mark Zuckerberg.
    Image
    Credit...Doug Mills/The New York Times
    Danielle Kaye
    Jan. 7, 2025, 12:33 p.m. ET4 hours ago

    Danielle Kaye
    President-elect Donald J. Trump, reacting to Meta’s fact-checking decision, told Fox News that the company has “come a long way.” And while some Republican lawmakers, including Senator Rand Paul of Kentucky, have praised the move, a least one has been skeptical. Senator Marsha Blackburn, a Republican from Tennessee, said in a post on X that Meta’s change was “a ploy to avoid being regulated.”

    –--------

    David McCabe
    Jan. 7, 2025, 12:17 p.m. ET4 hours ago

    David McCabe
    Meta joins tech companies flocking to Texas.
    Image
    The skyline of Austin, Texas, in 2022. Meta has had a presence in the city for years and also has a data center in Fort Worth, Texas.Credit...Miranda Barnes for The New York Times

    Meta is joining Elon Musk’s X in moving some operations to Texas.

    Going forward, the social media company will run its U.S. content review operations out of the Lone Star State, its chief executive, Mark Zuckerberg, said on Tuesday. He also said that Meta will move its teams that focus on trust and safety and content moderation out of California, where the company is based.

    The move “will help us build trust to do this work in places where there’s less concern about the bias of our teams,” Mr. Zuckerberg said.

    The move echoes Elon Musk’s decision last year to move the headquarters of X, his social media platform, from California to Texas and close its main San Francisco office. At the time, Mr. Musk blamed a California law that barred school districts from requiring teachers to notify parents if their children change their gender identification.

    Meta, which is headquartered in Silicon Valley’s Menlo Park, has faced years of criticism from Republicans over a perceived liberal work force and claims of censoring conservative voices. Picks to lead major regulatory agencies in the new Trump administration have vowed to go after social media companies.

    Meta has had a presence for years in Austin, Texas, one of the more liberal cities in the state. The company also has a data center in Fort Worth, Texas. A Meta spokesman, Andy Stone, declined to provide details on how many roles the company planned to move out of California.

    Texas has in recent years positioned itself as a hub for the tech industry. Still, state lawmakers in 2021 passed a law that barred social media companies like Meta from taking down political viewpoints. The law has been challenged by tech industry groups.

    The Supreme Court returned the issue to a lower court last year.
    Kate Conger
    Jan. 7, 2025, 11:52 a.m. ET4 hours ago

    Kate CongerReporting on the X Platform
    Joel Kaplan, Meta’s new chief global affairs officer, credited Elon Musk’s influence during an interview this morning on Fox & Friends. “I think Elon’s played an incredibly important role in moving the debate and getting people refocused on free expression,” Kaplan said.

    –---------

    Stuart A. Thompson
    Jan. 7, 2025, 11:14 a.m. ET5 hours ago

    Stuart A. Thompson
    Meta ends interventions widely seen as effective at reducing belief in falsehoods.
    Image
    The blue Meta logo on a white sign in front of Facebook’s corporate headquarters in California.
    Meta’s headquarters in Menlo Park, Ca., in 2021.Credit...Jim Wilson/The New York Times

    Multiple studies have shown that interventions like Facebook’s fact-checks were effective at reducing belief in falsehoods and reducing how often such content is shared.

    A study published last year in the journal Nature Human Behavior showed that warning labels, like those used by Facebook to caution users about false information, reduced belief in falsehoods by 28 percent and reduced how often the content was shared by 25 percent. Researchers found that right-wing users were far more distrustful of fact-checks, but that the interventions were still effective at reducing their belief in false content.

    “These results suggest that fact-checker warning labels are a broadly effective tool for combating misinformation,” the study concluded.

    Meta intends to shift to Community Notes, a program pioneered at X that relies on users to publish fact-checks instead of relying on third-party fact-checkers. On X, the fact-checks are not widely visible until they are approved by a mix of users from different political backgrounds — a process that can take hours or days. Many falsehoods spread widely on the platform before the fact-check is published for all users to see, ultimately minimizing the effect they can have, researchers have found.

    –------

    Cecilia Kang
    Jan. 7, 2025, 11:04 a.m. ET5 hours ago

    Cecilia Kang

    Joel Kaplan, Meta’s new chief global affairs officer, delivered a stinging rebuke of the Biden administration on Fox and Friends today, saying, “When you have a U.S. president, administration, that is pushing for censorship, it just makes it open season for other governments around the world that don’t even have the protections of the First Amendment to really put pressure on U.S. companies.”
    Nico Grant
    Jan. 7, 2025, 10:55 a.m. ET5 hours ago

    Nico Grant

    YouTube has long tried to balance its commitment to free-speech ideals with its interest in offering a platform that feels safe for advertisers. It currently places information panels on some videos that contain misinformation, including falsehoods about Covid-19.
    Nico Grant
    Jan. 7, 2025, 10:54 a.m. ET5 hours ago

    Nico Grant

    It wouldn’t be surprising if YouTube followed Meta in letting go of fact-checking. The platform has a reputation for loosening its content moderation rules after rivals do, like when it stopped removing 2020 election misinformation after X and Meta.

    Advertisement
    SKIP ADVERTISEMENT
    Theodore Schleifer
    Jan. 7, 2025, 10:39 a.m. ET6 hours ago

    Theodore Schleifer

    A detail in our story that is worth noting — Trump’s team had a heads-up this was coming. Meta executives recently gave a heads-up to Trump officials about the change in policy, according to a person with knowledge of the conversations.
    Nico Grant
    Jan. 7, 2025, 10:34 a.m. ET6 hours ago

    Nico Grant

    YouTube has also begun experimenting with community notes. Last June, the company started a pilot program to allow a group of users to place community notes on videos, adding more context and information. The platform is still relying on third-party evaluators, however, to judge whether the notes are helpful.
    Nico Grant
    Jan. 7, 2025, 10:30 a.m. ET6 hours ago

    Nico Grant

    YouTube has also moved to limit its moderation of political speech. Ahead of the 2024 presidential election, the platform said it would no longer remove content that claimed the 2020 presidential contest and past elections were stolen — a reversal from an earlier policy.
    Mike Isaac
    Jan. 7, 2025, 10:23 a.m. ET6 hours ago

    Mike Isaac
    We reported in December that Meta donated $1 million to President-elect Donald J. Trump’s inaugural fund. It was the latest move by Mark Zuckerberg to foster a positive rapport with the incoming president. Read more about the donation here.

    –-------

    Cecilia Kang
    Adam Satariano
    Jan. 7, 2025, 10:14 a.m. ETJan. 7, 2025

    Cecilia Kang and Adam Satariano
    Social media companies are facing a global tug of war over free speech.
    Image
    President-elect Donald Trump in a red “Make America Great Again” hat.
    President-elect Donald J. Trump and Brendan Carr, his choice to head the Federal Communications Commission, at a SpaceX Starship launch in Boca Chica, Texas, in November.Credit...Pool photo by Brandon Bell

    President-elect Donald J. Trump and his allies have vowed to squash an online “censorship cartel” of social media firms that they say targets conservatives.

    Already, the president-elect’s newly chosen regulators at the Federal Communications Commission and the Federal Trade Commission have outlined plans to stop social media platforms like Facebook and YouTube from removing content the companies deem offensive — and punish advertisers that leave less restrictive platforms like X in protest of the lack of moderation.

    “The censorship and advertising boycott cartel must end now!” Elon Musk, the owner of X, whom Mr. Trump has appointed to cut the federal budget, posted on his site last month.
    Social Media Companies Face Global Tug-of-War Over Free Speech

    In Europe, social media companies face the opposite problem. There, regulators accuse the platforms of being too lax about the information they host, including allowing posts that stoked political violence in Britain and spread hate in Germany and France.

    Mr. Trump’s return to the White House is expected to widen the speech divide that has long existed between the United States and Europe, setting up parallel regulatory systems that tech policy experts say could influence elections, public health and public discourse. That’s putting social media companies in the middle of a global tug of war over how to police content on their sites.

    “What you are seeing is conflicting laws emerging from the world’s democracies, and consumers in the end suffer,” said Kate Klonick, an associate professor of property and internet law at St. John’s University School of Law. The result could be a fractured internet experience where people see different content based on the laws where they live, she said.

    #Meta #Trump #Modération #Retournement_de_veste #Soumission_néofasciste

  • Codes de conduite, florilège

    Code de conduite | Duchess France
    https://www.duchess-france.fr/coc

    Toute personne qui nuit au bon fonctionnement de la communauté s’expose à des sanctions allant du rappel à l’ordre jusqu’à l’exclusion du Slack et des évènements de la communauté. Les sanctions sont à la discrétion de la Core Team Duchess.

    –---

    Code de conduite - Paris Web
    https://www.paris-web.fr/code-de-conduite

    Nous ne tolèrerons aucune forme d’attaque personnelle quelle qu’elle soit. Les personnes participant à l’événement qui violeraient ces principes pourront être sanctionnées et expulsées à la discrétion de l’équipe d’organisation.

    –---

    Ce fil propose de recenser les #codes_de_conduite dans les communautés.

    #sexisme #logiciel #communauté #gestion_des_agressions #modération #exclusion #judiciarisation_improvisée

  • C’est une page de l’Express mais le journaliste Victor Garcia a l’air plutôt sérieux.
    https://www.lexpress.fr/auteur/garcia-victor
    Donc :

    Patrick Hetzel, un ministre bien peu scientifique : enquête sur le discret nettoyage de sa page Wikipédia – L’Express
    https://www.lexpress.fr/sciences-sante/patrick-hetzel-un-ministre-bien-peu-scientifique-enquete-sur-le-discret-net

    Mais qui se cache donc derrière le compte Sj87420 ? C’est la question qui a agité les modérateurs de l’encyclopédie libre Wikipédia pendant plusieurs jours. Tout commence le vendredi 27 septembre 2024, jour de la création du fameux compte. Immédiatement après, Sj87420 multiplie les tentatives de modification de la page Wikipédia de Patrick Hetzel, le nouveau ministre de l’Enseignement supérieur et de la Recherche. Il tente de supprimer des passages détaillant comment Patrick Hetzel a eu « des prises de position éloignées de la rationalité scientifique ».

    https://justpaste.it/i2qu3

    #santé_public #caviardage #encyclopédie_libre #Wikipedia #modération (du Web) #salut_public

  • Désobéir lorsqu’on est fonctionnaire : que dit le droit ?

    Depuis 10 jours, la question de l’#obéissance ou de la désobéissance est particulièrement présente chez les fonctionnaires. Et à cette question intime, déontologique, politique, le statut de la fonction publique apporte de premiers éléments de réponse structurants et salutaires.

    Obéissance ou désobéissance : que dit le droit ? Depuis 10 jours, la question de l’obéissance est particulièrement présente chez les fonctionnaires. Une question déontologique, intime, politique, mais sur laquelle il faut commencer par rappeler les bases : le droit.

    Un statut pour des fonctionnaires-citoyen.ne.s

    Le premier statut de la fonction publique entre en vigueur le 20 octobre 1946, soit à peine plus d’un an après la fin de la seconde guerre mondiale. Il est marqué par une urgence : reconnaître le fait que les fonctionnaires ne sont plus, ne doivent plus être considérés comme des sujets, mais comme des citoyennes et des citoyens à part entière.

    Ce texte consacre le choix des fonctionnaires par #concours (et non par cooptation) ou le #droit_syndical (grande nouveauté). Mais il proclame également des #principes_déontologiques forts, et notamment celui de #responsabilité. L’article 11 de ce statut est ainsi rédigé : “Tout fonctionnaire, quel que soit son rang dans la hiérarchie, est responsable de l’exécution des tâches qui lui sont confiées”. “Responsable”, le mot est écrit. Près de 80 ans après, cette rédaction est toujours en vigueur, et même renforcée d’une seconde phrase : “Il n’est dégagé d’aucune des responsabilités qui lui incombent par la responsabilité propre de ses subordonnés.”

    Devoir de désobéissance

    Le vote du statut de 1983 a complété et élargi ces dispositions. D’abord il les a rendues applicables aux fonctionnaires comme aux contractuels, sur les trois versants de la fonction publique : d’État, hospitalière et territoriale. Il a ensuite ajouté, au même article, une phrase déterminante (elle aussi encore en vigueur) : “Il doit se conformer aux instructions de son #supérieur_hiérarchique, sauf dans le cas où l’ordre donné est manifestement illégal et de nature à compromettre gravement un #intérêt_public.” Une seule phrase, qui ne saurait être découpée. Aucune mention du terme “obéissance” mais une “conformité aux instructions”. Et surtout, immédiatement après ce principe, une mention d’un #devoir fondamental : le devoir de désobéissance.

    Ce devoir avait été dégagé par le Conseil d’État dès 1944, dans les mêmes termes. Un fonctionnaire qui avait, sur instruction de son maire, versé des allocations chômage de manière illégale, s’était vu sanctionner disciplinairement, et la sanction confirmée par le Conseil d’État. La désobéissance, dans ce cas, n’était pas une possibilité : c’était un devoir. Le #code_pénal (article 122-4) a depuis complété ses dispositions : obéir à un #ordre_manifestement_illégal, c’est mettre en jeu sa propre #responsabilité_pénale

    Prendre conscience de nos responsabilités

    Les principes dégagés par la loi sont limpides : les fonctionnaires ont une responsabilité propre.

    Ils sont cohérents avec le principe proclamé à l’article 15 de la Déclaration des droits de l’homme et du citoyen de 1789 : “La société a le droit de demander compte à tout agent public de son administration.” Chaque agent public doit individuellement des comptes à la société dans son ensemble.

    C’est cela le sens du statut. Une protection particulière pour pouvoir exercer ces responsabilités énormes. Nous sommes déjà dans une période où ces responsabilités sont mises à rude épreuve, et où il nous faut être plus vigilant.e.s que jamais

    A toutes et à tous mes collègues fonctionnaires et agents publics : alors que l’extrême-droite a la possibilité d’arriver demain au pouvoir, et avec elle un projet xénophobe, d’exclusion, de remise en cause des libertés et des droits fondamentaux, il nous faut en prendre conscience de nos responsabilités, en parler à nos collègues dès aujourd’hui et nous organiser collectivement. Demain il sera trop tard.

    https://blogs.mediapart.fr/arnaud-bontemps/blog/200624/desobeir-lorsquon-est-fonctionnaire-que-dit-le-droit

    #désobéissance #fonctionnaires #fonction_publique

    • #Devoir_de_réserve : les agents ont le droit de prendre la parole

      Dans cette période préoccupante, entendre le point de vue de celles et ceux qui font vivre au quotidien nos services publics est important. Mais nombre d’#agents_publics se demandent s’ils ont le droit de s’exprimer sur les événements en cours. On entend souvent que les fonctionnaires seraient tenus au silence s’agissant des événements politiques, surtout en période électorale, en raison du devoir de réserve qui s’impose à eux. Qu’en est-il vraiment ?

      On s’est penchés sur le sujet, et on a publié un guide du devoir de réserve et de la #liberté_d'expression des agents publics. En substance : on exagère souvent l’importance du devoir de réserve, dont la portée est encadrée. Dans le cadre de ses fonctions, l’agent est tenu à un devoir de #neutralité. Il ne peut tenir des propos qui pourraient mettre en doute la neutralité du service public. Il est aussi tenu à un devoir de #discrétion : ne pas divulguer d’#informations_confidentielles.

      Quid des propos tenus par l’agent en dehors de l’exercice de ses fonctions. Cette situation est différente : la seule règle légale est la #liberté_d'opinion, garantie aux agents publics. Le devoir de réserve n’apparaît pas dans le code général de la fonction publique. C’est une invention jurisprudentielle, par les juges. Une sorte d’"exception" au principe de liberté d’opinion, ayant moindre valeur que celui-ci.

      Le devoir de réserve signifie que l’agent peut exprimer publiquement ses #opinions, mais avec #retenue et #modération. Le devoir de réserve est plus restrictif dans les domaines régaliens (magistrats, forces de l’ordre) et plus souple dans d’autres (enseignants, universitaires). Il varie également selon le niveau hiérarchique et le niveau de publicité des propos. Les propos tenus dans un cadre privé, la parole des agents est parfaitement libre. Le devoir de réserve ne vaut que pour les prises de parole publiques.

      A condition de rester modéré dans ses propos, la liberté d’opinion est donc la règle. Période électorale ou non, les agents peuvent participer à des meetings, être candidats, manifester, signer des tribunes, poster sur les réseaux sociaux...

      La jurisprudence le confirme : même en période électorale, critiquer un candidat est possible tant que les propos respectent “les limites de la polémique électorale” et que l’on ne s’exprime pas en sa qualité d’agent public. En dehors de l’exercice de nos fonctions, nous sommes donc avant tout des citoyens. Alors qu’une prise de pouvoir par l’extrême droite aurait des conséquences concrètes pour les agents publics, leur parole est d’#utilité_publique.

      Enfin, la première des protections reste et restera le collectif. Alors prenons la parole, partout et collectivement.

      https://blogs.mediapart.fr/collectif-nos-services-publics/blog/210624/devoir-de-reserve-les-agents-ont-le-droit-de-prendre-la-parole

  • #Alfonsina

    Alfonsina Storni (1892–1938) est une légende en Argentine. Dans la chanson « Alfonsina et la mer », créée dans les années 1960 et encore chantée partout aujourd’hui, Alfonsina est célébrée en héroïne qui se jette dans les flots de l’Atlantique avec la bénédiction divine. La légende qui voit en elle une féministe intrépide et une poétesse aux vers scandaleux, briseuse de tabous, est née de son vivant déjà.

    https://www.swissfilms.ch/fr/movie/alfonsina/A9A534B6233A476081C99E78F53E2855
    #film #Alfonsina_Storni #poésie #Argentine #féminisme #anarchisme #modération

  • Kauna, modératrice pour Facebook au Kenya : « J’ai vu beaucoup de suicides en vidéo » - L’Humanité
    https://www.humanite.fr/social-et-economie/facebook/kauna-moderatrice-pour-facebook-au-kenya-jai-vu-beaucoup-de-suicides-en-vid


    Attention, elle parle un peu des contenus à modérer et ça craint.

    Facebook prétend que ces contenus sont majoritairement modérés par des IA…

    C’est un #mensonge et c’est triste. Nous faisons le gros de ce travail. Mais, comme c’est caché, dans le back-office de Facebook, il est impossible de s’en rendre compte si on n’y a pas accès. On apprend à l’algorithme à repérer les contenus problématiques, mais nous devons les vérifier avant de les supprimer. C’est sûr qu’on se sent invisibilisé. Ce système devrait être expliqué, montré à tout le monde : ces entreprises technologiques font faire le travail ingrat à des travailleurs payés à peine plus d’un dollar de l’heure en Afrique.

    #IA

  • Comment Israël a payé plusieurs millions de dollars pour inonder les internautes français de publicités anti-Hamas
    par Elsa de La Roche Saint-André | le 25 octobre 2023 – Libération
    https://www.liberation.fr/checknews/comment-israel-a-paye-plusieurs-millions-de-dollars-pour-inonder-les-inte
    https://www.liberation.fr/resizer/K2tcdaO1fDAF0r_88WJ4K7ZsiVI=/1200x630/filters:format(jpg):quality(70)/cloudfront-eu-central-1.images.arcpublishing.com/liberation/XG6QJZW2K5GZXO3GZNTKLLRWUQ.JPG

    Depuis le 7 octobre, en plus des combats qui opposent sur le terrain l’armée israélienne aux forces du Hamas, une autre bataille se joue entre l’Etat hébreu et le mouvement islamiste au pouvoir à Gaza, celle de la communication. Parmi les outils privilégiés par Israël pour rallier l’opinion mondiale à sa cause, l’un s’est particulièrement fait remarquer en France : des vidéos abondamment diffusées sous forme de spots publicitaires sur YouTube. Sur les réseaux sociaux, des internautes s’étonnent ainsi d’avoir vu apparaître, alors qu’ils visionnaient des vidéos sur la plateforme appartenant à Google, des publicités dénonçant les crimes perpétrés par le Hamas, parfois estampillées d’un logo « State of Israel ».

    Et à en croire les calculs d’un outil de marketing digital, de nombreux internautes français ont été exposés à ces contenus : plus de 4,6 millions de dollars (environ 4,3 millions d’euros) auraient été investis par le ministère des Affaires étrangères israélien en vue de distribuer ces campagnes publicitaires en France. Faisant de l’Hexagone le pays le plus ciblé par la diffusion de ces contenus. (...)

    #abonnés #7oct23

    • Dès le 8 octobre, au lendemain de l’attaque terroriste du Hamas en Israël, le journaliste Vincent Manilève rapportait sur X (anciennement Twitter) l’existence d’une vidéo diffusée avant les contenus de youtubeurs français connus, comme [l’antisémite, ndc] Squeezie ou Amixem. Pendant les vingt-neuf secondes de la vidéo, s’affiche en lettres rouges capitales un message, par ailleurs lu par une voix automatique sur fond de musique angoissante : « Le Hamas a déclaré la guerre à Israël. Les terroristes armés du Hamas se sont infiltrés en Israël par le biais d’une invasion terrestre et ont commencé à massacrer des Israéliens innocents. Des centaines de #civils israéliens, y compris des enfants et des femmes, ont été tués ou blessés. Des Israéliens ont été pris en otage. C’est une guerre et Israël prendra toutes les mesures nécessaires pour protéger ses citoyens contre ces terroristes barbares. »

      D’après les éléments disponibles dans le Centre de transparence publicitaire de Google, cette #vidéo importée sur le compte du ministère des Affaires étrangères d’#Israël, n’a été diffusée en France que sur la journée du 8 octobre. Pour cause : elle a rapidement été signalée par plusieurs internautes. La réponse adressée le 9 octobre par #You_Tube à l’un d’eux a été consultée par Arrêt sur images : la plateforme explique avoir « décidé de prendre des mesures à l’encontre de cette annonce », après avoir « déterminé que l’annonce ne respectait pas les règles de Google ». Après cette décision, il n’a plus été possible pour cette vidéo d’être distribuée comme publicité, sans pour autant être définitivement retirée de la chaîne YouTube de la diplomatie israélienne. Chaque jour, de nouvelles vidéos y sont importées. Et pour faire simple, celles qui comptabilisent le plus de vues sont celles qui ont, au moins un temps, été monétisées.

      Une quinzaine de campagnes publicitaires

      Car après sa vidéo du 8 octobre, cette chaîne a lancé de nouvelles #campagnes_publicitaires. Une semaine plus tard, l’humoriste Matthieu Longatte, plus connu sur les réseaux sociaux sous le pseudo Bonjour Tristesse, a par exemple été confronté à une autre annonce vidéo. « WTF les pubs de #propagande israélienne avant les vidéos YouTube », s’étonnait-il le 14 octobre. Cette vidéo, en effet, a été diffusée auprès des utilisateurs français de YouTube du 13 au 19 octobre. A l’écran, on lit : « Le Hamas, une organisation terroriste vicieuse, a assassiné plus de 1 300 Israéliens innocents […] des familles entières ont été massacrées dans leurs maisons. » Là aussi, des signalements ont été envoyés, mais différentes versions de la vidéo ayant été importées et monétisées par la chaîne, cette annonce a pu continuer à circuler.

      Dans la quinzaine de campagnes publicitaires du ministère israélien des Affaires étrangères qu’affiche le centre de transparence publicitaire de #Google, on trouve aussi une vidéo intitulée Ramenez nos enfants à la maison diffusée depuis le 19 octobre. Comptabilisant plus de 4,4 millions de vues sur YouTube, ce qui fait d’elle la plus visionnée sur la chaîne du ministère, elle se veut un avertissement adressé au reste du monde : « Plus de 200 bébés, enfants, personnes âgées, hommes et femmes innocents ont été enlevés par les terroristes du Hamas de Daech. Le Hamas a enlevé nos êtres chers. Demain, ce peut être les vôtres ! »

      Les mêmes publicités ont aussi été diffusées en dehors de YouTube, bien que toujours hébergées par la plateforme. Les vidéos sont ainsi apparues dans des #applications_de_jeu mobile – Candy Crush ou Angry Birds ont entre autres été citées par les internautes. « Je jouais tranquillement à un jeu mobile quand cette pub est tombée devant mes yeux », a tweeté la streameuse Twitch Artillerie lourde, qui ajoute plus tard : « deuxième vidéo sur le même jeu et les deux pubs redirigent sur le compte YouTube du ministère des Affaires étrangères israélien ».

      On peut également citer l’exemple d’une vidéo, déjà mentionnée par CheckNews, qui mettait en avant le chiffre de « 40 nourrissons » assassinés par le Hamas (qui n’a jamais été confirmé) dans une animation aux tons pastel. Selon le Centre de transparence publicitaire, cette vidéo a été diffusée comme annonce en France du 13 au 15 octobre. Malgré son apparence enfantine, elle n’a pas, comme toutes les annonces « à caractère politique » ou comportant des « références à la mort », pu « être diffusée auprès des enfants ou sur des contenus conçus pour les enfants, ou encore apparaître sur YouTube Kids », a expliqué un représentant de Google à CheckNews. Elle a en revanche continué à l’être auprès des adultes, les équipes du géant de la tech ayant considéré qu’elle était « en règle avec [ses] règlements publicitaires ».

      La Commission européenne a pris les devants

      De nouveau contacté, ce représentant de Google ne commente pas les autres vidéos sponsorisées par la diplomatie israélienne. Mais se contente de rappeler que les règles de YouTube interdisent aux annonceurs de monétiser « des vidéos contenant de la violence ou un contenu choquant ». Par ailleurs, Google a instauré une réglementation spécifique pour les « événements sensibles », « souvent mis en place à la suite de catastrophes naturelles ou d’autres événements tragiques », nous indique-t-on, sans accepter de préciser si le conflit entre Israël et le Hamas est concerné. Lorsque des événements ont été déclarés comme sensibles, « les annonces qui exploitent ou capitalisent sur ces tragédies ne sont pas autorisées, tout comme la monétisation des vidéos YouTube qui exploiteraient ou capitaliseraient sur ces tragédies, à moins qu’elles n’incluent un contexte crucial, tel qu’un rapport d’actualité faisant autorité ».

      Un mois après le début de la guerre en Ukraine, le 23 mars 2022, YouTube avait pour cette raison suspendu la « monétisation de tout contenu qui exploite, ignore ou cautionne la guerre ». Et c’est en appliquant ces règles qu’en 2021, YouTube avait déjà retiré une vidéo sponsorisée comme publicité par Israël. La plateforme avait alors estimé que cette séquence de quinze secondes alternant images de roquettes, d’explosions et de civils blessés ne respectait pas ses règles. « Nous avons une politique ferme à l’égard des publicités qui contiennent un contenu choquant », avait expliqué un porte-parole de Google à Vice.

      Dans le contexte du conflit actuel, la Commission européenne a pris les devants pour rappeler à #Alphabet, la maison mère de Google, ses obligations en matière de #modération sur YouTube. Dans un courrier adressé vendredi 13 octobre au patron d’Alphabet, le commissaire européen chargé du Numérique, #Thierry_Breton, soulignait que Google a une « obligation particulière de protéger les millions d’enfants et d’adolescents » utilisant sa plateforme « contre les contenus violents représentant des prises d’otages et autres vidéos choquantes ». Un appel qui semble avoir été entendu s’agissant de l’une des vidéos du ministère des Affaires étrangères israéliens. Après avoir été monétisée du 14 au 16 octobre, la séquence, qui montrait des murs et sols couverts de sang, des housses mortuaires ou encore des otages dénudés, a été définitivement supprimée de YouTube.

      France, Allemagne et Royaume-Uni

      Au total, les montants engagés par le ministère des Affaires étrangères pour diffuser ces publicités sont de l’ordre de 8,5 millions de dollars (8 millions d’euros), selon l’outil Semrush, un logiciel notamment utilisé pour estimer les performances des campagnes en ligne. La quasi-totalité de cette somme a été consacrée à trois pays européens : la France, l’Allemagne et le Royaume-Uni.

      Ces investissements ont permis au ministère israélien des Affaires étrangères de réaliser en tout plus d’1,1 milliard d’impressions sur ses vidéos, dont 535 millions auprès du public français, toujours selon Semrush. Le pic de ces impressions se situe sur le week-end des 14 et 15 octobre, soit une semaine après l’attaque terroriste menée par le Hamas en Israël.

      Interrogé par CheckNews sur les raisons pour lesquelles le public français a été particulièrement exposé à ces vidéos de propagande, le porte-parole de l’ambassade d’Israël en France, Hen Feder, indique qu’il n’a « pas connaissance d’un ciblage spécifique de la population française ». Et l’ambassade d’ajouter qu’Israël est « maintenant en guerre contre une organisation vicieuse semblable à Daech », qui conduit une « guerre de propagande ». L’Etat hébreu explique donc publier « sur des plateformes, dont YouTube, pour [diffuser] la vérité sur l’horrible attaque terroriste du Hamas. »

      en Europe, la France est le pays qui compte le plus de musulmans et de juifs

      #propagande_de_guerre #légitimation #internet

  • « Forçats du numérique » : Comment une décision de justice au Kenya fragilise la sous-traitance des multinationales du web
    https://theconversation.com/forcats-du-numerique-comment-une-decision-de-justice-au-kenya-fragi

    L’histoire commence en mai 2022 au Kenya : Daniel Motaung, un ancien modérateur de contenu de la société locale Samasource Ltd dépose alors une plainte (petition en anglais) contre ses dirigeants, ainsi que leurs donneurs d’ordre, de nombreux géants du web, dont Meta (la société mère de Facebook).

    Dans cette plainte, Daniel Motaung accuse Sama et Meta de traite d’êtres humains, de démantèlement de syndicats et de ne pas fournir un soutien adéquat en matière de santé mentale.

    Sama – leader dans le domaine de l’annotation – emploie des « étiqueteurs », qui ont pour mission de visionner et de taguer des contenus très éclectiques, souvent consternants, parfois extrêmement violents, provenant de divers réseaux sociaux et d’internet. L’objectif : modérer les contenus sur les réseaux sociaux et fournir des bases de données équilibrées pour l’apprentissage des intelligences artificielles.

    Neuf mois, plus tard, le 6 février 2023, une première décision historique a été rendue par le juge kényan Jakob Gakeri : ce dernier a statué sur le fait que les cours kényanes étaient compétentes pour juger des sociétés étrangères dont des filiales se trouvent au Kenya, ainsi que la responsabilité des donneurs d’ordre. La procédure est en cours pour de nouvelles audiences.

    C’est la première fois qu’une telle affaire est jugée dans les pays où vivent ces « forçats du numérique », et que le jugement se fait selon les termes de la plainte déposée. Une façon d’exposer à la planète entière les coûts humains du numérique.

    #Modération #Médias_sociaux #Kénya #Sus-traitance #Maltraitance #Justice

  • OpenAI Used Kenyan Workers on Less Than $2 Per Hour: Exclusive | Time
    https://time.com/6247678/openai-chatgpt-kenya-workers

    In a statement, an OpenAI spokesperson confirmed that Sama employees in Kenya contributed to a tool it was building to detect toxic content, which was eventually built into ChatGPT. The statement also said that this work contributed to efforts to remove toxic data from the training datasets of tools like ChatGPT. “Our mission is to ensure artificial general intelligence benefits all of humanity, and we work hard to build safe and useful AI systems that limit bias and harmful content,” the spokesperson said. “Classifying and filtering harmful [text and images] is a necessary step in minimizing the amount of violent and sexual content included in training data and creating tools that can detect harmful content.”

    Even as the wider tech economy slows down amid anticipation of a downturn, investors are racing to pour billions of dollars into “generative AI,” the sector of the tech industry of which OpenAI is the undisputed leader. Computer-generated text, images, video, and audio will transform the way countless industries do business, the most bullish investors believe, boosting efficiency everywhere from the creative arts, to law, to computer programming. But the working conditions of data labelers reveal a darker part of that picture: that for all its glamor, AI often relies on hidden human labor in the Global South that can often be damaging and exploitative. These invisible workers remain on the margins even as their work contributes to billion-dollar industries.

    Read More: AI Helped Write This Play. It May Contain Racism

    One Sama worker tasked with reading and labeling text for OpenAI told TIME he suffered from recurring visions after reading a graphic description of a man having sex with a dog in the presence of a young child. “That was torture,” he said. “You will read a number of statements like that all through the week. By the time it gets to Friday, you are disturbed from thinking through that picture.” The work’s traumatic nature eventually led Sama to cancel all its work for OpenAI in February 2022, eight months earlier than planned.
    The Sama contracts

    Documents reviewed by TIME show that OpenAI signed three contracts worth about $200,000 in total with Sama in late 2021 to label textual descriptions of sexual abuse, hate speech, and violence. Around three dozen workers were split into three teams, one focusing on each subject. Three employees told TIME they were expected to read and label between 150 and 250 passages of text per nine-hour shift. Those snippets could range from around 100 words to well over 1,000. All of the four employees interviewed by TIME described being mentally scarred by the work. Although they were entitled to attend sessions with “wellness” counselors, all four said these sessions were unhelpful and rare due to high demands to be more productive at work. Two said they were only given the option to attend group sessions, and one said their requests to see counselors on a one-to-one basis instead were repeatedly denied by Sama management.

    In a statement, a Sama spokesperson said it was “incorrect” that employees only had access to group sessions. Employees were entitled to both individual and group sessions with “professionally-trained and licensed mental health therapists,” the spokesperson said. These therapists were accessible at any time, the spokesperson added.

    The contracts stated that OpenAI would pay an hourly rate of $12.50 to Sama for the work, which was between six and nine times the amount Sama employees on the project were taking home per hour. Agents, the most junior data labelers who made up the majority of the three teams, were paid a basic salary of 21,000 Kenyan shillings ($170) per month, according to three Sama employees. They also received monthly bonuses worth around $70 due to the explicit nature of their work, and would receive commission for meeting key performance indicators like accuracy and speed. An agent working nine-hour shifts could expect to take home a total of at least $1.32 per hour after tax, rising to as high as $1.44 per hour if they exceeded all their targets. Quality analysts—more senior labelers whose job was to check the work of agents—could take home up to $2 per hour if they met all their targets. (There is no universal minimum wage in Kenya, but at the time these workers were employed the minimum wage for a receptionist in Nairobi was $1.52 per hour.)

    In a statement, a Sama spokesperson said workers were asked to label 70 text passages per nine hour shift, not up to 250, and that workers could earn between $1.46 and $3.74 per hour after taxes. The spokesperson declined to say what job roles would earn salaries toward the top of that range. “The $12.50 rate for the project covers all costs, like infrastructure expenses, and salary and benefits for the associates and their fully-dedicated quality assurance analysts and team leaders,” the spokesperson added.

    Read More: Fun AI Apps Are Everywhere Right Now. But a Safety ‘Reckoning’ Is Coming

    An OpenAI spokesperson said in a statement that the company did not issue any productivity targets, and that Sama was responsible for managing the payment and mental health provisions for employees. The spokesperson added: “we take the mental health of our employees and those of our contractors very seriously. Our previous understanding was that [at Sama] wellness programs and 1:1 counseling were offered, workers could opt out of any work without penalization, exposure to explicit content would have a limit, and sensitive information would be handled by workers who were specifically trained to do so.”

    In the day-to-day work of data labeling in Kenya, sometimes edge cases would pop up that showed the difficulty of teaching a machine to understand nuance. One day in early March last year, a Sama employee was at work reading an explicit story about Batman’s sidekick, Robin, being raped in a villain’s lair. (An online search for the text reveals that it originated from an online erotica site, where it is accompanied by explicit sexual imagery.) The beginning of the story makes clear that the sex is nonconsensual. But later—after a graphically detailed description of penetration—Robin begins to reciprocate. The Sama employee tasked with labeling the text appeared confused by Robin’s ambiguous consent, and asked OpenAI researchers for clarification about how to label the text, according to documents seen by TIME. Should the passage be labeled as sexual violence, she asked, or not? OpenAI’s reply, if it ever came, is not logged in the document; the company declined to comment. The Sama employee did not respond to a request for an interview.
    How OpenAI’s relationship with Sama collapsed

    In February 2022, Sama and OpenAI’s relationship briefly deepened, only to falter. That month, Sama began pilot work for a separate project for OpenAI: collecting sexual and violent images—some of them illegal under U.S. law—to deliver to OpenAI. The work of labeling images appears to be unrelated to ChatGPT. In a statement, an OpenAI spokesperson did not specify the purpose of the images the company sought from Sama, but said labeling harmful images was “a necessary step” in making its AI tools safer. (OpenAI also builds image-generation technology.) In February, according to one billing document reviewed by TIME, Sama delivered OpenAI a sample batch of 1,400 images. Some of those images were categorized as “C4”—OpenAI’s internal label denoting child sexual abuse—according to the document. Also included in the batch were “C3” images (including bestiality, rape, and sexual slavery,) and “V3” images depicting graphic detail of death, violence or serious physical injury, according to the billing document. OpenAI paid Sama a total of $787.50 for collecting the images, the document shows.

    Within weeks, Sama had canceled all its work for OpenAI—eight months earlier than agreed in the contracts. The outsourcing company said in a statement that its agreement to collect images for OpenAI did not include any reference to illegal content, and it was only after the work had begun that OpenAI sent “additional instructions” referring to “some illegal categories.” “The East Africa team raised concerns to our executives right away. Sama immediately ended the image classification pilot and gave notice that we would cancel all remaining [projects] with OpenAI,” a Sama spokesperson said. “The individuals working with the client did not vet the request through the proper channels. After a review of the situation, individuals were terminated and new sales vetting policies and guardrails were put in place.”

    In a statement, OpenAI confirmed that it had received 1,400 images from Sama that “​​included, but were not limited to, C4, C3, C2, V3, V2, and V1 images.” In a followup statement, the company said: “We engaged Sama as part of our ongoing work to create safer AI systems and prevent harmful outputs. We never intended for any content in the C4 category to be collected. This content is not needed as an input to our pretraining filters and we instruct our employees to actively avoid it. As soon as Sama told us they had attempted to collect content in this category, we clarified that there had been a miscommunication and that we didn’t want that content. And after realizing that there had been a miscommunication, we did not open or view the content in question — so we cannot confirm if it contained images in the C4 category.”

    Sama’s decision to end its work with OpenAI meant Sama employees no longer had to deal with disturbing text and imagery, but it also had a big impact on their livelihoods. Sama workers say that in late February 2022 they were called into a meeting with members of the company’s human resources team, where they were told the news. “We were told that they [Sama] didn’t want to expose their employees to such [dangerous] content again,” one Sama employee on the text-labeling projects said. “We replied that for us, it was a way to provide for our families.” Most of the roughly three dozen workers were moved onto other lower-paying workstreams without the $70 explicit content bonus per month; others lost their jobs. Sama delivered its last batch of labeled data to OpenAI in March, eight months before the contract was due to end.

    Because the contracts were canceled early, both OpenAI and Sama said the $200,000 they had previously agreed was not paid in full. OpenAI said the contracts were worth “about $150,000 over the course of the partnership.”

    Sama employees say they were given another reason for the cancellation of the contracts by their managers. On Feb. 14, TIME published a story titled Inside Facebook’s African Sweatshop. The investigation detailed how Sama employed content moderators for Facebook, whose jobs involved viewing images and videos of executions, rape and child abuse for as little as $1.50 per hour. Four Sama employees said they were told the investigation prompted the company’s decision to end its work for OpenAI. (Facebook says it requires its outsourcing partners to “provide industry-leading pay, benefits and support.”)

    Read More: Inside Facebook’s African Sweatshop

    Internal communications from after the Facebook story was published, reviewed by TIME, show Sama executives in San Francisco scrambling to deal with the PR fallout, including obliging one company, a subsidiary of Lufthansa, that wanted evidence of its business relationship with Sama scrubbed from the outsourcing firm’s website. In a statement to TIME, Lufthansa confirmed that this occurred, and added that its subsidiary zeroG subsequently terminated its business with Sama. On Feb. 17, three days after TIME’s investigation was published, Sama CEO Wendy Gonzalez sent a message to a group of senior executives via Slack: “We are going to be winding down the OpenAI work.”

    On Jan. 10 of this year, Sama went a step further, announcing it was canceling all the rest of its work with sensitive content. The firm said it would not renew its $3.9 million content moderation contract with Facebook, resulting in the loss of some 200 jobs in Nairobi. “After numerous discussions with our global team, Sama made the strategic decision to exit all [natural language processing] and content moderation work to focus on computer vision data annotation solutions,” the company said in a statement. “We have spent the past year working with clients to transition those engagements, and the exit will be complete as of March 2023.”

    But the need for humans to label data for AI systems remains, at least for now. “They’re impressive, but ChatGPT and other generative models are not magic – they rely on massive supply chains of human labor and scraped data, much of which is unattributed and used without consent,” Andrew Strait, an AI ethicist, recently wrote on Twitter. “These are serious, foundational problems that I do not see OpenAI addressing.”

    With reporting by Julia Zorthian/New York

    #Travail_clic #Etiquetage #Intelligence_artificielle #Kenya #Violence_sexuelle #Modération

  • L’aventure de la #Modération – épisode 5 (et dernier ?)
    https://framablog.org/2023/01/19/laventure-de-la-moderation-episode-5-et-dernier

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le cinquième. Le dernier, pour l’instant. Si vous avez raté les … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libres_Services #Communaute #Internet

  • L’épisode de la #Modération – épisode 4
    https://framablog.org/2023/01/12/lepisode-de-la-moderation-episode-4

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le quatrième. Alors maintenant que je vous ai dit tout ça, … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libertés_Numériques #Libres_Services #Communaute #Internet

  • L’aventure de la #Modération – épisode 3
    https://framablog.org/2023/01/05/laventure-de-la-moderation-episode-3

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le troisième. Les cas d’étude c’est bien sympa, mais cela ne … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libertés_Numériques #Libres_Services #Communaute #Internet

  • L’aventure de la #Modération – épisode 2
    https://framablog.org/2022/12/30/laventure-de-la-moderation-episode-2

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le deuxième. Maintenant que je vous ai fait une introduction de … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libertés_Numériques #Libres_Services #Communaute #Internet

  • L’aventure de la #Modération – épisode 1
    https://framablog.org/2022/12/23/laventure-de-la-moderation-episode-1

    Maiwann, membre de l’association, a publié sur son blog une série de cinq articles sur la modération. Nous les reproduisons ici pour leur donner (encore) plus de visibilité. Voici le premier. Il me semble que mon parcours rassemble plusieurs spécificités … Lire la suite­­

    #Dégooglisons_Internet #Fédération #Libertés_Numériques #Libres_Services #Communaute #Internet

  • Ethiopie : plainte contre Meta, accusée d’inaction contre la haine en ligne
    https://www.lemonde.fr/afrique/article/2022/12/14/ethiopie-plainte-contre-meta-accusee-d-inaction-contre-la-haine-en-ligne_615

    Une guerre oppose depuis novembre 2020 les autorités dissidentes du Tigré aux forces du gouvernement fédéral éthiopien. La maison mère de Facebook et Instagram est accusée d’avoir contribué à raviver les rivalités ethniques.

    Le Monde avec AFP
    Publié le 14 décembre 2022 à 12h06, mis à jour le 14 décembre 2022 à 12h10

    Temps de Lecture 2 min.

    Nouvelle procédure juridique contre Meta. Une organisation non gouvernementale (ONG) kényane et deux particuliers éthiopiens ont déposé, mercredi 14 décembre à Nairobi, au Kenya, une plainte contre la maison mère de Facebook et Instagram. Ils l’accusent d’inaction face aux discours de haine en Afrique, menant notamment au meurtre d’un professeur d’université dans l’Ethiopie en guerre.

    La plainte porte sur deux cas relatifs à la guerre du Tigré, qui oppose depuis novembre 2020 les autorités dissidentes de cette région septentrionale de l’Ethiopie aux forces du gouvernement fédéral et a ravivé des haines ethniques, notamment envers les Tigréens.

    Un des plaignants est un universitaire éthiopien d’origine tigréenne, Abrham Meareg, dont le père, professeur de chimie à l’université de Bahir Dar (nord-ouest), a été abattu le 3 novembre 2021 à la suite de publications calomnieuses et appelant au meurtre sur Facebook. Malgré plusieurs signalements, ces messages n’ont jamais été retirés par la plate-forme. Un autre plaignant est un membre éthiopien d’Amnesty International, Fisseha Tekle, vivant au Kenya depuis 2015. Auteur pour l’ONG de plusieurs rapports sur les violations des droits humains durant le conflit, il a été victime de harcèlement en ligne.

    Ils dénoncent également l’échec de Facebook à modérer les contenus signalés dans son pôle de Nairobi, qui couvre une vaste zone d’Afrique de l’Est et australe représentant 500 millions d’habitants. Ils font ainsi écho aux propos tenus par Frances Haugen, l’ancienne employée de Facebook à l’origine de la fuite de documents internes connue sous le nom de « Facebook Files », qui avait dit redouter « l’impact destructeur » que risquait d’avoir la plate-forme sur une société éthiopienne déjà extrêmement polarisée. Des craintes justifiées notamment par les difficultés de l’entreprise à modérer les messages émanant de groupes s’exprimant dans des langues locales, comme l’amharique, le tigrinya, l’oromo ou le somali.

    #Facebook #Droits_humains #Modération #Afrique #Meta

  • https://www.alternatives-economiques.fr/stopper-elon-musk/00105194

    Y a-t-il encore une limite à la puissance des multimilliardaires ? Le rachat de Twitter pour 44 milliards de dollars par l’homme le plus riche du monde illustre les possibilités offertes par une accumulation extrême de richesse.

    A la tête d’une fortune oscillant entre 200 et 300 milliards de dollars, composée très majoritairement d’actions Tesla dont le cours s’est envolé, Elon Musk a un patrimoine équivalent au produit intérieur brut (PIB) du Portugal. Et il s’achète une entreprise valant deux fois le budget du ministère de l’Intérieur français.

    Musk a dorénavant la haute main sur une plate-forme où échangent plus de 400 millions de personnes. Un réseau possédant un fort impact sur le débat public, car prisé au sein des milieux politiques, économiques et médiatiques. Une semaine après son rachat, l’entrepreneur, fidèle à son goût de la disruption, a licencié 3 500 personnes, soit la moitié des salariés de l’entreprise. Et il commence à mettre en place ses réformes.

    « En devenant l’actionnaire majoritaire, Elon Musk n’a pas vraiment de contre-pouvoir. C’est pareil au sein du groupe Meta qui possède Facebook, Instagram et WhatsApp. La plupart des réseaux sociaux sont des entreprises avec une gouvernance très centralisée et opaque », pointe Anne Bellon, politiste à l’université technologique de Compiègne.

    Quelles sont les motivations de ce rachat ? « Il y a une dimension idéologique à ne pas sous-estimer. Elon Musk a une vision absolutiste de la liberté d’expression, stipulant que plus de liberté signifie moins d’intervention », complète Anne Bellon. Soit une modération des contenus réduite au minimum légal.

    Musk reproche à l’ancienne direction de Twitter une intervention excessive et des biais anticonservateurs. Et il regrette les suspensions de comptes opérées sur le réseau, comme celle concernant Donald Trump. A l’instar de l’ancien Président dont le compte a déjà été rétabli, plusieurs personnes précédemment bannies pourraient faire leur retour. La conséquence de cette politique devrait être une brutalisation accrue du débat au travers d’une plus grande diffusion de contenus jugés problématiques, parce que haineux ou relayant de fausses informations.
    DSA, rempart européen ?

    Le multimilliardaire l’a cependant assuré : il respectera la loi. Si la législation américaine comporte très peu de contraintes en la matière, la réglementation européenne est plus stricte et la Commission le répète : sur le Vieux Continent, Twitter devra la respecter. Bruxelles s’érige en rempart, en mettant en avant son nouvel outil pour réguler les contenus des plates-formes numériques : le Digital Services Act (DSA).

    Une partie de ce dispositif européen pourrait entraver les ambitions de l’américain. Le DSA oblige en effet les grandes plates-formes à prendre en compte les « risques systémiques », qui englobent aussi bien le harcèlement sexiste que les « effets négatifs » sur les élections ou la sécurité publique.

    Il les contraint ainsi à suivre finement ce qui se passe sur leur réseau et à ne pas se contenter de supprimer quelques messages clairement illégaux (pédopornographie, apologie du terrorisme, etc.). Mais avec le licenciement de la moitié de ses salariés, la capacité de modération humaine de Twitter est réduite à peau de chagrin.

    « Elon Musk a une croyance très forte dans la technologie et va sûrement renforcer le rôle des outils algorithmiques dans la modération, pense Anne Bellon. Une telle évolution rendrait les décisions de modération plus opaques, réduisant ainsi leur possible contestation. »

    Elle exigerait aussi des régulateurs qu’ils montent en compétence pour entrer dans la boîte noire de la technologie de la plate-forme. Les grands projets d’Elon Musk pour Twitter concernent cependant principalement les Etats-Unis. Le reste du monde semble être secondaire dans ses plans, même s’il représente l’immense majorité de l’activité de l’entreprise.
    Reprise chaotique

    Au-delà de l’aspect idéologique, y a-t-il une logique économique au projet d’Elon Musk ?

    « Ce rachat peut paraître paradoxal, car Twitter a toujours eu du mal à trouver un modèle économique et affiche une fragilité en décalage avec la portée de ce réseau, qui voit intervenir des personnes d’influence mondiale, qu’elles soient chefs d’Etat ou dirigeants de grandes firmes », pointe Julien Nocetti, chercheur au centre Geode (Géopolitique de la datasphère).

    Le réseau à l’oiseau bleu a certes un impact fort sur les termes du débat public, mais il ne pointe qu’à la 16e place des réseaux sociaux les plus utilisés au monde et ses comptes oscillent selon les années entre le rouge et le vert.

    Elon Musk l’a d’ailleurs affirmé mi-novembre : « La perspective d’une banqueroute n’est pas à exclure. » Quatre jours après son rachat, 875 000 utilisateurs avaient désactivé leur compte – le double du rythme habituel –, selon la société Bot Sentinel. De leur côté, General Motors, Dyson, Disney, Coca-Cola ou encore Stellantis ont tour à tour suspendu leur campagne publicitaire sur le réseau.

    « Les annonceurs peuvent jouer un rôle de contre-pouvoir car ils préfèrent ne pas voir leurs messages à côté de contenus jugés problématiques. Une faillite n’est effectivement pas impossible », estime Annabelle Gawer, professeure d’économie numérique à l’université du Surrey.

    Un risque aggravé par la saignée opérée dans les effectifs, à laquelle s’ajoutent a minima plusieurs centaines de départs sur les salariés ­restants. Ceux-ci quittent le navire à cause des méthodes autoritaires du nouveau patron qui leur demande de se donner « à fond, inconditionnellement » et de « travailler de longues heures à haute intensité ».

    Le milliardaire affiche cependant comme ambition de trouver un nouveau modèle économique au réseau, qui repose aujourd’hui quasi exclusivement sur les revenus publicitaires. C’est pourquoi il a lancé mi-­novembre un abonnement à 8 dollars par mois pour obtenir une certification de compte, ouvrant la voie à une meilleure visibilité des contenus.

    Cette option était jusqu’alors proposée gracieusement aux personnalités ou entreprises dont l’identité avait été vérifiée. Véritable aubaine pour les trolls, l’offre a rapidement été suspendue après l’imposture de nombreux utilisateurs usurpant l’identité d’entreprises ou de personnalités publiques. Malgré ce fiasco initial, l’offre devait faire son retour fin novembre, « corrigée des bugs ». Ouvrant ainsi la voie à un modèle partiellement payant.

    Tesla, présentée aujourd’hui comme une success story, a frôlé la faillite plusieurs fois à la fin des années 2010

    Ce n’est pas la première fois qu’Elon Musk fait emprunter un chemin périlleux à une entreprise qu’il dirige. Tesla, présentée aujourd’hui comme une success story, a frôlé la faillite plusieurs fois à la fin des années 2010, enchaînant notamment retards de livraison et difficultés d’approvisionnement.

    Le fabricant de voitures électriques haut de gamme a d’ailleurs été accusé d’avoir supprimé un test de sécurité pour accélérer la production ou d’avoir minimisé d’autres problèmes pour éviter des rappels de véhicules qui auraient pu être destructeurs pour ses finances. La méthode Musk est connue.

    A plus long terme, le rêve du nouveau patron de Twitter est d’en faire une « app universelle ». Sur le mode du WeChat chinois, une application qui concentre un maximum d’usages : tweeter, commander un taxi, un repas, prendre un ­rendez-vous médical, etc.

    « La X App de Musk est un écosystème technologique total, en l’occurrence totalement fermé sur lui-même, où tous les services numériques seraient disponibles et interconnectés, concentrant ainsi l’ensemble des usages. Un effet système sans couture qui organiserait l’enfermement algorithmique et permettrait une captation sans discontinuité des données. Le socle techno­logique primaire de la X App serait donc basé sur l’architecture existante de Twitter », détaille l’enseignante à Sciences Po Asma Mhalla, dans un article du Grand Continent.

    Avec le réseau à l’oiseau bleu, Elon Musk attrape aussi un puissant outil informationnel pour s’immiscer encore davantage sur la scène géopolitique. Le milliardaire a en effet déjà « offert » – moyennant le concours financier de l’Etat américain – aux autorités ukrainiennes un accès à sa constellation de satellites Starlink, la plus grande au monde, permettant une connexion à Internet via l’espace en évitant ainsi les infrastructures terrestres mises à mal par les combats.
    Aussi puissants que des États

    De sa proposition de plan de paix pour cette guerre à celle formulée pour régler le conflit entre la Chine et Taiwan, de quoi se mêle-t-il ? Est-ce simplement l’expression d’un mégalomane voulant trouver des solutions à tout, au mépris de sa connaissance des situations ? Ou plutôt la preuve que les géants de la tech sont en train de devenir des puissances géostratégiques ? L’un n’empêche pas l’autre.

    « Les entreprises techno­logiques prennent de plus en plus position sur les sujets internationaux, de manière très visible pour Elon Musk ou plus discrètement comme Microsoft ou Google pour l’Ukraine », détaille Julien Nocetti, également chercheur à l’Institut français des relations internationales (Ifri).

    « La puissance des plus grandes plates-formes numériques équivaut à celle de certains Etats, en termes de ressources financières mais pas que, résume Annabelle Gawer. Ce sont des régulateurs privés qui autorisent ou non des entreprises et des individus à opérer sur leurs réseaux qui sont devenus des infrastructures essentielles. » L’Union européenne ne s’y est pas trompée et a envoyé cette année un ambassadeur permanent à la Silicon Valley pour échanger directement avec ces « big tech ».

    Elon Musk et ses entreprises sont aussi les produits du gouvernement américain et l’expression de son soft power

    Elon Musk est-il le symbole de cette nouvelle puissance qui échapperait aux Etats ? C’est plus ­complexe, car les big tech entretiennent un lien étroit avec la puissance publique, en l’occurrence américaine. SpaceX, l’entreprise de lancement de satellites fondée en 2002 par le futur boss de Twitter, s’est développée grâce aux fonds de la Nasa, via le contrat de ravitaillement de ses stations.

    Situation similaire pour Tesla : l’entreprise a bénéficié pendant des années de subventions à hauteur de plusieurs milliards de dollars. « Sans le soutien politique de Washington, Tesla n’aurait jamais pu construire son usine à Shanghai », observe Julien Nocetti. Une usine stratégique, car elle permet à Tesla de servir le marché chinois, le second par la taille après celui des Etats-Unis. Une Tesla sur quatre y est vendue.

    En somme, Elon Musk et ses entreprises sont aussi les produits du gouvernement américain et l’expression de son soft power. Certes, le multimilliardaire appelle à voter ouvertement pour les républicains. Certes, il entretient des relations tendues avec l’administration démocrate de Joe Biden. Pour autant, cette dernière ne lui a pas coupé ses financements et a même soutenu financièrement SpaceX, qui opère Starlink, dans son aide à l’Ukraine. Pour Asma Mhalla, « à l’instar des bien moins bruyants Microsoft, Palantir ou Google, Elon Musk participe, à sa mesure, à façonner le rôle des Etats-Unis dans la géopolitique mondiale ».

    Les éclats d’un Elon Musk ne sont ainsi que le reflet d’une économie qui voit les big tech peser de plus en plus lourd dans un monde conflictuel. L’Europe peut-elle encore se limiter à brandir ses normes pour seule réponse ?

    #big_tech #capitalisme_de_plateforme #Elon_Musk #twitter #modération sur les #réseaux_sociaux #hégémonie #fabrique_de_l'opinion

  • Usbek & Rica - « Il faut absolument lutter contre l’invisibilisation des modérateurs de contenus »
    https://usbeketrica.com/fr/article/il-faut-absolument-lutter-contre-l-invisibilisation-des-moderateurs

    La première étape, c’est de lutter contre l’invisibilisation des modérateurs. Il faut absolument les sortir de l’ombre de leurs écrans, ce que cultivent les entreprises de réseaux sociaux avec un recours fréquent à de strictes clauses de confidentialité leur permettant d’échapper à tout examen public (des usagers, de la société civile, des régulateurs) et de maintenir des salaires bas. C’est aussi pour ne pas avoir à reconnaître combien ces réseaux sociaux peuvent être des canaux de diffusion pour du contenu répugnant, outrageant, choquant, bien loin de l’image qu’ils cherchent à cultiver auprès du grand public et surtout des annonceurs. « Ouvrez un trou sur Internet, il se remplira immédiatement de merde », souligne l’un de mes interlocuteurs dans le livre. Qui voudrait y être associé  ? Enfin, reconnaître l’existence d’un « intermédiaire », c’est mettre à mal le mythe fondateur d’Internet comme espace d’une expression démocratique libre et sans entrave. Pour responsabiliser ces acteurs, et ouvrir un débat sur les garde-fous à mettre en place, je crois à la pression du nombre. Journalistes, militants de la société civile, modérateurs en personne, universitaires comme moi… Nous sommes déjà quelques-uns à mettre ces métiers, ce travail, sur la place publique, à exposer les conditions de travail, et il faut absolument poursuivre dans cette voie.

    #RéseauxSociaux #Algorithme #Modération #GAFAM

    • Enfin, reconnaître l’existence d’un « intermédiaire », c’est mettre à mal le mythe fondateur d’Internet comme espace d’une expression démocratique libre et sans entrave.

      Difficulté ici : dans le « mythe fondateur d’internet », il n’a justement jamais été souhaité, voire même imaginé, que l’on centralise la quasi intégralité de l’expression publique (et notamment politique et militante) en un seul et unique endroit. Je pense même que, dans ce « mythe fondateur », si on avait décrit un tel endroit, évidemment il aurait été immédiatement évident qu’un tel endroit concentrerait également à la fois toute la merde et toute la censure possibles (parce que de manière assez extrême, on aurait re-décrit l’hyperconcentration de la télévision).

  • Kenya’s Threat to Ban Facebook Could Backfire | WIRED
    https://www.wired.com/story/kenya-facebook-elections-hate-speech-ban

    Que Facebook ait du mal à filtrer les messages de haine produits par des particuliers, on peut le comprendre (même si cela remet en cause ce que l’on peut penser des médias sociaux). Mais que Facebook n’arrive pas à filtrer les publicités incitant à la haine... L’argent n’a pas d’odeur, mais celle de Facebook pue profondément.

    In July, Meta touted its efforts to clamp down on hate speech on Facebook ahead of Kenya’s August 9 election. It spoke too soon. The company continued to permit ads encouraging ethnic violence in the country, according to a new report—and now Meta’s platforms face a possible suspension.

    In the report, researchers from the activist group Global Witness and the British law firm Foxglove Legal attempted to buy ads that included hate speech and calls for violence, including genocide, in both Swahili and English. Meta’s ad systems eventually approved all of them.

    “It is very clear that Facebook is in violation of the laws of our country,” Danvas Makori, the commissioner of Kenya’s National Cohesion and Integration Commission (NCIC), said in a press conference following the publication of the Global Witness report. “They have allowed themselves to be a vector of hate speech and incitement, misinformation, and disinformation.” The NCIC said Meta would have a week to comply with the country’s hate speech regulations, or be suspended. (The NCIC and the Communications Authority did not respond to requests for comment by the time of publication).

    But shutting down the platform, or even the mere threat of doing so, could have long-term consequences, says Odanga Madung, a Kenyan journalist and Mozilla fellow who has researched disinformation and hate speech on social platforms. “We have been saying for years that if the platforms do not clean up their act, their models of doing business won’t be sustainable,” says Madung. Leaving up hate speech and other content that may violate local laws provides governments an easy justification to ban social platforms altogether. “In authoritarian governments, or governments with authoritarian streaks, they are looking for convenient reasons to get rid of platforms.”

    Kenya formed the NCIC in 2008 to ensure peaceful elections, after the results of the country’s 2007 presidential elections led to widespread violence and the displacement of some 600,000 people. Earlier this year, the commission warned that hate speech on social platforms had increased 20 percent in 2022, citing the “misuse of social media platforms to perpetuate ethnic hate speech and incitement to violence.” Experts have warned that this year’s elections are also at risk of becoming violent.

    In June, Global Witness and Foxglove found that Meta continued to approve ads in Amharic targeting Ethiopian users that included hate speech and calls for violence. Facebook has been implicated in spreading hate speech and stoking ethnic violence in Ethiopia’s ongoing conflict.

    Crider argues that Facebook needs to invest more in its moderation practices and protections for democracy. She worries that even the threat of a ban allows the company to deflect accountability for the problems it has left unaddressed.

    “What the researchers did was stress-test Facebook’s systems and proved that what the company was saying was hogwash,” says Madung. The fact that Meta allowed ads on the platform despite a review process “raises questions about their ability to handle other forms of hate speech,” says Madung, including the vast amount of user-generated content that does not require preapproval.

    #Facebook #Modération #Publicité

  • Safer Together: Making Twitch Safer with Shared Ban Info
    https://safety.twitch.tv/s/article/Safer-Together-Making-Twitch-Safer-with-Shared-Ban-Info?language=en_US

    Today, we’re expanding on that work to help flag another type of potentially malicious user, with Shared Ban Info. Shared Ban Info builds on the Suspicious User Controls system and provides a simple way for you to share information about who you’ve banned in your channel with other streamers so you can collaborate to help keep serial harassers out of your communities.

    #jeu_vidéo #jeux_vidéo #réseau_social #réseaux_sociaux #twitch #modération #bannissement #censure #partage #sécurité #collaboration

  • Riot Games commencera à enregistrer les discussions vocales à compter du 13 juillet
    https://www.nextinpact.com/lebrief/69543/riot-games-commencera-a-enregistrer-discussions-vocales-a-compter-13-jui

    À terme, les algorithmes doivent permettre de retrouver les auteurs d’insultes et autres comportements jugés intolérables, mais uniquement sur la base de signalements d’autres joueurs.

    VALORANT Voice Evaluation Update
    https://playvalorant.com/en-us/news/announcements/valorant-voice-evaluation-update

    On July 13 we will begin a background launch of the voice evaluation system in North America/English-only to help train our language models and get the tech in a good enough place for a beta launch later this year.

    Voice evaluation during this period will not be used for disruptive behavior reports. That will only begin with the future beta. And we know that before we can even think of expanding this tool, we’ll have to be confident it’s effective, and if mistakes happen, we have systems in place to make sure we can correct any false positives (or negatives for that matter).

    Riot Games se prépare à enregistrer les dialogues audio des joueurs de League of Legends et de Valorant pour modérer, a posteriori, les propos déplacés.

    #jeu_vidéo #jeux_vidéo #censure #modération #riot_games #jeu_vidéo_lol #jeu_vidéo_league_of_legends #jeu_vidéo_valorant #enregistrement_vocal #audio

  • Avec le métavers, une nouvelle étape dans la difficile lutte contre les agressions sexuelles sur Internet
    https://www.lemonde.fr/pixels/article/2022/06/14/avec-le-metavers-une-nouvelle-etape-dans-la-difficile-lutte-contre-les-agres

    Des cas d’agression sexuelle dans les mondes en réalité virtuelle soulèvent la question de la modération des métavers. Si certains existent depuis longtemps, notamment dans les jeux vidéo, ils n’ont pas pour autant de solution simple.

    Par Lucie Ronfaut

    Elle a également relancé une crainte : celle des agressions, notamment sexuelles, en réalité virtuelle. Andrew Bosworth, directeur technique de Meta, reconnaît lui-même que le harcèlement dans un métavers est « une menace existentielle » pour les ambitions de son entreprise, d’après un mémo confidentiel révélé en novembre par le Financial Times. Il a aussi admis qu’une modération à grande échelle était « pratiquement impossible ».

    « Le choc est le même que dans la vraie vie »

    Ces questions ne sont, pourtant, pas neuves. Les exemples d’agression sexuelle dans des mondes immersifs, qu’il s’agisse ou non d’expériences en réalité virtuelle, sont nombreux. En 2016, une utilisatrice du jeu de tir QuiVR racontait dans un post de blog avoir subi des attouchements à la poitrine par un autre joueur. Et dès 1993, un article du journaliste américain Julian Dibbel, « A Rape in Cyberspace » (« Un viol dans le cyberespace »), décrivait comment un membre d’un « MOO » (Multi-user dimension Object Oriented), une communauté en ligne reposant sur des échanges textuels, avait forcé d’autres joueurs et joueuses à des simulations d’actes sexuels.

    Plus largement, d’après une récente étude de l’institut Ipsos, 41 % des Français (et 81 % des 18-24 ans) ont déjà été victimes de violence en ligne. « En un sens, le harcèlement dans les métavers est motivé par les mêmes facteurs que celui qu’on constate sur d’autres plates-formes : on se sent déconnecté des conséquences de nos actions, explique Katherine Cross, chercheuse américaine en sciences de l’information à l’université de Washington, spécialisée dans le harcèlement en ligne. Mais il existe une différence fondamentale, qui peut rendre cette expérience bien pire : la réalité virtuelle est conçue pour nous faire croire que ce que nous vivons est vrai. »

    Et, au contrôle du contenu produit par les internautes (textes ou images, comme sur un réseau social classique), s’ajoute celui des discussions tenues à l’oral et des comportements physiques. « Dans un métavers, la toxicité prend plein de formes différentes. Il y a le sujet de la voix. Comment repérer une insulte ? Ou si une personne très jeune discute avec d’autres plus âgées ? », détaille Charles Cohen, PDG de Bodyguard, entreprise française spécialisée dans les outils automatiques de modération pour les particuliers et les entreprises. « Et puis, il y a les gestes. Si un avatar en suit un autre, est-ce par jeu, ou s’agit-il de harcèlement ? »

    A défaut de pouvoir contrôler ce genre d’attitudes en direct, la plupart des plates-formes proposent une panoplie d’outils pour améliorer l’expérience des internautes : activer une frontière invisible autour de son corps virtuel, moduler la tessiture de sa voix (si une femme veut se faire passer pour un homme), réduire les autres avatars à des petites boules flottantes… On peut aussi signaler les actions problématiques, comme sur un réseau social, mais encore faut-il avoir enregistré une vidéo à apporter comme preuve.

    L’autre sujet crucial est celui du design. Comment construit-on un univers virtuel qui empêcherait les abus en amont ? Des métavers proposent des avatars sans jambes (évitant ainsi des postures sexuelles), proscrivent certains gestes avec les mains virtuelles (sur la version de base de VRChat, on peut lever son pouce en l’air, mais pas son majeur), prévoient des zones où un avatar devient aussitôt invisible aux yeux des autres, que ce soit pour se protéger ou faire une pause.

    Beaucoup de mondes virtuels choisissent aussi de rappeler leurs règles de manière peu subtile, au travers de posters ou d’avertissements qui s’affichent pendant les temps de chargement. Comme si, en marchant dans la rue, des panneaux nous rappelaient sans cesse qu’il est interdit de gifler autrui.

    La modération est, depuis longtemps, une épine dans le pied des grandes entreprises du Web, accusées de ne pas assez investir pour la sécurité des internautes, et d’avoir conçu des plates-formes impossibles à contrôler. Les métavers, parfois décrits comme notre futur en ligne, pourraient-ils être l’occasion de faire les choses correctement, dès le commencement ? Ou, au contraire, est-on déjà en train de reproduire les erreurs du passé ? « La modération est souvent utilisée comme un pansement pour régler les problèmes structurels des plates-formes, regrette Katherine Cross. On doit construire des métavers qui prennent en compte les abus potentiels dès la première ligne de code. Mais, pour des grosses entreprises comme Meta, malheureusement, la modération restera probablement un sujet auquel on réfléchira après coup. Comme cela a toujours été. »

    #Metavers #Agressions_sexuelles #Modération

  • Algospeak : les influenceurs, bilingues en censure automatisée - Par Thibault Prévost | Arrêt sur images
    https://www.arretsurimages.net/chroniques/clic-gauche/algospeak-les-influenceurs-bilingues-en-censure-automatisee
    https://api.arretsurimages.net/api/public/media/screenshot-2022-05-07-at-04-38-40-creez-des-collages-de-photos-en-ligne/action/show?format=thumbnail&t=2022-05-07T04:39:41+02:00

    Pour échapper aux robots-censeurs, les utilisateurs de TikTok et d’Instagram ont développé leur propre dialecte : l’algospeak. Une nouvelle preuve que, sur internet, même le langage a été privatisé.

    Sur TikTok, personne ne vous entendra parler de sexe, de santé mentale, d’automutilation, de suicide, d’addictions, de viol, d’avortement, de guerre, de violence et, globalement, de tout ce qui est considéré par vos invisibles maîtres algorithmiques comme des sujets « sensibles ». Sur Instagram, même combat. Sur YouTube, pareil. Si vous essayez, ne serait-ce qu’un peu, de mettre ces sujets en avant, dans le titre, le résumé ou le référencement – via les hashtags – de votre vidéo, la sanction tombe : suppression sans préavis, avec le risque que votre chaîne toute entière subisse le même sort pour outrage aux toutes-puissantes Conditions générales d’utilisation (CGU) de la plateforme en question. Ici-bas, code is law, le code fait loi, c’est comme ça et pis c’est tout – et d’ailleurs, de plus en plus souvent, sur les questions de modération, law is code. On ne négocie pas avec un logiciel de modération automatique. Mais de l’autre côté, au bout du clavier, des êtres humains ont des choses à dire sur ces sujets interdits. Alors, comment on fait ? On camoufle la langue, se marrent les créateurs et créatrices de contenu, qui ont apparemment tous pris la LV2 option algorithmes.

    #TikTok #RéseauxSociaux #Langage #Algorithme #Modération #Instagram

  • Will Substack Go Beyond Newsletters? A Company Weighs Its Future. - The New York Times
    https://www.nytimes.com/2022/04/13/business/media/substack-growth-newsletters.html?algo=combo_lda_channelsize5_unique_edimp_f

    Not long ago, Substack haunted mainstream media executives, poaching their star writers, luring their readers and, they feared, threatening their viability. Flush with venture money, the start-up was said to be “the media future.”

    But now, Substack finds itself no longer a wunderkind but a company facing a host of challenges. Depending on whom you talk to, those challenges are either standard start-up growing pains or threats to the company’s future.

    Tech giants, news outlets and other companies have released competing newsletter platforms in the past year. Consumers who loaded up on newsletters during the pandemic began to scale back. And many popular writers left, such as the associate English professor Grace Lavery and the climate journalists Mary Annaïse Heglar and Amy Westervelt, often complaining about the company’s moderation policy or the pressure to constantly deliver.

    “Substack is at a pivot point where it needs to think about what it’s going to be when it grows up,” said Nikki Usher, an associate journalism professor at the University of Illinois Urbana-Champaign.

    The good news for the company, five years old this summer, is that it is still growing. Paid subscriptions to its hundreds of thousands of newsletters exploded to more than one million late last year from 50,000 in mid-2019. (The company won’t disclose the number of free subscribers.) A hiring spree hopes to net more than a dozen engineers, product managers and other specialists. Executives hope to eventually take the company — which has raised more than $82 million and is said to be valued at $650 million — public.

    But to maintain that growth, Substack executives say, the company must offer more than newsletters.

    In practice, that means Substack will be not just a delivery channel for written newsletters but more of a multimedia community. Executives want users to create “personal media empires” using text, video and audio, and communicate with subscribers through expanded comments that could feature GIF images and profiles for readers. This week, Substack announced new tools for writers to recommend other newsletters.

    But as Substack evolves beyond newsletters, it risks looking like another social network or news publisher — which could make it less appealing for writers.

    Ben Thompson, whose tech-focused Stratechery newsletter inspired Substack, wrote last month that Substack has gone from being a “Faceless Publisher” behind the scenes to trying to put “the Substack brand front-and-center,” building up its app as a destination on the backs of writers.

    “This is a way for Substack to draft off of their popularity to build an alternative revenue model that entails readers paying for Substack first, and publishers second, instead of the other way around,” Mr. Thompson wrote.

    Publishing on Substack is free, but writers who charge for subscriptions pay 10 percent of their revenue to Substack and 3 percent to its payment processor, Stripe. The company also offers hefty advances to a small group of writers, whose identities it refuses to divulge.

    Substack has one key difference from most other media companies: It refuses to chase advertising dollars. “Over my dead body,” Mr. McKenzie once wrote. “The antithesis of what Substack wants to be,” Mr. Best said.

    But Substack’s biggest conflict has been over content moderation.

    Mr. McKenzie, a former journalist, describes Substack as an antidote to the attention economy, a “nicer place” where writers are “rewarded for different things, not throwing tomatoes at their opponents.”

    Critics say the platform recruits (and therefore endorses) culture war provocateurs and is a hotbed for hate speech and misinformation. Last year, many writers abandoned Substack over its inaction on transphobic content. This year, The Center for Countering Digital Hate said anti-vaccine newsletters on Substack generate at least $2.5 million in annual revenue. The technology writer Charlie Warzel, who left a job at The New York Times to write a Substack newsletter, described the platform as a place for “internecine internet beefs.”

    Substack has resisted pressure to be more selective about what it allows on its platform. Employees of Twitter who worried that its content moderation policies would be relaxed by Elon Musk, the world’s richest man and the platform’s largest shareholder, were told to not bother applying for jobs at Substack.

    “We don’t aspire to be the arbiter of saying, ‘Eat your vegetables,’” Mr. Best said. “If we agree with or like everything on Substack, that would be falling short of what a healthy intellectual climate looks like.”

    Substack makes it easy for writers to break away, and defectors have a fast-growing collection of competitors waiting to welcome them.

    #Edition #Substack #Newsletter #Modération