• The Facebook Papers: Social Network Shaken by Content, User Woe
    https://www.datacenterknowledge.com/facebook/facebook-papers-social-network-shaken-content-user-woe

    The documents provide rare, vivid insight into ways Facebook, under the guidance of Chief Executive Officer Mark Zuckerberg, created a Silicon Valley social media behemoth that — while frequently posting lavish sales and profit gains — has also faltered in its mission to give users the tools they need to build community and bring the world closer together.

    In its own defense, Facebook points to new products and services it is developing to attract younger users; it notes that hate speech represents well under 1% of overall content on its platform and is declining; it says that it uses research, hypothetical tests and other methods to analyze how it recommends content and improve on efforts to curb the spread of harmful content. Facebook also contends that it has made adequate disclosures concerning growth and that the documents Haugen shared with the SEC represent a “curated selection” that “can in no way be used to draw fair conclusions about us.”

    Even so, the company’s missteps are beginning to take a toll. The documents chronicle worsening morale among some staff and disagreements over the best way to combat bad content; Facebook’s shares have lost more than 10% since the Wall Street Journal began publishing stories based on the whistle-blower’s documents; and lawmakers, already weighing legislation that would rein in Facebook’s power, are calling for even more stringent oversight.

    Other insights gleaned from the documents, researchers and people familiar with Facebook, including current and former employees:

    Facebook executives have long known that the platform’s hate-speech problem was bigger and more entrenched than the company discloses. While Facebook prioritizes rooting out violence and hateful content in English-speaking Western nations, it neglects developing regions that are more vulnerable to real-world harm from negativity on social media.
    A Facebook team tasked with stemming the flow of harmful posts was hamstrung by a lack of staffing, limits placed on its product development and the platform’s engagement-focused algorithm that often ends up promoting content that can be false and divisive.
    Facebook staff who study misinformation have concluded that the social network’s core products contribute to the spread of harmful material, and the company’s own efforts to quell misinformation are sometimes undermined by political considerations.
    In 2019, Facebook set up a test account in India to determine how its tools affect people in its most important market; within three weeks, the fictional user’s account devolved into a maelstrom of fake news and incendiary images.
    Facebook’s own staff, including internal researchers, faulted the company for failing to thwart the proliferation of groups that fomented violence on Jan. 6.

    Here’s a selected list of takeaways from The Facebook Papers from other publications:

    The ubiquitous “Like” button and the ability to share posts became essential to Facebook’s identity. But internal documents show the company is struggling to deal with the effects of those tools, including amplifying hate speech and misinformation, the New York Times reported.
    Chief Executive Officer Mark Zuckerberg personally agreed to comply with demands from Vietnam’s ruling Communist Party to censor anti-government dissidents or risk getting knocked offline in one of Facebook’s most lucrative Asian markets, the Washington Post reported.
    Facebook has a multi-tired system of sorting countries that receive extra protection during elections, with the U.S., India and Brazil getting the highest priority while others get very little protection unless material is escalated by content moderators, The Verge reported.
    The leaked Facebook documents offer a treasure trove of insight into Washington’s antitrust war against the company, according to Politico. The papers show in granular detail that Facebook knows it dominates the arenas it considers central to its fortunes — contradicting the company’s own public assertions and providing potential fuel for antitrust authorities and lawmakers scrutinizing Facebook’s sway over the market.

    #Facebook_Files #Economie_attention

  • Comment l’algorithme de Facebook échappe au contrôle de ses créateurs
    https://www.lemonde.fr/pixels/article/2021/10/26/comment-l-algorithme-de-facebook-echappe-au-controle-de-ses-createurs_609988

    EnquêteFacebook Files | Dans des documents internes de l’entreprise, ses ingénieurs avouent leur incompréhension face à un code informatique aux effets imprévus, qui fait du réseau social une machine complexe, difficile à maîtriser.

    C’est peut-être le principal sentiment qui émerge à la lecture des « Facebook Files ». Parmi ces milliers de pages de documents internes à Facebook, récupérés par Frances Haugen, une ancienne employée, et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde, de nombreux passages semblent indiquer que Facebook ne comprend plus, ou mal, ce que font ses propres algorithmes. Et que son réseau social est devenu une machine difficile à contrôler.
    Les « Facebook Files », une plongée dans les rouages de la machine à « likes »

    Les « Facebook Files » sont plusieurs centaines de documents internes à Facebook copiés par Frances Haugen, une spécialiste des algorithmes, lorsqu’elle était salariée du réseau social. Ils ont été fournis au régulateur américain et au Congrès, puis transmis par une source parlementaire américaine à plusieurs médias, expurgés des informations personnelles des salariés de Facebook. En Europe, ces médias sont, outre Le Monde, le quotidien allemand Süddeutsche Zeitung, les chaînes de télévision WDR et NDR, le Groupe Tamedia, Knack, Berlingske et l’OCCRP.

    Ils montrent que Facebook consacre davantage de ressources à limiter ses effets néfastes en Occident, au détriment du reste du monde. Ils attestent que ces effets sont connus en interne mais les signaux d’alerte pas toujours pris en compte. Enfin, ils prouvent que les algorithmes de Facebook sont devenus d’une complexité telle qu’ils semblent parfois échapper à leurs propres auteurs.

    #Facebook_Files #Algorithmes #Complexité #Economie_attention

  • La réponse de Facebook au flot de messages antivaccination a été mal ciblée
    https://www.lemonde.fr/pixels/article/2021/10/27/contre-les-messages-antivaccination-l-approche-en-plusieurs-doses-de-faceboo

    EnquêteFacebook Files | D’après des documents internes, le réseau social a vite réagi contre les messages antivaccination. Mais les outils mis en place n’ont pas suffi à endiguer les nombreux messages problématiques.

    Mars 2021 : l’équipe chargée de lutter contre la désinformation médicale sur Facebook a une mauvaise surprise. Un message en anglais affirmant que « tous les vaccins contre le Covid sont expérimentaux » et que les personnes vaccinées « font partie de l’expérience » a été vu plus de 3 millions de fois et partagé plus de 50 000 fois, alors qu’il aurait dû être supprimé, conformément aux règles de modération du réseau social. Enquête faite, la raison de cette erreur de modération apparaît clairement : en raison d’un bug, l’outil automatique de Facebook a cru que le message était écrit en roumain, et l’a mal compris.
    Lire aussi Article réservé à nos abonnés Facebook Files : hors des Etats-Unis, les failles de la modération dans des dizaines de langues

    Au-delà de l’anecdote – les erreurs commises par les algorithmes de détection automatique de Facebook sont courantes sur tous les sujets –, la pandémie a mis à rude épreuve les capacités de modération de la plate-forme, et l’a forcée à adapter sa manière de gérer de nombreux problèmes. C’est l’un des principaux enseignements que l’on peut tirer, à la lecture de nombreux documents internes à Facebook anonymisés, récupérés par son ex-employée Frances Haugen et transmis à plusieurs médias, dont Le Monde, par une source parlementaire américaine.

    #facebook_Files #Antivax #Complotisme #Economie_attention

  • Comment l’#algorithme de #Facebook échappe au contrôle de ses créateurs

    #Facebook_Files | Dans des documents internes de l’entreprise, ses ingénieurs avouent leur incompréhension face à un code informatique aux effets imprévus, qui fait du réseau social une machine complexe, difficile à maîtriser.

    C’est peut-être le principal sentiment qui émerge à la lecture des « Facebook Files ». Parmi ces milliers de pages de documents internes à Facebook, récupérés par #Frances_Haugen, une ancienne employée, et transmis par une source parlementaire américaine à plusieurs médias, dont Le Monde, de nombreux passages semblent indiquer que Facebook ne comprend plus, ou mal, ce que font ses propres algorithmes. Et que son réseau social est devenu une machine difficile à contrôler.

    https://www.lemonde.fr/pixels/article/2021/10/26/comment-l-algorithme-de-facebook-echappe-au-controle-de-ses-createurs_609988

    #paywall