Facebook lance une « cour d’appel », et va moins exposer les contenus « sensationnalistes »

/facebook-lance-une-cour-d-appel-pour-co

  • Modération : Facebook lance une « cour d’appel », et va moins exposer les contenus « sensationnalistes  16 novembre 2018
    https://www.lemonde.fr/pixels/article/2018/11/16/facebook-lance-une-cour-d-appel-pour-contenus-controverses_5384155_4408996.h

    Mark Zuckerberg, le fondateur de Facebook, a annoncé jeudi 15 novembre la création d’une « cour d’appel » indépendante adossée à l’entreprise, dont la mission sera de statuer sur les contenus controversés postés sur le réseau social.

    Cette annonce est intervenue au cours d’une téléconférence durant laquelle M. Zuckerberg a surtout dû s’expliquer à propos des révélations du New York Times sur l’emploi par Facebook d’une société de relations publiques aux méthodes controversées, dont il a reconnu qu’elle n’aurait jamais dû être mandatée.

    Au-delà de cette énième polémique, M. Zuckerberg et son équipe ont annoncé qu’ils avaient augmenté la capacité du réseau social à détecter les « messages haineux » de toute nature. Facebook est régulièrement accusé de toutes parts de ne pas faire assez pour supprimer ces messages et a reconnu par exemple avoir été trop lent à réagir à la propagande de l’armée birmane sur son site contre la minorité rohingya.

    La conférence de presse de Mark Zuckerberg accompagnait la publication d’un nouveau rapport faisant le bilan de l’application des règles de modération par Facebook, donnant des chiffres et des précisions sur les contenus problématiques qui ont été supprimés sur le réseau entre avril et septembre 2018. On y apprend, entre autres, que Facebook a désactivé près de 1,5 milliard de faux comptes sur cette période ; le rapport offre aussi un panorama des types de contenus qui ont été spécifiquement ciblés et supprimés (des dizaines de millions de messages haineux, de contenus violents à caractères terroristes ou pornographiques, ou encore des spams, sont concernés).

    « Je suis arrivé à la conclusion que nous ne devrions pas prendre tout seuls autant de décisions sur le thème de la liberté d’expression ou de la sécurité », a expliqué Mark Zuckerberg en marge de la publication de ce rapport. Il n’a toutefois pas précisé la composition exacte, ni le degré d’indépendance, de la « cour d’appel » annoncée. Elle devrait être mise en place en 2019 et sera chargée de trancher en cas de contentieux, en lien avec les codes de conduite de Facebook.

    Moins d’exposition pour les contenus « sensationnalistes »
    Mark Zuckerberg, dans un long billet publié sur sa page Facebook, a aussi annoncé que les ingénieurs de l’entreprise allaient désormais faire en sorte que les contenus compatibles avec les règles internes de Facebook mais controversés ou « sensationnalistes » allaient voir leur exposition réduite.

    « Un des principaux problèmes des réseaux sociaux, c’est que les gens interagissent naturellement et de manière disproportionnée avec les contenus provocateurs et sensationnalistes », écrit le patron de Facebook.

    Cela signifie concrètement que, lorsqu’un contenu publié s’approchera de la ligne blanche des règles de Facebook en matière de modération des contenus (propos haineux, pornographie, appels à la violence, etc.) sans la franchir, les algorithmes de Facebook feront en sorte qu’il soit moins visible pour les utilisateurs du réseau social.

    Les contenus « appeaux à clics » et la « désinformation » seront concernés en priorité par cette nouvelle politique, qui sera principalement mise en œuvre par des outils d’intelligence artificielle analysant automatiquement les contenus postés par les utilisateurs de Facebook. M. Zuckerberg espère enclencher un « cercle vertueux » : « En réduisant le sensationnalisme sous toutes ses formes, nous allons créer un climat plus sain et moins polarisé. »

    Mark Zuckerberg a aussi indiqué que le système de modération du réseau social, régulièrement moqué pour être parfois trop prude, allait tenter de tenir compte des spécificités culturelles et des sensibilités régionales pour prendre ses décisions.

    « Trouver l’équilibre »
    A partir de l’année prochaine, le groupe va aussi publier tous les trois mois un rapport sur les contenus qui ont été écartés du site. Un rythme équivalent à celui de la publication des résultats financiers et un moyen de montrer que l’entreprise prend le sujet au sérieux.
    « Nous avons fait des progrès pour effacer la haine, le harcèlement et le terrorisme de notre réseau (…) [mais] il nous faut trouver l’équilibre entre donner aux gens un porte-voix et assurer qu’ils sont en sécurité. »

    Facebook « s’améliore dans l’identification des contenus problématiques avant que quelqu’un ne les signale, en particulier pour les discours haineux et les publications violentes », souligne l’entreprise.

    Source : La revue de Presse Les Crises https://www.les-crises.fr/revue-de-presse-du-25-11-2018