• Présidentielle américaine : « J’ai peur que nous allions au bord d’une guerre civile à cause de Facebook »
    https://information.tv5monde.com/info/presidentielle-americaine-j-ai-peur-que-nous-allions-au-bord-d

    Tim Kendall, un ancien dirigeant de Facebook, a témoigné devant des membres du Congrès le 27 septembre 2020. Mark Zuckerberg sera entendu à son tour le 28 octobre prochain. La question posée par les sénateurs consiste à savoir si Facebook crée de la division dans la population, au point de pousser à une potentielle guerre civile. Explications et entretien avec Dominique Boullier, sociologue et spécialiste de l’économie de l’attention.

    Tim Kendall : « Les médias sociaux nous déchirent »
    Tim Kendall a travaillé pour Facebook de 2006 à 2010 en tant que responsable de « la monétisation » du réseau. Il est donc un acteur important de la mise en place des outils incitatifs publicitaires, les fameux algorithmes et interfaces qui enferment chaque membre du réseau dans une « bulle informationnelle ». Ces systèmes renforcent les opinions, modifient les émotions et forcent chacun à rester connecté le plus possible, à prendre parti, à s’indigner ou à croire en des théories radicales.

    Kendall a donc témoigné le 27 septembre dernier (vidéo complète en anglais sur le site, Tim Kendall à 48:05) pour répondre aux préoccupations des responsables politiques face aux déchainements de haine et d’agressivité, de polarisation politique — uniques dans l’histoire américaine récente — qui font rage sur les réseaux sociaux depuis le début de la campagne électorale. Le titre de cette audition était sans ambiguïté : « Extrémisme dominant : le rôle des médias sociaux dans la radicalisation de l’Amérique. »

    Lors de cette audition, l’ancien cadre dirigeant de Facebook a établi un parallèle entre les procédés de l’industrie du tabac et ceux exploités par Facebook pour rendre les gens dépendants : « Les fabricants de tabac ont ajouté de l’ammoniac aux cigarettes pour augmenter la vitesse à laquelle la nicotine parvenait au cerveau. La capacité de Facebook à fournir du contenu incendiaire à la bonne personne, au bon moment, de la bonne manière ; c’est leur ammoniac. »

    Mais Kendall a aussi mis en garde sur les effets délétères que ces outils généraient dans la société : « Les services de médias sociaux, que moi et d’autres avons construits au cours des 15 dernières années ont servi à déchirer les gens entre eux à une vitesse et une intensité alarmantes. À tout le moins, nous avons érodé notre compréhension collective — au pire, je crains que nous nous poussions au bord d’une guerre civile. »

    Dans l’une de ses interventions, Tristan Harris finit par dresser un constat terrible : « Nous sommes passés d’un environnement technologique basé sur des outils à un environnement technologique de dépendance et de manipulation. Les médias sociaux ne sont pas des outils en attente d’être utilisés. Il ont leurs propres objectifs et il ont leurs propres moyens de les poursuivre, en utilisant votre psychologie contre vous-même. »
    L’implosion de la société par les réseaux sociaux ?

    Une possible implosion de la société — par une confrontation aveugle entre des franges de populations manipulées par les algorithmes — est donc l’une des issues que Tim Kendall et Tristan Harris envisagent sérieusement en conclusion du documentaire diffusé sur Netflix, tout comme lors de leur témoignage au Congrès américain. Cette possibilité d’implosion est prise très au sérieux par la plupart des observateurs et des spécialistes des réseaux sociaux, qui estiment qu’elle est probablement déjà en cours et craignent qu’elle ne se propage à travers le monde. Le réseau est global, les algorithmes sont les mêmes partout sur la planète et leurs effets sont similaires…

    TV5MONDE : Twitter et Facebook, par exemple, génèrent des effets similaires sur leurs utilisateurs, avec une montée en puissance de l’agressivité, des discours haineux et polarisés, sans nuances et souvent partisans. Comment l’expliquez-vous ?

    D.B : La polarisation n’est pas liée à la méchanceté intrinsèque des émetteurs, elle est liée à la valorisation par ces plateformes de certaines expressions pour des raisons de réactivité. Ces réseaux ont été positionnés comme ça. Il y a la partie algorithme qui est en jeu, mais il a aussi la partie design de l’interface en valorisant votre réaction, en vous facilitant votre réactivité. Je donne une exemple simple, lié à la captologie, avec Twitter : si on vous oblige à prendre un élément d’un tweet, à en créer un nouveau dans lequel vous devez coller votre élément pour pouvoir enfin reposter, vous avez tout un temps, plusieurs activités, qui ralentissent votre réaction et qui du coup introduisent un tout petit peu de réflexion et de hiérarchisation. Là, on élimine tout ça et on crée ce bouton retweet.

    J’ai travaillé longtemps dans les années 90 sur les interfaces numériques pour les améliorer et permettre leur appropriation par les utilisateurs, et aujourd’hui on se rend compte que ça a été retourné dans l’autre sens : les nouvelles interfaces ont facilité l’appropriation du comportement des utilisateurs par les plateformes. C’est une perversion de l’activité scientifique d’une part et de la finalité de tout ça d’une autre. Au bout du compte le principe qui a été retenu est « ne vous préoccupez de rien, laissez-nous vous guider ». En réalité, on vous emmène vers la posture cognitive qui est la plus rentable pour l’entreprise puisque c’est celle-là qui va augmenter les taux d’engagement pour les plateformes publicitaires.

    On a oublié les apéros Facebook, d’avant les années 2010, avec une horizontalité, une convivialité qui a disparu. Ce modèle a dérivé largement à cause de ses motivations économiques par les placements publicitaires. Il pourrait encore favoriser ces aspects là, même s’il le fait un peu avec les groupes Facebook, qui leur permettent d’organiser leurs activités, de se coordonner, comme ça a été le cas pour les printemps arabes. Ce qu’il faut mettre à bas c’est le modèle économique puisque le design est fait en fonction de ce modèle économique. Alors que si on organisait un espace de même type mais fait pour faciliter les rencontres, permettre de la modération, valoriser ceux qui présentent des contenus enrichis, ce serait totalement différent. Ce sont donc des finalités différentes.

    TV5MONDE : Y a-t-il des solutions pour éviter cette radicalisation via les plateformes et la possible implosion des sociétés ultra-connectées ?

    D.B : Il faut casser ce qu’on appelle les chaînes de contagion de ces réseaux. Il faut conserver bien entendu ces outils d’expression, on ne peut pas l’enlever aux gens. Les utilisateurs vont s’exprimer radicalement, dire des bêtises, il y aura des fake news, des propos de haine, on est bien d’accord, mais simplement il ne faut pas que ça se propage à la vitesse à laquelle ça se propage. On est donc obligé de mettre en place des mécanismes qui ralentissent cette propagation, qui obligent les gens à hiérarchiser. Il faut arrêter les réflexes, les réactions instantanées par retweet ou partage, like, etc. On pourrait par exemple dire « vous avez droit à 10 tweets et retweets dans la journée ou 24 heures », puis un seul, pareil pour les posts et partages Facebook ou les « j’aime ».

    A ce moment là vous allez avoir des individus obligés de choisir. Et quand on choisit — les gens ne sont pas complètement idiots — on évite le plus inutile.

    #Facebook #Médias_sociaux #Démocratie #Dominique_Boullier