Personalisation algorithms and elections : breaking free of the filter bubble

/1385

  • https://blogs.mediapart.fr/edition/europeennes-des-elections-sous-surveillance/article/110419/devoiler-les-algorithmes-pour-sortir-de-nos-bulles

    Les réseaux sociaux joueront un rôle crucial dans la campagne pour les élections européennes, à la fois comme source d’information et comme arène du débat public.

    Dans cette édition, nous reviendrons à plusieurs reprises sur les difficultés, les biais, les limites que rencontre, à l’heure actuelle, la discussion politique sur les réseaux sociaux. Il s’agit de difficultés d’ordre social, communicatif, sémiologique, sociolinguistique et psycholinguistique qui demandent des actions importantes de sensibilisation et éducation pour que les citoyens puissent se servir de ces outils en tirant pleinement profit de leur potentiel.

    Dans ce billet nous nous focaliserons sur l’effet de ségrégation induit par l’utilisation des plateformes numériques comme lieu d’information et de discussion politique.

    Depuis l’étude d’Eli Pariser sur les bulles de filtrage, nous sommes conscients du fait que Facebook, Twitter, Youtube et les autres plateformes numériques commerciales n’ont pas été conçues avec l’objectif de nous informer, mais plutôt avec l’objectif de capturer notre attention pour nous retenir en ligne et pour nous exposer à des contenus publicitaires susceptibles de nous intéresser. Pour capturer notre attention, ces plateformes nous exposent à des contenus adaptés à notre profil. Ces contenus sont déterminés par de complexes processus algorithmiques, appelés « algorithmes de personnalisation », capables de prendre des décisions complètement automatisées à propos des contenus à privilégier ou à pénaliser pour chaque usager. L’utilisation de ces algorithmes par les plateformes numériques produit l’effet de ségréguer chaque usager dans une « bulle de filtrage » dans laquelle il ne fera qu’être exposé à des contenus qui confirmeront son opinion et sa vision du monde. Qui plus est, ces algorithmes restent secrets.

    Claudio Agosti, Umberto Boschi, Stefania Milan et Federico Sarchi travaillent au projet ALEX (ALgorithms Exposed. Investigating Automated Personalization and Filtering for Research and Activism), qui vise à dévoiler le fonctionnement des algorithmes de personnalisation sur les réseaux sociaux, en analysant d’abord Facebook et Youtube à titre de test.

    Le projet ALEX démarrera à l’occasion des élections européennes avec une expérience conduite à l’échelle continentale dont les motivations et la mise en place sont décrites dans deux articles (ici et là) que nos collègues nous ont gentiment autorisés à synthétiser et traduire (2) pour cette édition.

    Nous leur donnons la parole.

    –----

    Après que la sonnette d’alarme ait été tirée lorsque le scandale de Cambridge Analytica est sorti dans les médias internationaux, la commissaire européenne pour la Justice, Věra Jourová, parlait d’un « signe clair d’avertissement » que les élections européennes à venir pourraient souffrir de la même « désinformation et manipulation par des intérêts privés et étranger » qui avait affecté les élections américaines.

    Une grande partie du succès de cette vague déferlante de la droite populiste serait due au résultat de leur campagne sur les réseaux sociaux. L’algorithme de Facebook évoqué est en fait capable de déterminer le succès ou l’échec d’une campagne spécifique, divisant les candidats entre ceux qui savent mettre à profit ce procédé et ceux qui l’ignorent. Au-delà de la face émergée de l’iceberg, on peut s’attendre à ce que les mécanismes de l’algorithme continuent d’augmenter la polarisation des opinions.

    Eli Pariser, l’auteur de The Filter Bubble, donne un exemple clair du fonctionnement de cette polarisation : deux de ses amis ont recherché « BP » sur Google. « L’un d’entre eux a trouvé un certain nombre de liens sur les opportunités d’investir dans le British Petroleum. L’autre a reçu des informations sur le déversement d’hydrocarbures. » On doit prendre connaissance du fait que les algorithmes influencent de manière significative notre perception du monde et, par conséquent, tout le processus de la prise de décision d’un individu. Souvent, ils empêchent chaque individu de voir non seulement le spectre complet des différentes opinions, mais aussi le spectre complet des faits.
    [•••]

    https://algorithms.exposed
    https://policyreview.info/articles/news/personalisation-algorithms-and-elections-breaking-free-filter-bubble/1385
    https://progressivepost.eu/the-mag/popping-the-bubble