Avec le métavers, une nouvelle étape dans la difficile lutte contre les agressions sexuelles sur Internet
▻https://www.lemonde.fr/pixels/article/2022/06/14/avec-le-metavers-une-nouvelle-etape-dans-la-difficile-lutte-contre-les-agres
Des cas d’agression sexuelle dans les mondes en réalité virtuelle soulèvent la question de la modération des métavers. Si certains existent depuis longtemps, notamment dans les jeux vidéo, ils n’ont pas pour autant de solution simple.
Par Lucie Ronfaut
Elle a également relancé une crainte : celle des agressions, notamment sexuelles, en réalité virtuelle. Andrew Bosworth, directeur technique de Meta, reconnaît lui-même que le harcèlement dans un métavers est « une menace existentielle » pour les ambitions de son entreprise, d’après un mémo confidentiel révélé en novembre par le Financial Times. Il a aussi admis qu’une modération à grande échelle était « pratiquement impossible ».
« Le choc est le même que dans la vraie vie »
Ces questions ne sont, pourtant, pas neuves. Les exemples d’agression sexuelle dans des mondes immersifs, qu’il s’agisse ou non d’expériences en réalité virtuelle, sont nombreux. En 2016, une utilisatrice du jeu de tir QuiVR racontait dans un post de blog avoir subi des attouchements à la poitrine par un autre joueur. Et dès 1993, un article du journaliste américain Julian Dibbel, « A Rape in Cyberspace » (« Un viol dans le cyberespace »), décrivait comment un membre d’un « MOO » (Multi-user dimension Object Oriented), une communauté en ligne reposant sur des échanges textuels, avait forcé d’autres joueurs et joueuses à des simulations d’actes sexuels.
Plus largement, d’après une récente étude de l’institut Ipsos, 41 % des Français (et 81 % des 18-24 ans) ont déjà été victimes de violence en ligne. « En un sens, le harcèlement dans les métavers est motivé par les mêmes facteurs que celui qu’on constate sur d’autres plates-formes : on se sent déconnecté des conséquences de nos actions, explique Katherine Cross, chercheuse américaine en sciences de l’information à l’université de Washington, spécialisée dans le harcèlement en ligne. Mais il existe une différence fondamentale, qui peut rendre cette expérience bien pire : la réalité virtuelle est conçue pour nous faire croire que ce que nous vivons est vrai. »
Et, au contrôle du contenu produit par les internautes (textes ou images, comme sur un réseau social classique), s’ajoute celui des discussions tenues à l’oral et des comportements physiques. « Dans un métavers, la toxicité prend plein de formes différentes. Il y a le sujet de la voix. Comment repérer une insulte ? Ou si une personne très jeune discute avec d’autres plus âgées ? », détaille Charles Cohen, PDG de Bodyguard, entreprise française spécialisée dans les outils automatiques de modération pour les particuliers et les entreprises. « Et puis, il y a les gestes. Si un avatar en suit un autre, est-ce par jeu, ou s’agit-il de harcèlement ? »
A défaut de pouvoir contrôler ce genre d’attitudes en direct, la plupart des plates-formes proposent une panoplie d’outils pour améliorer l’expérience des internautes : activer une frontière invisible autour de son corps virtuel, moduler la tessiture de sa voix (si une femme veut se faire passer pour un homme), réduire les autres avatars à des petites boules flottantes… On peut aussi signaler les actions problématiques, comme sur un réseau social, mais encore faut-il avoir enregistré une vidéo à apporter comme preuve.
L’autre sujet crucial est celui du design. Comment construit-on un univers virtuel qui empêcherait les abus en amont ? Des métavers proposent des avatars sans jambes (évitant ainsi des postures sexuelles), proscrivent certains gestes avec les mains virtuelles (sur la version de base de VRChat, on peut lever son pouce en l’air, mais pas son majeur), prévoient des zones où un avatar devient aussitôt invisible aux yeux des autres, que ce soit pour se protéger ou faire une pause.
Beaucoup de mondes virtuels choisissent aussi de rappeler leurs règles de manière peu subtile, au travers de posters ou d’avertissements qui s’affichent pendant les temps de chargement. Comme si, en marchant dans la rue, des panneaux nous rappelaient sans cesse qu’il est interdit de gifler autrui.
La modération est, depuis longtemps, une épine dans le pied des grandes entreprises du Web, accusées de ne pas assez investir pour la sécurité des internautes, et d’avoir conçu des plates-formes impossibles à contrôler. Les métavers, parfois décrits comme notre futur en ligne, pourraient-ils être l’occasion de faire les choses correctement, dès le commencement ? Ou, au contraire, est-on déjà en train de reproduire les erreurs du passé ? « La modération est souvent utilisée comme un pansement pour régler les problèmes structurels des plates-formes, regrette Katherine Cross. On doit construire des métavers qui prennent en compte les abus potentiels dès la première ligne de code. Mais, pour des grosses entreprises comme Meta, malheureusement, la modération restera probablement un sujet auquel on réfléchira après coup. Comme cela a toujours été. »