Deux ans après son suicide, les parents de Marie, 15 ans, attaquent TikTok en justice pour « provocation au suicide », « non-assistance à personne en péril » et « propagande ou publicité des moyens de se donner la mort ». Même s’il reste encore peu connu, l’algorithme de TikTok, encore plus que celui d’Instagram, est de plus en plus dénoncé pour ses effets dévastateurs sur la santé mentale des adolescents.
Un algorithme peut-il tuer ? C’est la question que posent les parents de Marie, 15 ans, qui s’est suicidée en septembre 2021 à Cassis, à la justice française. Dans une plainte déposée début septembre, les parents accusent le réseau social chinois TikTok, coqueluche des adolescents du monde entier, de « provocation au suicide », de « non-assistance à personne en péril » et de « propagande ou publicité des moyens de se donner la mort ». La plainte fait actuellement l’objet d’un examen par le parquet de Toulon.
Avalanche de vidéos sur le suicide
Comme six adolescents sur dix, Marie utilisait régulièrement TikTok. En analysant son téléphone après son décès, ses parents ont découvert que leur fille avait publié une vidéo sur le réseau social, dans laquelle elle évoquait son mal-être, le harcèlement qu’elle subissait à cause de son poids, et son envie de suicide. La publication va automatiquement engendrer, sur son compte, l’arrivée d’autres vidéos sur le même thème.
Le réseau social détenu par l’entreprise chinoise Bytedance s’est taillé un succès fulgurant en à peine cinq ans, avec 1,7 milliard d’utilisateurs actifs par mois, dont 15 millions en France. Parmi eux, 67% ont moins de 24 ans. Son secret ? Le format des vidéos - moins de 8 secondes en moyenne, parfait pour faire défiler les contenus sur son écran sans se lasser - et un algorithme « chimiquement parfait », d’une précision et d’une puissance inégalée, d’après les mots de la chercheuse et sociologue américaine Julie Albright, de l’Université de Californie du Sud.
Dans son étude, la chercheuse estime que TikTok a trouvé le format parfait, car chaque nouvelle vidéo déclenche une dose de dopamine dans le cerveau, ce qui contribue à créer une addiction au service, qui modifie in fine le temps d’attention des utilisateurs. Effectivement, les deux tiers des adolescents américains passent 80 minutes par jour sur TikTok, soit plus du double que sur n’importe quelle autre application.
TikTok apparaît également comme « plus rapide que n’importe quelle autre plateforme pour détecter les centres d’intérêts des utilisateurs », ajoute Marc Faddoul, le co-directeur de l’ONG Tracking Exposed, qui travaille sur l’algorithme de TikTok. Dans la section « Pour toi », TikTok pousse des vidéos choisies sur-mesure par l’algorithme et publiées par des personnes que l’utilisateur ne suit pas forcément, sur la base de ce qu’il déduit de ses centres d’intérêts.
« TikTok identifie les vulnérabilités et capitalise dessus »
Dans le cas d’une adolescente avec des pensées suicidaires par exemple, il suffit de manifester un intérêt pour le sujet - via une vidéo comme Marie, ou juste des interactions comme un like, un partage, une pause sur une image, un commentaire ou cliquer sur des mots-clés associés -, pour que l’algorithme déduise qu’il s’agit d’un centre d’intérêt et propose davantage de contenus similaires. La précision est telle que l’algorithme déduit parfois des choses dont les utilisateurs n’ont pas encore pleinement conscience, à l’image de cette femme qui a écrit un article intitulé « L’algorithme de TikTok connaît ma sexualité mieux que moi-même ».
Ainsi, d’après une étude publiée fin 2022 par le Centre de lutte contre la haine numérique, une ONG anglo-saxonne, il a fallu 2,6 minutes à TikTok pour recommander du contenu suicidaire à un profil d’adolescent « vulnérable ». Et 8 minutes pour voir apparaître des vidéos sur des troubles alimentaires pour un autre faux profil créé par les chercheurs. Or, « ces comptes se sont seulement brièvement arrêtés sur des vidéos sur l’image corporelle et la santé mentale, et les ont likés », décrivent les chercheurs, qui considèrent le fonctionnement de l’algorithme de TikTok comme « un cauchemar pour tous les parents ». « Les flux des jeunes sont bombardés de contenus qui peuvent avoir un impact cumulatif significatif sur leur compréhension du monde qui les entoure, et sur leur santé physique et mentale », estiment-ils.
Et de conclure :
TikTok identifie la vulnérabilité de l’utilisateur et capitalise dessus. Les comptes vulnérables de notre étude ont reçu 12 fois plus de recommandations de vidéos d’automutilation et de suicide que les comptes standards.
Quelle responsabilité pour TikTok ?
Contrairement à l’image largement répandue par la classe politique du « far-west » qui sévirait sur Internet et sur les réseaux sociaux, tout ce qui est interdit dans la vie réelle l’est aussi en ligne. Les plateformes sont obligées d’effectuer une modération stricte des contenus qui tombent manifestement sous le coup de la loi (comme la pédopornographie et la haine en ligne) et de lutter contre les contenus qui tombent dans les zones grises de la liberté d’expression (racisme, sexisme, harcèlement, promotion des troubles alimentaires et du suicide...).
Mais les plateformes comme Meta (Facebook, Instagram), X (ex-Twitter) ou TikTok utilisent leur statut d’hébergeur, qui ne les rend pas responsables des contenus qu’elles hébergent, pour réguler le moins possible les contenus. La raison est économique : plus les utilisateurs interagissent avec les contenus et passent du temps sur l’application, plus ils disséminent leurs données personnelles, que les plateformes vendent ensuite aux annonceurs pour afficher de la publicité extrêmement personnalisée. De nombreuses études internationales ont prouvé que les contenus les plus problématiques sont aussi ceux qui génèrent l’engagement le plus fort : c’est la fameuse économie de l’attention.
Toutefois, le Digital Services Act (DSA), entré en vigueur depuis le 25 août 2023, a créé un nouveau régime de responsabilité pour les très grandes plateformes. Ce qui pousse TikTok, par exemple, à verrouiller l’accès à des mots-clés problématiques comme « suicide » ou « pro-ana » (un terme désignant les contenus faisant l’apologie de l’anorexie). Mais le flux de vidéos est tel - des milliards de vidéos circulent sur TikTok et le flux se renouvelle en permanence - que ces initiatives apparaissent moins comme des murailles que comme de simples obstacles assez faciles à contourner.
Instagram condamné au Royaume-Uni dans une affaire similaire
De son côté, TikTok revendique une grande réactivité vis-à-vis des contenus qui ne respectent pas ses « règles communautaires ». Les vidéos promouvant le racisme, la haine, le harcèlement ou encore les troubles de l’alimentation, en font partie. « Lorsqu’une vidéo est publiée sur TikTok, son intelligence artificielle analyse chaque partie de la vidéo : l’audio, les légendes et les hashtags. L’objectif est d’aider l’application à mieux comprendre le contexte des vidéos et son contenu. Le réseau social évalue si la vidéo peut plaire, et à qui. Après cette analyse, TikTok vérifie si le contenu est conforme aux règles communautaires et aux règles de sécurité », écrit Victoire Gué, autrice d’une étude sur le fonctionnement de l’algorithme de TikTok à destination des professionnels du marketing, pour Hubspot.
Mais cette modération paraît toujours clairement insuffisante. Et la justice semble commencer à la reconnaître. En juillet 2022, pour la première fois, un réseau social, Instagram, a été désigné par la justice britannique comme ayant contribué au suicide d’une adolescente de 14 ans, Molly Russell. La jeune fille avait liké, partagé ou sauvegardé plus de 2.100 posts liés au suicide, à l’auto-mutilation ou à la dépression sur Instagram lors des six derniers mois de sa vie.