Quatre heures. Quatre heures suffisent à un mineur pour se voir proposer des contenus valorisant l’automutilation et les idées suicidaires sur TikTok, accuse Amnesty International dans un rapport publié ce mardi. A travers plusieurs exemples, cette nouvelle recherche menée avec des comptes français montre comment le fil « Pour toi » du réseau social enferme les utilisateurs dans des bulles de filtre, des « rabbit hole » – ou terriers de lapin – comme les appelle le rapport, y compris quand il s’agit de contenu préjudiciable.
Menée entre juin et octobre, l’enquête se concentre autour de trois faux comptes d’enfants de 13 ans, l’âge minimal pour être inscrit sur la plateforme. Les chercheurs ont fait défiler les vidéos une à une sans s’attarder. Et lorsque l’une d’entre elles concernait la santé mentale (y compris celles qui comportent des messages positifs), ils les ont regardées deux fois. L’algorithme de recommandation accorde en effet un certain poids au temps de visionnage. « Cela a rapidement fait augmenter le contenu de ce type, avec 50 % de vidéos » tristes » avec des messages négatifs, des musiques lourdes, au bout de vingt minutes », explique Katia Roux, chargée de plaidoyer Libertés chez Amnesty International France.
« Je vous aurai prévenu que j’allais pas bien »
Plus le temps passe, plus l’algorithme s’emballe. Au bout de quelques heures d’utilisation, les publications romantisent les idées noires que peuvent ressentir les adolescents : « Promis ce soir je réussis ma TS [tentative de suicide] », « Un jour je partirai d’ici, me cherchez pas je laisserai pas de trace, je vous aurai prévenu que j’allais pas bien ». Parfois, les utilisateurs utilisent des codes pour contourner la modération automatique, comme l’emoji drapeau suisse (pour suicide) ou le zèbre (pour la scarification). D’autre fois, c’est quasi explicite avec des images de tabourets, de cordes, de lame de rasoir. Le phénomène a pu être reproduit de manière automatisée avec plusieurs autres comptes, indique Amnesty International, qui a collaboré avec l’Algorithmic Transparency Institute pour cette expérience.
L’ONG s’est aussi associée à Algos Victima, un collectif de victimes et famille de victimes. Il s’est constitué après la plainte pour provocation au suicide déposée par la famille de Marie, qui s’est donné la mort en 2021. « Marie était harcelée pour son poids et TikTok l’a catégorisée comme souffrant de problème de santé mentale, dénonce Stéphanie Mistre, sa mère. Or, le but n’est pas la santé mentale mais de profiter de cette faiblesse. Pourquoi ne pas lui avoir proposé un programme sportif, un régime, une sortie ? »
L’application a récemment fait l’objet d’une commission d’enquête. Elle préconisait dans ses conclusions d’imposer un âge minimal de 15 ans, avec des contrôles correspondants. « Nous sommes assez alignés, mais pas sûr que l’interdiction de l’âge soit la meilleure solution, nuance Katia Roux. On veut responsabiliser la plateforme et éviter de porter atteinte au droit à l’information et à la liberté d’expression. Aujourd’hui, l’objectif de TikTok est de maintenir les jeunes en ligne pour engranger des revenus. » En parallèle, Amnesty a saisi l’Arcom et déposé une plainte dans le cadre de DSA [Digital Service Act, le règlement européen sur le numérique].
Les mesures de TikTok ne convainquent pas
De son côté, TikTok tente de montrer patte blanche. En mai, l’appli avait présenté de nouvelles fonctionnalités, comme des comptes « parents » renforcés ou des séances de méditation. Dans le fil « Pour toi », l’algorithme est censé introduire une à deux vidéos qui ne correspondent pas aux préférences de l’utilisateur toutes les huit vidéos. Et pour compléter la modération automatique de certains termes, des experts surveillent les codes utilisés pour contourner l’algorithme. Visiblement, ce n’est pas assez suffisant. « Beaucoup de jeunes ou d’adultes signalent ces contenus et reçoivent comme réponse qu’ils « n’enfreignent pas les règles de la communauté » », se désole Stéphanie Mistre. « Avec plus de 50 fonctionnalités et paramètres spécifiquement conçus pour la sécurité et le bien-être des adolescents, et 9 vidéos sur 10 qui enfreignent nos règles supprimées avant même d’être visionnées, nous offrons de manière proactive une expérience sûre et adaptée à l’âge des adolescents, réagit un porte-parole de TikTok. Sans tenir compte de la façon dont les vraies personnes utilisent TikTok, cette « expérience » a été conçue pour aboutir à un résultat prédéterminé. Les auteurs reconnaissent d’ailleurs que la grande majorité des contenus (95 %) présentés à leurs robots pré-programmés n’étaient en réalité absolument pas liés à l’automutilation. »
Aujourd’hui, Amnesty demande à inscrire les conclusions de son rapport à l’enquête de l’Union européenne sur TikTok et les possibles violations de ses obligations relatives au DSA. Elle demande aussi à la plateforme de « cesser de chercher à maximiser l’engagement des utilisateurs et utilisatrices aux dépens de leur santé et autres droits humains », « cesser de collecter des données personnelles intimes » et « passer à un modèle économique respectueux des droits ». Un vœu pieux quand la quasi-totalité des réseaux sociaux – voire d’Internet – fonctionne maintenant sur ce modèle ? « Si on veut protéger et garantir les droits humains, il faut s’attaquer aux fonctionnalités, choisir la sécurité et combattre l’addiction, répond Katia Roux. L’ensemble des entreprises repose sur ce modèle, mais TikTok est le réseau social plébiscité par les jeunes et se distingue sur ce domaine. » A voir si cela servira l’enquête de l’UE. Elle a été ouverte en février 2024 et est toujours en cours.
La source de cet article se trouve sur ce site