in

TikTok : des vidéos d’automutilation recommandées à des adolescents

TikTok : des vidéos d’automutilation recommandées à des adolescents



f77e0c9b tiktok l algorithme expose des videos d automutilation aux adolescents 800 800 overflow

TikTok diffuse des contenus autodestructeurs à de jeunes adolescents. C’est le résultat d’une étude menée par le Center for Countering Digital Hate (CCDH), une ONG internationale qui lutte contre la haine en ligne, publiée jeudi 15 décembre.

Un test grandeur nature

Dans le cadre de cette étude, les chercheurs de l’organisation ont créé plusieurs nouveaux comptes sur l’application, aux États-Unis, au Royaume-Uni, au Canada et en Australie. Des nouveaux profils paramétrés sur l’âge minimum autorisé, soit 13 ans. Les chercheurs ont ensuite « liké » ou visionné pendant quelques secondes des contenus vidéo sur des sujets tels que « l’image corporelle et la santé mentale. »

En moins de trois minutes, l’application s’est mise à suggérer à ses utilisateurs tests des vidéos sur le suicide. Et quelques instants plus tard, « TikTok a recommandé du contenu lié aux troubles alimentaires« , affirme le rapport du CCDH. Des contenus suggérant des pratiques proches de l’automutilation et de l’anorexie ont ensuite été mis en avant.

« Les comptes vulnérables de notre étude ont reçu 12 fois plus de recommandations de vidéos d’automutilation et de suicide que les comptes standard« , avance l’ONG.

La faute à un algorithme auto-apprenant

Les résultats des chercheurs ne sont guère surprenants. L’algorithme de TikTok est conçu pour maximiser le ciblage des vidéos proposées aux utilisateurs. Un like, un commentaire, une pause de quelques secondes sur une vidéo… toutes les micro-actions sont scrutées afin de proposer des clips « pertinents. » L’algorithme auto-apprenant de TikTok constitue en réalité le moteur de l’application. Plus l’utilisateur passe du temps sur l’application et visionne des vidéos, plus les contenus proposés seront ciblés en fonction des goûts de l’internaute.

Une spirale infernale qui peut conduire à proposer des contenus autodestructeurs si l’utilisateur est dans une mauvaise passe. « TikTok identifie la vulnérabilité de l’utilisateur et en tire parti. […] Plutôt que le divertissement et la sécurité, nos conclusions révèlent un environnement toxique pour les plus jeunes utilisateurs de TikTok, intensifié pour les plus vulnérables« , assure le Center for Countering Digital Hate.

TikTok dénonce une vision faussée

Contacté par nos confrères du Guardian, TikTok assure de son côté que l’étude du CCDH ne reflète pas la réalité du terrain. « Nous consultons régulièrement des experts de la santé, supprimons les violations de nos politiques et donnons accès à des ressources de soutien à toute personne qui en a besoin« , assure un porte-parole de l’application.

Et d’ajouter : « Nous sommes conscients que le contenu déclencheur est unique à chaque individu et restons concentrés sur la promotion d’un espace sûr et confortable pour tout le monde, y compris les personnes qui choisissent de partager leur parcours de rétablissement ou d’éduquer les autres sur ces sujets importants. »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Oppo, Steam Deck, Elon Musk et cartes graphiques... La Quotidienne des Nums [16/12/2022]

Oppo, Steam Deck, Elon Musk et cartes graphiques… La Quotidienne des Nums [16/12/2022]

Panasonic, Sennheiser, Philips... les meilleurs bons plans du 16/09/2022

Samsung, Hobot… les meilleurs bons plans du 15/12/2022