* . * .*.

TikTok peut-il être rendu responsable du suicide d’adolescents ?


La première fois que Gaëlle a entendu parler de TikTok, elle ne s’en est pas vraiment méfiée. Tout juste a-t-elle pensé que les défis de danse que relevaient la fille d’une collègue sur la plateforme étaient “surprenants” pour une enfant de son âge. Lorsque sa propre adolescente obtient son premier téléphone portable, à son entrée en cinquième, Gaëlle ne fait donc “pas tellement attention” à l’installation de l’application chinoise sur son smartphone – même si elle instaure un contrôle parental et veille à ce que le Wi-Fi du domicile familial soit éteint “dès 21 heures”. Quelques mois plus tard, la mère de famille est contactée par la professeure de danse de sa fille, qui l’alerte sur les “scarifications impressionnantes” qui strient les bras de la collégienne. En quelques mois, sa santé mentale se dégrade violemment : l’année suivante, la jeune fille fait une tentative de suicide en ingérant une quantité quasi létale de paracétamol. Puis perd “plus de 15 kilos en trois mois”, passant de 50 à 35 kilos en 2023 – au point d’être hospitalisée pendant plus d’un an.

“On s’est rendu compte qu’elle rapportait beaucoup d’histoires de gens qui n’allaient vraiment pas bien. On s’est demandé où elle les rencontrait, puis comment elle avait appris que le paracétamol pouvait être létal, ou comment elle avait eu l’idée de se scarifier”, raconte Gaëlle. Soupçonnant un lien avec les réseaux sociaux, elle décide finalement de couper l’accès de sa fille à TikTok, et observe un “changement net” dans le comportement de son enfant. “On lui a alors parlé des réseaux sociaux, et elle nous a raconté la spirale dans laquelle elle était tombée sur la plateforme”, souffle Gaëlle, qui évoque les vidéos “qui mettent en scène, romantisent et glamorisent l’automutilation et l’anorexie”, les “incitations à ne plus manger” à longueur de contenus, ou encore “les boucles vidéos d’adolescents qui décrivent en détail leurs pensées suicidaires et dépressives”. “Il y a un mécanisme extrêmement pervers, qui enferme les adolescents dans des contenus nocifs sans aucune modération. C’est une arme dangereuse”, conclut la mère de famille.

Membre du collectif de proches de victimes “Algos victima”, Gaëlle fait partie des sept familles françaises à avoir sollicité l’avocate spécialiste du droit du numérique Laure Boutron-Marmion, qui a annoncé le 4 novembre dernier avoir déposé un recours collectif contre TikTok au tribunal civil de Créteil – une première en Europe. Le réseau social est notamment accusé d’être en partie responsable de la dégradation de la santé mentale et physique de sept adolescentes, dont deux ont mis fin à leurs jours à l’âge de 15 ans, et quatre ont tenté de se suicider. “Deux choses sont concrètement reprochées à TikTok : le fait d’avoir conçu une application délibérément addictive qui pousse, par le biais de son algorithme, des contenus dangereux, et le fait que ces contenus ne soient pas suffisamment modérés”, développe l’avocate auprès de L’Express.

“C’est l’escalade dans l’horreur”

Face au géant chinois, Me Boutron-Marmion a bien conscience que la lutte sera rude. “Je m’attends évidemment à l’argument prévisible selon lequel ces contenus ne sont pas directement créés par TikTok, que la plateforme n’est qu’un hébergeur et ne peut à ce titre pas être incriminée, par exemple”, prévoit l’avocate, pour qui cet argumentaire est “largement insuffisant”. “Le problème n’est pas tant l’existence des vidéos en soi, mais plutôt leur manque de modération par TikTok, et la viralité de ces contenus permise par la dynamique algorithmique de la plateforme”, souligne-t-elle. Toute la complexité du dossier repose ainsi sur le fait de prouver le lien de causalité entre le suicide, les tentatives de suicide des adolescents ou leur état psychologique général (auto-mutilation, épisodes d’anorexie…), et le visionnage en boucle de vidéos propulsées par TikTok sur le fil d’actualité de ces jeunes utilisateurs.

“Dans ce cas, la plateforme pourrait être rendue responsable des dégâts corporels causés chez ces adolescents, et être condamnée à régler des indemnités aux familles. Cette décision pourrait aussi les inciter à changer leur politique commerciale, notamment sur le problème des algorithmes”, espère l’avocate. De son côté, TikTok indique à L’Express n’avoir reçu “aucune notification relative à cette procédure judiciaire”, et précise que ses règles communautaires indiquent “très clairement” qu’il “n’est pas autorisé d’exposer, de promouvoir ou de partager des projets de suicide ou d’automutilation”. Entre avril et juin 2024, parmi les vidéos supprimées par la plateforme pour violation de ces règles communautaires, “98,8 % ont été retirées de manière proactive, 91 % de ces vidéos n’ayant pas été visionnées”, est-il précisé, tandis que le réseau social assure “s’efforcer d’appliquer soigneusement des limites” à certains contenus qui “peuvent avoir un impact sur l’expérience de visionnage s’ils sont visionnés à plusieurs reprises”, en particulier lorsqu’il s’agit de vidéos sur les thèmes de “la tristesse, l’exercice extrême ou les régimes”.

Et pour cause. Depuis le début des années 2020, plusieurs rapports internationaux ont déjà mis en lumière “la dangerosité” des fameux algorithmes créés par TikTok sur certains types de vidéos. En décembre 2022, une étude de l’ONG britannique Center for Countering Digital Hate montrait ainsi qu’un utilisateur de 13 ans qui aurait passé quelques secondes devant des contenus liés à l’image de soi et aux enjeux de santé mentale se verrait proposer “douze fois plus de vidéos liées au suicide”, serait redirigé au bout de “2,6 minutes en moyenne” vers des vidéos sur le suicide, et au bout de “huit minutes” vers des contenus sur les troubles alimentaires. Même type de constat au terme d’une étude menée par AI Forensics, Algorithmic Transparency Initiative et Amnesty International, publiée en novembre 2023, selon laquelle “les enfants et les jeunes qui regardent des contenus liés à la santé mentale sur leur fil TikTok sont rapidement entraînés dans des “spirales” de contenus qui idéalisent et encouragent les pensées dépressives, l’automutilation et le suicide”. “C’est l’escalade dans l’horreur : on parle de challenges sur la largeur des scarifications, l’endroit où se les infliger, une banalisation du désir de suicide, une glamorisation des idées noires ou de la privation alimentaire”, martèle Me Boutron-Marmion.

“Risque systémique”

Au point que le tout récent Règlement européen sur les services numériques (DSA, en anglais), mis en place par la Commission européenne et entré en vigueur en août 2023, précise dans son article 34 que les fournisseurs de très grandes plateformes en ligne – comme TikTok – sont tenus de “recenser, analyser et évaluer de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs […] systèmes algorithmiques”, comprenant “tout effet négatif réel ou prévisible lié […] à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes”.

“Il n’existe pas de texte spécifique sur la responsabilité des plateformes et de leurs algorithmes sur la santé mentale en France, mais le droit européen prévaut, et un manquement au DSA pourrait directement influencer cette procédure en France… Si tant est que le manquement peut être prouvé”, analyse Constantin Pavléas, avocat spécialiste du droit du numérique. Selon le DSA, les fournisseurs de plateformes en ligne sont par ailleurs tenus de retirer ou de bloquer rapidement les contenus signalés comme “manifestement illicites”. “Là encore, il peut y avoir un écueil : certaines vidéos évoquant le suicide ou l’automutilation sur TikTok ne sont pas clairement illicites, et tombent dans une sorte de zone grise, sans obligation de retrait”, décrypte son confrère Alexandre Archambault, également avocat spécialiste du droit du numérique.

Enquêtes ouvertes par la Commission européenne

Reste que le fonctionnement de TikTok est fermement surveillé par la Commission européenne, qui annonçait en février 2024 l’ouverture d’une enquête visant la plateforme pour des manquements présumés au DSA, concernant précisément la protection des mineurs. La Commission évoquait notamment “les risques liés à la conception addictive” de TikTok et les “contenus préjudiciables” qui y étaient diffusés. Cette procédure d’infraction, toujours en cours, doit permettre à la Commission de s’assurer que TikTok prend les mesures nécessaires “pour protéger le bien-être physique et émotionnel des jeunes Européens”, commentait à l’époque le commissaire européen au marché intérieur, Thierry Breton. “La Commission ne ferme pas les yeux sur les pratiques de TikTok, et s’intéresse de près au fonctionnement et au caractère addictif de ses algorithmes et la manière dont la plateforme tente ou non d’atténuer ces risques”, confirme auprès de L’Express Thomas Regnier, porte-parole à la Commission européenne pour l’économie numérique, la recherche et l’innovation.

“L’enquête est en cours, TikTok collabore et coopère. S’il est confirmé que la plateforme a enfreint le DSA, elle risque une confirmation de l’enquête préliminaire, qui peut mener à une décision de non-conformité accompagnée d’une sanction financière allant jusqu’à 6 % du chiffre d’affaires mondial de la plateforme”, est-il précisé. Depuis un an, Thomas Regnier ajoute que “six demandes d’informations différentes” ont été envoyées par la Commission à TikTok – la plupart étant liées “à la protection des mineurs, au fonctionnement des algorithmes et aux systèmes de recommandation de la plateforme”. Deux enquêtes formelles – dont celles de 2022 – ont été ouvertes.

Dans un tel contexte, le recours déposé par Me Laure Boutron-Marmion permettra “peut-être de faire jurisprudence, et d’éveiller les consciences aux risques liés à ce type de réseau social”, conclut l’avocate, évoquant le cas britannique de Molly Russel, jeune adolescente de 14 ans qui s’était suicidée en 2017. Après une longue enquête, Meta – propriétaire de Facebook et Instagram – et Pinterest ont été reconnus en partie responsables de sa mort à l’automne 2022. Les enquêteurs chargés d’établir les causes du décès ont ainsi précisé que “les effets négatifs des contenus en ligne”, consommés de manière massive par la jeune femme par le biais des algorithmes, ont “significativement contribué” à son suicide. Selon l’enquête, durant les six mois précédant sa mort, Molly avait visionné 138 vidéos évoquant le suicide ou la mutilation sur les réseaux sociaux.




Source

.. . . . . . . . . . . . . . . . . . . . .. . . .%%%...*...........................................$$$$$$$$$$$$$$$$$$$$--------------------.....