La commission d’enquête consacrée aux effets psychologiques de TikTok sur les mineurs a auditionné, ce jeudi 12 juin, plusieurs responsables du réseau social en France. Tout en tentant de défendre le fonctionnement de TikTok, notamment en matière de modération, certains ont admis qu'il existait une "marge d'amélioration" constituant un réel défi quant à la vérification de l'âge de ses utilisateurs.
Après avoir audtionné des influenceurs et créateurs de contenus en début de semaine, la commission d'enquête relative aux effets psychologiques de TikTok sur les mineurs s'est réunie ce jeudi pour entendre les responsables de la plateforme au milliard d'abonnés dans le monde. Alors que cette application, propriété du groupe chinois ByteDance, est la plus prisée par les mineurs, le président de la commission d'enquête, Arthur Delaporte (Socialistes) et sa rapporteure Laure Miller (Ensemble pour la République) ont tenté d'obtenir des réponses quant aux failles et aux dangers vis-à-vis des plus jeunes.
Responsable du développement économique de "TikTok Shop", qui désigne l'enseigne d'e-commerce intégrée à la plateforme, Mehdi Meghzifene a rappelé que les moins de 18 ans en étaient exclus, alors que de manière générale, l'inscription sur TikTok est interdite aux moins de 13 ans.
Le responsable de l’activité commerciale pour la France et le BeNeLux, Arnaud Cabanis, a pour sa part fait valoir que les publicités ne pouvaient pas non plus cibler les moins de 18 ans présents sur TikTok. Il a indiqué que 509 modérateurs exerçaient en France, ces derniers étant chargés de vérifier les contenus y compris publicitaires.
Qualifiant la vérification en matière d'âge de "particulièrement rigoureuse", Mehdi Meghzifene a indiqué que le critère déclaratif constituait le premier niveau de vérification, qu'un algorithme visant à reconnaître les comportements typiques des mineurs en constituait le deuxième palier, et qu'en cas d'"anomalie" détectée, une pièce d'identité et un selfie étaient demandés avant une éventuelle suspension de compte. Laure Miller a aussi estimé que ce dernier niveau de vérification pourrait être exigé a priori, dès la création de tout compte, et non seulement a posteriori en cas de comportement générant une suspicion.
A la question d'Arthur Delaporte sur la possibilité que certains mineurs soient "profilés" à des fins commerciales après être parvenus à tricher sur leur âge, Arnaud Cabanis a admis que le système de vérification dédié ne constituait "pas une science exacte" ni "parfaite" et qu'il était "possible techniquement" que des moins de 18 ans non déclarés soient en effet l'objet de l'attention particulière des annonceurs. Il a cependant indiqué qu'il n'avait "pas de volumétrie à apporter" quant au nombre de mineurs parvenant à déjouer tous les filtres de vérification.
"Au moins deux tiers des mineurs qui ne sont pas identifiés", c'est la proportion dont le président de la commission d'enquête a fait part, se fondant notamment sur des projections de l'institut Médiamétrie. Ce à quoi Nicky Soo, chargée de la sécurité juridique entendue dans la foulée des premières auditions, a répondu qu'en 2024, pas moins de 642 000 comptes appartenant à des moins de 13 ans avaient été supprimés par la plateforme en France. "Il n'y a pas vraiment de solution définitive (...) L'assurance de l'âge, c'est quelque chose qui est un problème", a-t-elle cependant reconnu au regard de ceux, nombreux, qui continuent de passer au travers des mailles du filet.
Brie Pegum, responsable de la gestion des risques sur la plateforme, a pour sa part indiqué que si "100% du contenu" était modéré, "moins de 1%" de cette masse ne respectait pas les conditions d'utilisation de TikTok. Une modération qualifiée de "très dynamique", avec dans 80% des cas, une suppression réalisée avant même l'intervention humaine, via l'algorithme dédié.
Interrogés sur la tendance "SkinnyTok", éloge de la maigreur face auquel les plus jeunes sont particulièrement démunis, Brie Pegum a fait valoir, afin d'expliquer le retard des équipes Tiktok à engager une réponse appropriée, qu'"au départ c'était une tendance qui voulait encourager une alimentation saine". Indiquant que "88 000 contenus" avaient été retirés et le hashtag supprimé quand les "dérives" étaient apparues, elle n'a cependant pas été en mesure d'assurer qu'aucun contenu relatif à cette tendance n'était actuellement visible sur la plateforme. Nicky Soo a évoqué un "modèle de dispersion" algoritmique afin qu'a minima, les contenus liés à l'apparence physique n'atterrissent pas de manière "trop concentrée" auprès de chacun des utilisateurs.
Il y a des jeunes qui sont morts de ces tendances (...) Vous avez une responsabilité sur la vie des gens ! Arthur DelAporte (président de la commission d'enquête)
Interrogée un peu plus tard par la commission d'enquête, la directrice des opérations de Tiktok France, Marlène Masure, a estimé que "certes, ces nouvelles tendances émergent, trop vite et trop souvent, mais on ne peut pas dire que rien n'est fait". Confrontée aux stratégies de contournement algorithmique à des fins de diffusion de contenus dangereux voire morbides, elle n'a pas été en mesure d'apporter de réponse quant aux failles du réseau social en la matière. Les députés évoquaient notamment l'émotîcone représentant un zèbre, devenu le code renvoyant aux pratiques de scarification, ou celui du drapeau suisse apparenté au suicide.
"Toutes ces vidéos ont été signalées et on a reçu une réponse négative de la modération", a fait savoir Arthur Delaporte. Et le député de poursuivre : "Il y a des jeunes qui sont morts de ces tendances (...) Vous avez une responsabilité sur la vie des gens !". Marlène Masure lui a répondu que sur l'année 2024, 6,6 millions vidéos avaient été supprimées en France grâce à la modération de la plateforme. Onze familles françaises ont à ce jour porté plainte contre TikTok, parmi lesquelles deux d'entre elles ont à déplorer la perte d'un enfant.