
Le logo de la plateforme chinoise TikTok. © Loïc Venance, AFP
TikTok, propriété du groupe chinois ByteDance, "expose en toute connaissance de cause nos enfants, nos jeunes, à des contenus toxiques, dangereux, addictifs". C'est ce qu'écrit le député PS Arthur Delaporte dans l'avant-propos du rapport issu de la commission d'enquête qu'il a présidée sur les effets psychologiques de TikTok sur les mineurs.
"On doit absolument agir rapidement", affirme la députée Renaissance Laure Miller et rapporteuse. Le rapport était présenté jeudi 11 septembre d'une conférence de presse à l'Assemblée nationale.
Il est le fruit de près de 100 heures d'auditions d'experts, acteurs et témoins, et de l'examen de plusieurs dizaines de milliers de réponses dans le cadre d'une consultation citoyenne. Ce rapport, qui met en évidence les "effets dévastateurs" de TikTok sur la santé mentale des jeunes, vise à une "sensibilisation massive" et une traduction rapide en "actes politiques".
Parmi les mesures phares : l'interdiction des réseaux sociaux aux moins de 15 ans, un "couvre-feu numérique" pour les 15-18 ans, ou encore la création d'un délit de "négligence numérique" pour les parents.
Jeudi, Arthur Delaporte a annoncé avoir saisi la procureure de la République de Paris pour "mise en danger" de la vie des utilisateurs.
"TikTok ne peut pas ignorer qu'ils mettent en danger des dizaines de millions de jeunes, voire des centaines de millions de jeunes dans le monde entier", a-t-il affirmé lors de la conférence de presse.
Pour afficher ce contenu X (Twitter), il est nécessaire d'autoriser les cookies de mesure d'audience et de publicité.
Accepter Gérer mes choixDerrière le discours d’alerte, le rapport s’appuie sur des chiffres et des témoignages qui dressent un tableau préoccupant du quotidien numérique des adolescents.
Bulles algorithmiques et contenus dangereux
Conçu pour capter l'attention, l’algorithme de TikTok expose massivement les adolescents à des contenus sensibles.
Quelque 41 % des jeunes utilisateurs de 11 à 14 ans déclarent avoir été confrontés à des images pornographiques et 47 % à des scènes violentes, selon la consultation citoyenne menée dans le cadre de l'enquête.
Plus inquiétant encore, le système de recommandation enferme les mineurs dans de véritables "bulles" [de filtre], renforçant certaines tendances potentiellement dangereuses.
Pour afficher ce contenu X (Twitter), il est nécessaire d'autoriser les cookies de mesure d'audience et de publicité.
Accepter Gérer mes choixUn expert a notamment souligné qu’après seulement cinq à six heures passées sur l'application, près d’une vidéo sur deux était relative à la santé mentale et potentiellement nocive. Autant d’éléments qui, selon la commission, justifient une réponse législative et technique proportionnée à l’ampleur du risque.
Les rapporteurs notent ainsi que TikTok ne se base pas sur ce que l'utilisateur aime, mais ce sur quoi il "reste le plus longtemps", ce qui aboutit à mettre en avant "les contenus les plus trash".
"Ces systèmes mettent en avant les contenus les plus virulents, clivants et néfastes, car ceux-ci sont les plus susceptibles de garantir l’implication des utilisateurs et utilisatrices", explique en ce sens Anne Savinel-Barras, présidente de Amnesty international France.
"La motivation première de TikTok n'est pas le bien-être de ses utilisateurs, elle a pour finalité unique le profit.
Cette stratégie commerciale agressive, dénuée de considérations éthiques pour la santé et le bien-être des utilisateurs, transforme ces plateformes en outils d’une puissance quasi incontrôlable "
– Servane Mouton, neurologue et neurophysiologiste, coprésidente de la commission d'experts sur l'impact de l'exposition des jeunes aux écrans.
En 2024, une enquête du CIDJ / Ifop, révélait par ailleurs que 65 % des jeunes interrogés disaient ressentir une forme de dépendance à leur smartphone.
"Est-ce que sous le prétexte que certains ados vivent bien leur vie sur les réseaux sociaux, on doit sacrifier tous les autres ados qui se retrouvent piégés par les effets de l'algorithme ?", lance Laure Miller jeudi à l'Assemblée. "La réponse est non".
Les députés avancent ainsi une série de propositions inédites en Europe, destinées à reprendre la main sur l’encadrement du numérique.
Âge minimal, couvre-feu, délit de "négligence numérique"
- Interdire les réseaux sociaux aux moins de 15 ans
Alors que, selon une étude de l'association e-Enfance, "65 % des enfants de 6 à 8 ans sont inscrits sur les réseaux sociaux", Laure Miller évoque la nécessité d’interdire l’accès aux réseaux sociaux aux moins de 15 ans, excepté pour l’usage de messageries.
La France a déjà mis en place des règles strictes de vérification de l’âge pour les sites pornographiques, ce qui a d'ailleurs conduit des plateformes telles que Pornhub à bloquer son accès aux utilisateurs français.
- Un couvre-feu numérique
L’idée de rendre inaccessible les réseaux entre 22 h et 8 h pour les 15-18 ans, proposée par la commission d'enquête, est une première en Europe. À ce jour, aucun autre État membre n’a envisagé une restriction horaire aussi stricte.
"Des jeunes eux-mêmes trouvent que ça peut être une bonne idée", défend Laure Miller, ajoutant que de leur propre aveu, ceux-ci disent vouloir remédier ainsi à leur dépendance aux réseaux sociaux, aux troubles du sommeil et à la perte d’attention qui en découlent.
- Responsabilité des parents et de l'école
Estimant indispensable que chacun se "responsabilise", la rapporteuse va jusqu'à soumettre à la réflexion l'idée d'un "délit de négligence numérique" parental dans un horizon de trois ans, en imaginant d'ici là mettre en place une "campagne d'information massive" destinée à combler les lacunes des parents.
Les "manquements graves" en la matière pourraient être punis de deux ans d'emprisonnement et de 30 000 euros d'amende, envisage le rapport. Il pourrait s'agir de transposer dans le domaine numérique l’idée de carence éducative ou de mise en danger par omission.
Pour afficher ce contenu X (Twitter), il est nécessaire d'autoriser les cookies de mesure d'audience et de publicité.
Accepter Gérer mes choixLaure Miller n'a pas manqué d'évoquer d'autres acteurs clés, à l'instar du personnel éducatif.
"Une prise de conscience de l'Éducation nationale est nécessaire", pointe-t-elle, énumérant les très nombreux usages quotidiens du système éducatif des réseaux sociaux, et plus largement des écrans : devoirs à consulter sur un logiciel, livres exclusivement numériques dans certains établissements, boucles de discussions sur les réseaux sociaux, WhatsApp ou Telegram...
"On doit pouvoir étendre la pause numérique au [temps d'étude], et se poser la question d'une forme de décroissance numérique au sein de l'éducation nationale."
"Reprendre la main en droit national"
Reste à savoir jusqu’où la France peut aller dans ce combat. Car si un cadre existe déjà au niveau européen, les rapporteurs estiment qu’il faut aller plus loin, et vite.
Le "DSA" (Règlement européen sur les services numériques), impose des obligations aux plateformes concernant la modération, la vérification de l’âge, ou encore la transparence des algorithmes.
Si Laure Miller salue cet arsenal législatif, elle invite à "ne pas se satisfaire de ce qui est fait dans l'UE, et de reprendre le contrôle sur la vie de nos jeunes en France".
Une loi sur la majorité numérique, adoptée à l’été 2023 en France, prévoit déjà une autorisation parentale pour les moins de 15 ans pour accéder aux réseaux sociaux. Mais cette loi n’est pas encore entrée en application, notamment par manque de clarté sur sa compatibilité avec le droit européen.
"Cet été, la Commission européenne – sous la pression notamment de la France – a ouvert la possibilité aux droits nationaux [de légiférer sur un âge minimum pour accéder aux réseaux sociaux], explique la rapporteuse, insistant sur la "fenêtre de tir" dont disposent maintenant les parlementaires français.
Cela coïncide selon elle avec l'arrivée, au printemps prochain, d'un logiciel-test fourni à la France par la Commission européenne afin de procéder à la vérification de l'âge des utilisateurs, via "un système labellisé et fiable de double anonymat".
Des mesures préventives qui doivent, selon le rapport, s'accompagner d'un durcissement des sanctions à l’égard des plateformes. Avec une application beaucoup plus stricte et systématique que ce que prévoit le DSA – des amendes s'élevant jusqu'à 6 % du chiffre d'affaires mondial en cas de manquement grave.
Faire pression sur les plateformes
La responsabilité des géants du numérique reste en effet au centre des préoccupations. La commission insiste ainsi sur la nécessité de contraindre les plateformes à changer de pratiques.
Avec une baisse de 26 % des modérateurs francophones sur TikTok en un an, c'est un enjeu crucial.
"Un travail colossal est fait par les signaleurs de confiance, mais ils sont "en train de vider l'océan avec une petite cuillère trouée", affirme Laure Miller, jugeant notamment indispensable de renforcer les équipes locales, capables d’identifier et de supprimer rapidement les contenus sensibles, et de "réguler leurs conditions de travail".
Entre pressions citoyennes, cadre européen et rapports de force politiques à l’Assemblée nationale, l’avenir de ces mesures dépendra de la capacité du gouvernement et des députés à transformer l’alerte en loi.
"Dans une phase politique compliquée, avec une Assemblée morcelée, c'est un sujet qui peut nous rassembler", croit Laure Miller.
Mais entre l’urgence sanitaire mise en avant par la commission et la lenteur des rouages politiques, le risque est clair : que le temps perdu profite davantage aux algorithmes qu’aux adolescents.