Le président Emmanuel Macron l’a affirmé fermement en décembre dernier à Saint-Malo, le temps est venu d’« imposer à tous les réseaux sociaux la vérification de l’âge » des utilisateurs et interdire leur accès en dessous de « 15 ou 16 ans ». Il n’est pas seul dans ce combat, l’Australie vient de le précéder. Et les textes de loi sont en discussion active au Parlement. 2026 sera t-elle l’année de la grande bascule sur l’accès des jeunes aux réseaux sociaux?  

Une volonté politique de bannissement aussi claire que sa mise en œuvre est complexe

Pour y parvenir, un projet de loi à l’initiative du gouvernement était attendu au début de l’année 2026. En effet, l’incertitude règne sur la marge de manœuvre de la puissance publique nationale : la proposition de loi de la députée Laure Miller (Ensemble pour la République), ayant exactement le même but, vient de bénéficier des recommandations du Conseil d’Etat dans un avis rendu le 8 janvier. Prenant acte de cet avis, la députée a revu son dispositif d’interdiction. L’amendement qui sera discuté dans l’hémicycle le 26 janvier est aussi rationnel pour des juristes, que tarabiscoté pour ceux qui devront le mettre en œuvre, à savoir les jeunes, les parents et les plateformes. En substance, les mineurs de moins de 15 ans n’auraient pas le droit d’accéder à ces plateformes, sans que celles-ci soient pour autant tenues de vérifier l’âge de leurs utilisateurs. Les plateformes constituant « un danger pour l’épanouissement physique, mental ou moral » seraient interdites par décret, tandis que les autres pourraient être accessibles aux mineurs « pouvant justifier de l’accord préalable exprès d’au moins l’un de ses administrateurs légaux ». Aucune sanction ne serait prise contre les mineurs contrevenants, l’efficacité de la mesure serait purement indirecte : nullité de plein droit de tout contrat conclu par le mineur, obligation sous injonction de la Commission européenne (pour les très grandes plateformes) et de l’ARCOM (pour les autres) de retirer ou de bloquer l’accès aux contenus « illicites ». En droit, ça tient debout. En pratique, a-t-on vraiment envie que nos Présidents de la République puissent par simple décret ajouter à la liste des réseaux sociaux ceux qu’il (ou elle) estime contraire à ce qui est moral ? Et comment les parents vont-ils gérer la liste « d’accords préalable exprès » avec leurs enfants ? 

Au fait, d’où vient cette tendance qu’il est temps de bloquer l’accès des mineurs aux mineurs aux réseaux sociaux ?

Cela fait trois décennies que l’internet s’est imposé dans les familles, permettant aux enfants d’être plus doués que leurs parents, et même cinq décennies si l’on parle de l’informatique personnelle. Dans les années 80, les jeunes ridiculisaient père et mère par leur dextérité dans des parties endiablées sur une console de jeu. Aujourd’hui, alors qu’on s’inquiète des méfaits des vidéos en continu sur leur santé mentale (on pense au rapport plus qu’alarmant de la députée Laure Miller), les jeunes en sont déjà à l’étape suivante : confier leurs angoisses à une IA conversationnelle plutôt qu’à leurs darons. 

Ça, c’est pour le ressenti collectif. Mais il y a des sources plus officielles, basées sur des recherches, et notre cadre de régulation européen, le fameux Digital Services Act, ou DSA. 

Pour la chercheuse Ioanna Noula, qui pilote le premier projet de « sandbox réglementaire » appliqué à l’usage par les jeunes des réseaux sociaux et de l’IA, l’étude la plus influente est celle de l’OMS de septembre 2024 sur les adolescents, les écrans et la santé mentale. Elle revient sur chiffres clé : 13 % des filles et 9 % des garçons montrent des signes « semblables » à l’addiction. Les chiffres reposent sur une enquête effectuée en 2022 auprès de 280 000 jeunes âgés de 11, 13 et 15 ans dans 44 pays et régions d’Europe et d’Asie centrale ainsi qu’au Canada. C’est significatif, mais relativement partiel sur son périmètre géographique . De surcroît, l’IA n’avait pas encore pénétré les foyers. Parallèlement, de nouvelles recherches académiques peinent à prouver un lien de causalité entre le temps passé par les enfants sur les réseaux sociaux et une mauvaise santé mentale. Une chose est sûre : la frontière entre comportement à risque et addiction avérée reste, pour l’instant, floue

Ionna Noula est catégorique, le Digital Services Act est déséquilibré sur la question de la protection et de la sécurité des mineurs.Il néglige l’indispensable corolaire qui se trouve dans la Charte des Droits Fondamentaux de l’UE comme dans la Convention des Nations Unies des Droits de l’Enfant : le droit de l’enfant à s’exprimer librement et à être entendu sur les sujets qui le concerne. Au fond, poser le principe de l’interdiction est la partie la plus facile. Le plus difficile est : comment gère-t-on la situation des jeunes qui vont contourner ces mesures, sans accompagnement approprié de leurs parents ?

Le laboratoire australien 

L’Australie a mis en œuvre l’interdiction des réseaux sociaux pour les mineurs de moins de 16 ans par un amendement au Online Safety Act  Celui-ci a été adopté par le Parlement en novembre 2024 et est effectif depuis le 10 décembre 2025. La législation a été adoptée très rapidement : la commission principale n’a accordé qu’une seule journée pour le dépôt des observations et a rendu son rapport cinq jours après que la législation lui a été soumise pour examen ! Dès les premiers jours, Meta a bloqué 550.000 comptes sur ses différents services (330.000 comptes sur Instagram) et a appelé le gouvernement à encourager l’industrie à développer des solutions protectrices adaptées aux âges et usages, plutôt que des interdictions générales. Toby Dagg a travaillé au plus près de la eSafety Commissioner Julie Inman-Grant, la personnalité la plus emblématique à l’international parmi les régulateurs du numérique, et en a dirigé pendant dix ans le pôle d’enquêtes. Il connaît les arguments sur le manque de données de recherche, reconnaît que les délais d’élaboration du texte ont été inhabituellement courts. Pour autant, les données corrélatives concernant les préjudices tels que la dépression, l’anxiété, les troubles alimentaires, le cyberharcèlement, etc. — sont nombreuses et pratiquement tous les parents avec qui il a échangé sont soulagés de ne pas être laissés seuls avec ce fardeau. Pour Toby, le professeur Jonathan Haidt, auteur en 2024 du déjà emblématique The Anxious Generation, est une référence. 

La grande fragmentation

Prudent, Toby Dagg ne se livre pas à des pronostics, mais voit l’interdiction australienne comme un laboratoire qui va voir l’industrie et les utilisateurs adapter ses pratiques, et les failles de la législation se révéler, avec une revue indépendante dans deux ans. 

Si l’on peine à mesurer précisément ce qui se joue sur les réseaux sociaux, à évaluer les risques et à les contenir, est-ce la responsabilité des plateformes ou celle d’un manque de régulation ? Pour Louis-Victor de Franssu, spécialiste du DSA et fondateur de Tremau start-up française développant des solutions de modération de contenus), la difficulté à gérer le volume toujours croissant de contenus en ligne est aujourd’hui commune à l’ensemble des plateformes. Y compris pour les plus grandes qui, malgré des dizaines de millions investis au cours de la dernière décennie, peinent à suivre le rythme de l’innovation technologique et l’émergence constante de nouvelles formes d’abus. La faute à la régulation ? Pas vraiment. L’un des problèmes réside souvent dans l’organisation interne des équipes Trust & Safety. Faute d’une configuration cohérente, les remontées d’information, les signalements des utilisateurs et les actions de modération restent insuffisamment connectés entre eux. Contrairement aux idées reçues, les systèmes internes des plateformes sont fréquemment fragmentés, ce qui réduit l’efficacité globale des dispositifs de protection et expose davantage les utilisateurs, dont les mineurs. Le déploiement massif de l’intelligence artificielle est venu ajouter une couche supplémentaire de complexité à cet écosystème déjà difficile à maîtriser.

Et les jeunes d’ailleurs que sait-on d’eux ? Depuis 2020, les plateformes ont créé des « Youth Councils », de Snapchat à Meta en passant par TikTok, Twitch ou Discord, et Microsoft vient d’annoncer la création du sien. L’objectif est de comprendre l’expérience des jeunes utilisateurs. Mais que valent ces retours d’expérience si les systèmes internes restent fragmentés ? 

Retour… vers la jeunesse

Alors, face à des plateformes mondiales avec lesquelles les jeunes interagissent, mais dont les mécaniques sous-jacentes paraissent impénétrables, il est urgent de se centrer sur l’écoute des jeunes et de leurs usages à l’heure de l’IA. C’est en tout cas la mission que s’est donnée Deborah Elalouf, présidente d’Internet Sans Crainte. Ce programme d’éducation au numérique soutenu par la Commission européenne lancera au Sénat, le 10 février 2026, les « Safer Internet Days ». Les jeunes s’exprimeront devant responsables politiques, institutions et acteurs industriels, qui devront être à l’écoute pour nourrir leurs choix. Dans la foulée, le site Internet Sans Crainte diffusera des kits pédagogiques pour organiser des ateliers de sensibilisation du primaire au lycée, sur le bien-être en ligne et l’éducation critique à l’IA. Ces actions pédagogiques touchent plus d’1,2 million de jeunes. Autant de voix exprimées pour concevoir les outils et ressources à partir de leurs besoins. Et influencer décideurs politiques et plateformes?

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.