Face aux différentes menaces, les entreprises technologiques et les plateformes de messagerie intègrent le chiffrement afin de préserver l’intimité des conversations privées. Problème : cette mesure peut s’avérer contre-productive en matière de protection de l’enfance et des mineurs, notamment lorsqu’il s’agit de contenus violents à caractère sexuel et de pédocriminalité.

En 2022, la Commission européenne avait déjà partagé une nouvelle stratégie numérique, concernant la protection des mineurs sur Internet, avec l’instauration de trois mesures. Objectif de la première d’entre elles : protéger les enfants contre le harcèlement en ligne mais aussi contre les contenus à caractère sexuel illicites et les prédateurs pédophiles en mettant en place une norme de vérification de l’âge en ligne.

Une décision qui fait toujours l’objet d’âpres débats entre les divers acteurs entre les tenants strictes de la confidentialité et ceux favorables à une approche plus modulable pour les plus vulnérables alors qu’est actuellement discuté le règlement européen « Child sexual abuse regulation » (CSAR). Lors du Forum InCyber 2024, une table ronde a ressemblé plusieurs experts issus du monde de la technologie mais aussi de la protection de l’enfance pour tenter d’esquisser des convergences au bénéfice de l’enfant, sans porter atteinte à son droit à la vie privée.

Une explosion des menaces à caractère sexuel

Une estimation récente annonce qu’environ 88 millions de photos et de vidéos d’enfants sexuellement abusés ont circulé sur le Web en 2022. Socheata Sim, responsable de la mission sociale France de Cameleon, une ONG qui lutte contre la pédocriminalité depuis 26 ans en France et aux Philippines, a brossé un constat préoccupant en recensant quatre tendances.

En premier lieu, il y a le « grooming », une activité qui consiste à solliciter des enfants pour faire des jeux sexuellement connotés. Le prédateur se faisant passer anonymement pour un autre enfant pour l’inviter ensuite à partager des informations intimes et le pousser à faire des actes illicites.

Autre pratique répandue : la corruption de mineur. Le pédocriminel envoie un lien d’alerte à un jeune en précisant de ne pas cliquer. Ce que ce dernier fait souvent par curiosité avant de se retrouver confronté à des images et des vidéos pornographiques. Avec des effets délétères comme l’a précisé Hervé Le Jouan, entrepreneur notamment spécialisé dans la sécurité technologique : « 66% des 11-13 ans ont été en moyenne exposés une fois à ce type de contenus. Un tiers peut devenir accro, perdre ses émotions et s’isoler. Cette addiction peut se poursuivre à l’âge adulte. »

Un troisième danger rôde : la « sextorsion ». Les adolescents s’échangent souvent des photos d’eux-mêmes nus quand ils flirtent. Or cela devient problématique lorsqu’un prédateur sexuel parvient à mettre la main dessus et menace de tout diffuser publiquement si le jeune n’exécute pas ensuite ses désirs.

Enfin, il y a les séances de « live streaming » (notamment sur les messageries) où les enfants et les adolescents peuvent voir des sévices sexuels, des séquences de torture ou de suicide particulièrement violentes. Selon WeProtect Global Alliance, une ONG luttant contre l’exploitation sexuelle des enfants, deux tiers des jeunes de 18 ans en France ont déjà assisté à de telles séquences durant leur enfance.

Assouplir les règles pour mieux protéger ?

Face à ces enjeux, Tijana Popovic, conseillère affaires publiques en Belgique de l’ONG Child Focus, s’alarme à propos des acteurs qui font de la résistance concernant la protection de la vie privée des enfants. Son propos n’est pas de s’ériger contre les règlements en question mais d’introduire des assouplissements au regard du besoin de protection des jeunes contre les contenus à caractère sexuel illicites.

Elle cite notamment le cas d’une jeune Belge de 10 ans, appelée Lola pour préserver son anonymat. Dix-sept ans plus tard, la police a retrouvé lors d’une investigation des contenus d’elle encore consultés et partagés par près de 12 900 prédateurs. Lesquels utilisent souvent des outils d’anonymisation pour masquer leurs empreintes numériques.

Pour elle, la vie privée (privacy) n’est d’une part pas un droit monolithique. Cela comprend au contraire plusieurs droits comme celui à l’oubli numérique, la rectification des données personnelles, etc. D’autre part, si cela peut fonctionner pour des adultes, cela devient plus délicat pour des enfants qui n’ont pas forcément conscience de toutes ces dimensions. A ses yeux, refuser de passer au crible des conversations qu’ils ont, peut conduire à passer à côté de dangers pédopornographiques bien réels.

Sans remettre en cause ou rogner sur la vie privée des jeunes, l’idée serait donc de pouvoir technologiquement inspecter et détecter les faits déviants pour intervenir aussitôt avec le retrait des contenus incriminés et le signalement aux autorités compétentes. Un point auquel rechignent encore beaucoup les plateformes, estimant qu’une telle approche pourrait leur faire perdre des utilisateurs et que technologiquement, il n’existe pas aujourd’hui de solution réellement viable.

Le débat est donc loin d’être épuisé. Sans doute, un mélange de technologie et d’inspection humaine pourrait être plus efficace comme le suggère en conclusion Romeo Ayalin, stratège en cybersécurité.

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.