Adoption difficile du DSA, remise en cause des politiques de modération, accroissement des contenus toxiques en ligne…. Le monde de la sécurité et de la confiance numérique vit une actualité chargée. La dernière édition du Trust & Safety Forum a permis de faire le point.

Les 1er et 2 avril dernier s’est tenu à Lille le Trust & Safety Forum, conjointement au Forum INCYBER (FIC). Pour sa quatrième édition, cet événement international dédié à la promotion d’un environnement numérique plus sûr et digne de confiance a réuni tous les acteurs du Trust & Safety (T&S) : plateformes numériques, régulateurs, ONG ou signaleurs de confiance (trusted flaggers). 

Le Forum a été tout d’abord l’occasion de dresser un premier bilan de l’entrée en vigueur du Digital Services Act (DSA). Ce règlement de l’Union européenne sur les services numériques vise à lutter contre la propagation de contenus illicites en ligne. S’il concernait initialement les très grandes plateformes en ligne (VLOPs), il est, depuis le 17 février 2024, applicable à tous les acteurs opérant sur le marché européen.

Entre autres obligations, les plateformes doivent publier régulièrement des rapports de transparence détaillant leurs politiques de modération, chiffres à l’appui. Afin d’harmoniser ces rapports et permettre leur comparaison, la Commission Européenne a défini en novembre dernier un modèle de données standardisé. À partir de juillet 2025, les plateformes devront collecter leurs données conformément à ces « templates ». Le recours à une « taxonomie » unique garantira la cohérence des données remontées. Les premiers rapports de transparence ainsi standardisés devront être publiés en février 2026. 

Ce changement n’est pas sans impact sur la charge de travail des plateformes. Louis-Victor de Franssu, cofondateur de Tremau, un éditeur spécialisé dans la mise en conformité des plateformes au DSA, observe qu’il faut trois semaines à un mois pour extraire certaines données des systèmes existants. « Par ailleurs, la multiplication des outils voire l’utilisation de solutions qui ne sont pas dédiées à la confiance et la sécurité, comme Salesforce ou Zendesk, rendent cette collecte plus complexe encore. » La standardisation est d’autant plus cruciale que les grandes plateformes ne sont pas seulement assujetties au DSA. Elles doivent reproduire ce travail de reporting pour d’autres régulateurs, qu’ils s’agisse de l’Online Safety Bill au Royaume-Uni ou du Children’s Online Privacy Code en Australie.

Samuel Comblez, directeur général adjoint de l’association e-Enfance, abonde dans ce sens. « Le plus grand défi est d’accéder à des informations fiables. Par exemple, notre logiciel actuel ne permet pas de connaître le temps exact qu’il faut à une plateforme pour nous répondre. C’est un point clé sachant que l’association a reçu 160 000 demandes en 2024 ».

Margaux Liquard, responsable Trust and Safety pour Yubo, une application sociale dédiée aux adolescents, indique qu’elle tente de répondre au mieux aux attentes des signaleurs de confiance en consolidant les informations demandées et en proposant une adresse e-mail dédiée. Elle voit cet engagement en faveur des acteurs de confiance comme un atout concurrentiel, en proposant une plateforme plus sûre à ses utilisateurs.

Les politiques de modération soumises à rude épreuve

Si le DSA sert de garde-fou en Europe, la situation outre-Atlantique est plutôt à la dérégulation et à la remise en cause des politiques traditionnelles de modération depuis le retour au pouvoir de Donald Trump. En janvier, Meta décidait, en prenant exemple sur X, de ne plus faire appel à des vérificateurs de faits humains mais de s’en remettre à l’IA et à l’auto-régulation de ses utilisateurs pour modérer les contenus de Facebook et Instagram. 

La fin de ce fact-checking humain fait redouter une prolifération de discours violents et toxiques en ligne. Alors que la décision initiale de Meta ne concernait pas l’Europe, elle semble s’être depuis étendue au Vieux Continent. En Espagne, plus de 2 000 modérateurs travaillant pour un sous-traitant de Meta ont été récemment licenciés.

Pour Henry Adams, directeur Trust & Safety de Resolver, la tendance est antérieure au changement de stratégie de Meta. Il note que la « fenêtre d’Overton », c’est-à-dire l’ensemble des idées, des opinions ou des pratiques jugées acceptables par la société, s’est élargie au fil des années. « Certains contenus considérés comme extrêmes il y a quelques années sont désormais courants ». 

Docteur à la London School of Economics and Political Science, Beatriz Lopes Buarque travaille sur les théories du complot liées à l’extrême droite. Si ces dernières circulent abondamment sur les espaces numériques, elles sont, à ses yeux, légitimées par des conférences et des documentaires donnant la parole à des intellectuels, ou des ouvrages académiques indexés par Google Scholar. 

La chercheuse souhaiterait qu’il y ait, sur les réseaux sociaux, un bouton supplémentaire pour signaler des contenus problématiques à côté de ceux permettant de « liker », partager ou commenter.

Elle a, par ailleurs, donné comme exemple la série Adolescence sur Netflix qui montre comment un ado est progressivement contaminé par l’idéologie masculiniste de l’influenceur britannique Andrew Tate. Selon le concept de « red pill » – la « pilule rouge » de l’univers de Matrix est supposée éveiller les esprits –, il accède sur les réseaux à des contenus légaux mais très nocifs qui agissent comme une passerelle vers des théories extrêmes et haineuses. 

Pour Beatriz Lopes Buarque, le problème ne se résoudra pas uniquement par la réglementation et la modération. « Il est bien plus grave que cela ». Elle appelle à un sursaut de la société civile pour préserver nos enfants et salue les plateformes alternatives qui offrent des espaces de discussions a priori plus sûrs, comme BlueSky, réseau social fondé en 2019 par Jack Dorsey, cofondateur de Twitter.

Les adolescents fortement exposés aux contenus toxiques 

Fondatrice du cabinet Vyanams Strategies (VYS), Vaishnavi J. aide les plateformes, mais aussi la société civile et les gouvernements, à mettre en œuvre des stratégies de sécurisation des enfants dans l’espace numérique. 

Elle a notamment étudié les comportements des joueurs de jeux vidéo selon les sexes. Si le profil dominant est celui d’un jeune homme, les outils de modération mis en place par les éditeurs spécialisés s’adressent à tous les joueurs, y compris les jeunes filles et les adolescents non binaires. Or, ce sont surtout ces derniers qui émettent des signalements en cas de comportements inappropriés de certains joueurs.

« A première vue, on peut se dire que les jeunes femmes passent un mauvais moment dans les jeux, sans se rendre compte que les garçons peuvent être également victimes d’abus, mais ils ne le disent pas », observe Vaishnavi J. Elle renvoie vers le Digital Thriving Playbook, un ensemble de ressources pour aider les développeurs à créer des jeux vidéo plus sûrs et inclusifs.

Plutôt que de considérer les départements T&S comme des centres de coûts, les plateformes devraient au contraire faire la promotion de leurs politiques de modération. En proposant des espaces de discussion « safe », les réseaux sociaux gagneraient, selon elle, en audience ou tout du moins retiendraient leurs utilisateurs. 

Vaishnavi J. note que beaucoup de jeunes qui ont vécu des situations de harcèlement en ligne se sont détournés des médias sociaux traditionnels. «Ils préfèrent jouer à des jeux vidéo avec des personnes de leur connaissance ou discuter avec leurs amis sur des messageries privées. »

Dans ce contexte, les régulateurs et les États peuvent faire pression sur les plateformes. Le gouvernement français envisage ainsi l’interdiction d’accès aux réseaux sociaux aux mineurs de moins de 15 ans, en imposant aux plateformes la vérification d’âge. 

Pour Iain Corby, directeur à Londres de l’Age Verification Providers Association (AVPA) qui réunit une trentaine de fournisseurs spécialisés, il existe bien des solutions de contrôle de l’âge sur Google Wallet ou l’App Store d’Apple, mais elles restent émergentes et perfectibles. Un enfant peut notamment contourner le dispositif en utilisant l’identifiant de ses parents. 

Simon Newman, CEO de Online Dating and Discovery Association (ODDA), pointe, de son côté, le coût de la mise en œuvre d’un dispositif de vérification de l’âge qui, s’élevant à quelques centimes d’euros par opération, peut se révéler rédhibitoire pour de petites plateformes qui proposent des services gratuits, comme dans le domaine de la rencontre en ligne. 

Il se dit, par ailleurs, dubitatif concernant la possibilité d’estimer de manière fiable l’âge par reconnaissance faciale comme cela est envisagé en Australie. Le pays a voté une loi interdisant les réseaux sociaux aux moins de 16 ans qui entrera en vigueur en novembre 2025. « Un jeune de 15 ans pourrait passer la barrière de la reconnaissance faciale et un autre de 17 ans verrait son compte bloqué sur TikTok. Il y aura des émeutes dans les cours de récréation ! »

Les signaleurs de confiance, un statut exposé

Enfin, une table ronde était consacrée à la délicate situation des signaleurs de confiance. Ils font face à une vague croissante de cyberattaques et de campagnes de désinformation tout en subissant des pressions financières limitant leurs capacités d’action.

Si les signaleurs de confiance et les lanceurs d’alertes constituent une cible privilégiée des cybercriminels, Kayle Giroud, directrice des initiatives de biens communs chez Global Cyber Alliance, a rappelé que son organisation fournissait des boîtes à outils et des ressources pour protéger les associations et autres ONG.

En France, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) offre une légitimité aux trusted flaggers. Ces dernières semaines, elle a désigné sept associations comme signaleurs de confiance dont e-Enfance et Point de Contact. Elles ont pour mission de soumettre aux plateformes en ligne des signalements de contenus manifestement illégaux. 

« Le rôle d’un signaleur de confiance consiste à combler le fossé entre les citoyens et la plateforme, complète Alejandra Mariscal, directrice de Point de contact. Nous ne pouvons pas supprimer le contenu nous-mêmes. Nous nous contentons de notifier le contenu aux plateformes à qui il revient la décision finale de le supprimer ou non. »

Selon elle, le discours qui assimile la réglementation à de la censure est totalement négatif pour les signaleurs de confiance. « Cela peut même conduire à des violences contre nous, à des cyberattaques si les gens croient que nous sommes des ennemis de la liberté d’expression. » Soit l’opposé même de la mission des trusted flaggers.

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.