Alors que l’impact des plateformes sur nos vies numériques est vivement questionné à travers l’Europe, le Trust & Safety reste un champ encore en construction. Ambassadrice du Trust & Safety Forum, Shani Benoualid analyse les forces, les angles morts et les défis opérationnels qui attendent les acteurs du numérique, et le rôle concret que la jeunesse est amenée à jouer.

Le Trust & Safety Forum met en lumière un domaine encore émergent en Europe. Comment décririez-vous ce champ et les défis qu’il soulève aujourd’hui ?

La Trust & Safety désigne l’ensemble des actions qui visent à rendre les environnements numériques plus sûrs : prévenir les abus ; lutter contre les contenus illégaux, qu’il s’agisse d’abus sexuels sur mineurs, de diffusion non consentie d’images intimes, de sextorsion, de haine, de discriminations, de harcèlement ou de contenus à caractère terroriste ; mieux protéger les mineurs face aux contenus inappropriés, et préserver nos démocraties face à la désinformation et aux tentatives de manipulation. C’est une approche proactive, qui consiste à intégrer des mécanismes de protection et d’atténuation des risques dès la phase de conception des services en ligne.

C’est un champ encore jeune en Europe, à la croisée de questions techniques, juridiques et sociétales, qui mobilise des acteurs très différents : plateformes, autorités publiques et régulateurs, associations, chercheurs, juristes, ingénieurs… Le défi, désormais, est de le structurer comme une véritable discipline, avec des méthodes partagées, des responsabilités claires et une capacité collective à répondre aux risques numériques. L’Europe a posé un cadre ambitieux avec le Digital Services Act ; l’enjeu est maintenant de transformer cette ambition en pratiques opérationnelles et en coopérations durables entre tous les acteurs concernés.

Comment expliquer que l’Europe dispose d’un cadre de régulation aussi avancé (DSA) alors que son écosystème “Trust & Safety” reste encore peu structuré ?

Parce que l’Europe a élaboré le cadre réglementaire avant de développer les capacités opérationnelles pour le mettre en œuvre. Le DSA fixe des exigences ambitieuses, en particulier pour les très grandes plateformes, avec des analyses de risques systémiques, des obligations de diligence dans le traitement des contenus manifestement illicites et un niveau de transparence renforcé, notamment sur les systèmes de recommandation.

Mais l’écosystème “Trust & Safety” européen ne repose pas encore sur une infrastructure professionnelle solide : il n’existe ni corps de métiers reconnus, ni standards de compétences, ni réseau équivalent à la Trust & Safety Professional Association (TSPA), l’association professionnelle internationale qui fédère les praticiens du domaine et structure leurs méthodes, ni à une initiative comme le Digital Trust & Safety Partnership (DTSP), qui rassemble des entreprises autour de principes et d’évaluations partagées.

En l’absence de ce socle, les acteurs publics, privés et associatifs agissent souvent en silo, sans référentiel commun ni mécanismes de coordination. Ce décalage freine l’application effective du DSA et limite la montée en compétence du secteur. L’enjeu des prochaines années sera donc peut-être moins de produire de nouvelles règles que de structurer la filière Trust & Safety européenne. C’est précisément l’ambition du Trust & Safety Forum : offrir un espace de dialogue, de mise en réseau et de partage d’expertise entre acteurs qui, jusqu’ici, travaillaient souvent séparément.

Les associations sont devenues des acteurs clés du Trust & Safety. Quelles sont, selon vous, les capacités et les soutiens qui leur manquent encore pour assumer pleinement ces responsabilités, notamment en matière de signalement ?

Les associations occupent une place centrale dans l’écosystème européen : elles repèrent et signalent les contenus illicites, accompagnent les victimes, mènent des actions de sensibilisation et d’éducation au numérique, assurent une veille sur les phénomènes émergents et jouent un rôle de médiation et de prévention. C’est un écosystème encore jeune et très dynamique, où de nouveaux acteurs émergent régulièrement et où les niveaux de structuration varient fortement d’une organisation à l’autre.

Dans ce paysage, le volet du signalement nécessite une attention particulière. Avec le DSA, les signaleurs de confiance deviennent de véritables vigies et jouent un rôle clé dans l’application effective de la réglementation. Mais pour exercer cette responsabilité, encore faut-il qu’ils disposent des capacités nécessaires : des équipes formées, des outils adaptés et robustes, des méthodologies alignées, une maîtrise solide des cadres juridiques applicables et bien sûr une coopération plus fluide avec les plateformes. 

Ces missions exigent également des financements pérennes. Aujourd’hui, trop d’associations reposent encore sur des modèles fragiles. Professionnaliser et stabiliser ce maillon essentiel, c’est renforcer l’ensemble de la chaîne Trust & Safety européenne.

Face à l’essor de l’IA générative, quels sont les changements structurels indispensables pour que les approches de Trust & Safety soient efficaces en Europe ?

L’IA générative amplifie déjà des risques bien identifiés : production automatisée de contenus illicites, manipulation à grande échelle, deepfakes, exposition accrue des publics vulnérables, notamment les mineurs et les personnes en situation de fragilité psychologique. Ces phénomènes dépassent les capacités des approches traditionnelles de modération, ce qui impose de rapprocher beaucoup plus étroitement l’IA et le Trust & Safety.

Le DSA comme l’AI Act ont posé les bases d’une approche fondée sur la gestion des risques, la transparence et la responsabilité. L’enjeu, désormais, est d’en faire des pratiques opérationnelles partagées : intégrer l’analyse des risques dès la conception des modèles, développer des méthodes de détection et de supervision plus robustes, et organiser une coopération régulière entre plateformes, autorités publiques et associations.

C’est cette articulation entre innovation, gestion des risques et capacités opérationnelles qui permettra à l’Europe d’éviter une course-poursuite permanente et de garantir un haut niveau de protection pour les utilisateurs.

Quel sens donnez-vous au rôle d’ambassadrice du Trust & Safety Forum, et quelle serait, pour vous, une contribution utile dans ce cadre ?

Être ambassadrice du Trust & Safety Forum, c’est à mon sens, contribuer à un espace qui permet à des acteurs très différents de se retrouver autour d’enjeux encore récents et parfois difficiles à appréhender. Dans mes fonctions, j’ai l’occasion de travailler à la fois avec les administrations, les plateformes, les forces de l’ordre et les associations : cette diversité de points de vue est essentielle pour comprendre la réalité des risques numériques et la manière dont chacun y répond.

Dans ce rôle, je peux apporter un éclairage issu de cette expérience : les besoins des associations, les contraintes opérationnelles, les attentes des publics les plus exposés, ou encore ce que l’on constate très concrètement dans l’application du cadre européen par les différents acteurs. L’idée est de contribuer à rendre ces enjeux plus lisibles et à faciliter les échanges entre acteurs qui n’interagissent pas toujours naturellement.

Si cette fonction permet de mieux faire dialoguer ces univers, de mettre en lumière des défis partagés et d’alimenter une dynamique collective autour du Trust & Safety en Europe, alors elle aura rempli son rôle.

Comment vos engagements professionnels et personnels autour du numérique s’articulent-ils, et que diriez-vous à de jeunes personnes qui souhaiteraient s’engager à leur tour ?

Mes engagements se rejoignent et se complètent, même s’ils opèrent à des niveaux très différents. Dans mon travail institutionnel, j’interviens plutôt sur le versant stratégique : participation à l’élaboration des politiques publiques en matière de lutte contre la haine en ligne, suivi des évolutions réglementaires, nationales comme européennes, accompagnement des différents projets associatifs… Tandis que le travail associatif s’ancre dans le quotidien : compréhension des dynamiques en ligne, observation des usages réels, soutien aux personnes visées par des campagnes de haine ou de harcèlement. Cette proximité avec le terrain éclaire ce que l’on appréhende parfois de manière plus abstraite au niveau institutionnel, et inversement, le cadre stratégique donne de la cohérence et de la portée à l’action menée au plus près des utilisateurs.

Aux plus jeunes qui souhaitent s’engager, je dirais que le numérique est un domaine où l’on peut agir très vite et à son échelle. L’écosystème du Trust & Safety reste en construction et a besoin de nouvelles perspectives, de profils capables de comprendre les usages, les codes et les évolutions rapides des plateformes, des technologies et des discours. L’engagement peut commencer de manière très simple : rejoindre une association, participer à des actions de sensibilisation, soutenir une personne prise pour cible, ou contribuer à rendre les espaces de discussion plus responsables. Souvent, ce sont ces premiers pas qui ouvrent ensuite des formes d’action plus durables.

Qui est Shani Benoualid ?

Shani Benoualid est conseillère pour le numérique et la lutte contre la haine en ligne à la DILCRAH (Délégation interministérielle à la lutte contre le racisme, l’antisémitisme, la haine anti-LGBT et les discriminations liées à l’origine). Elle y assure notamment la veille et le suivi des phénomènes de haine en ligne, accompagne les associations dans leurs actions, et coordonne des projets impliquant administrations, plateformes numériques, forces de l’ordre et société civile pour renforcer la prévention, améliorer le signalement et promouvoir la citoyenneté numérique.

Elle est également cofondatrice de #jesuislà, un collectif citoyen actif sur les réseaux sociaux, dont les membres s’organisent pour intervenir dans les espaces de commentaires, soutenir les victimes de cyberharcèlement, apaiser les échanges et contrer les campagnes de désinformation. Le collectif mène en parallèle un travail de sensibilisation et de plaidoyer pour un espace numérique plus sûr et plus respectueux.

Engagée dans le débat public, elle est à l’initiative de tribunes collectives et a contribué à des ouvrages et rapports consacrés à la lutte contre la haine et au renforcement de la responsabilité des acteurs du numérique.

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.