- Accueil
- Transformation numérique
- Régulation des réseaux sociaux : comment l’UE s’est dotée d’une stratégie
Régulation des réseaux sociaux : comment l’UE s’est dotée d’une stratégie
Le récent projet de loi pour sécuriser l’espace numérique est une nouvelle étape pour responsabiliser les réseaux sociaux. Il fait cependant partie d’un travail plus large de régulation. InCyber News vous propose de découvrir les enjeux et les évolutions.
Le rôle des réseaux sociaux lors des violences urbaines survenues l’été dernier, que ce soient les émeutes en France après la mort du jeune Nahel ou les appels au pillage de magasin au Royaume-Uni, est un nouvel exemple de leur utilisation malfaisante. Ceux-ci sont moins un moyen d’expression personnelle qu’une extension, dans l’environnement cyber, de l’espace public. Par conséquent, leurs utilisateurs doivent y être protégés. Ce qui est d’autant plus important que des vulnérabilités nouvelles sont apparues avec Méta, Twitter, Snapchat : divulgation de contenus intimes (revenge porn) ou des coordonnées personnelles (doxxing).
La question de la régulation des réseaux sociaux se pose. Réguler consiste à faire en sorte que des mesures puissent être prises pour maîtriser les risques engendrés par une activité. En mai 2018, Emmanuel Macron et Mark Zuckerberg ont lancé conjointement une mission pour définir une politique de régulation dans un rapport, remis un an plus tard.
De l’auto-régulation à la co-régulation
Dans ce texte, les auteurs notent d’une part l’insuffisance des moyens de modération mis en œuvre de manière volontaire par les réseaux sociaux. D’autre part, l’opacité au sujet des résultats obtenus. Néanmoins, ces derniers sont les acteurs les plus indiqués pour appliquer une politique de régulation. Eux seuls en effet disposent des capacités techniques pour repérer des publications problématiques en grande quantité ou encore identifier une anomalie à l’échelle globale.
Le rôle des pouvoirs publics est alors de responsabiliser les réseaux sociaux en supervisant leur travail de modération. Dans cette approche de co-régulation, un dialogue entre les deux parties permet de se concentrer sur les moyens à mettre en œuvre et opérer des ajustements.
Réguler les réseaux sociaux est néanmoins difficile. Dans son premier bilan d’application de la loi anti-fake news de 2018, l’Arcom (fusion du CSA et d’Hadopi) notait que les réseaux sociaux interrogés comme Meta ou Twitter (TikTok ne figurant pas dans le texte) ont été coopératifs mais que les informations transmises ne permettaient pas d’apprécier complètement les moyens employés pour endiguer les fausses informations. L’autorité soulignait aussi que la définition même de fake news variait d’un réseau social à l’autre. Ce rapport de force défavorable, dû à une absence de souveraineté numérique, vaut aussi pour l’UE.
La politique de régulation européenne est limitée à un code de bonne conduite convenu en 2016, à une communication de la Commission européenne sur la lutte contre les contenus illicites en septembre 2017, suivie par des recommandations sur ce même sujet, en 2018. Ce manque de contrainte est causé par les directives européennes de 2000 sur le commerce électronique qui stipulent qu’une société de l’information ne doit pas être tenue pour responsable des informations transmises sur son réseau de communication. En outre, les services numériques fournis par ces entreprises ne doivent pas être restreints, à moins de respecter des conditions très handicapantes pour les autorités.
Ce qui entraîne ce résultat : en février 2019, la Commission européenne estimait que 72% des contenus haineux étaient finalement effacés alors qu’en 2022, ce taux n’était plus que de 63,5 %.
Réseaux sociaux : l’UE en première ligne
Un arrêt de la Cour de justice de l’Union européenne (CJUE) a mis fin à cette situation en octobre 2019. À l’origine, un conflit opposant une élue autrichienne à Meta, qui souhaitait supprimer une publication injurieuse à son encontre. Si les tribunaux et la Cour de cassation autrichiens lui ont donné raison, il fut demandé à l’institution judiciaire européenne de juger s’il était possible de contrevenir aux directives de 2000 en obligeant Facebook à supprimer le post. Celle-ci a statué en faveur de la plaignante.
Le réseau social devait non seulement supprimer la publication mais aussi les contenus qu’il jugerait « identiques ». Cette décision est d’ailleurs applicable à l’échelle mondiale. Un contenu illicite ne doit donc plus être visible, quel que soit le pays depuis lequel on se connecte à Facebook. Cette décision va donc être le point de départ d’une réflexion pour disposer d’une législation communautaire qui mettrait à jour les directives de 2000, désormais obsolètes.
La première mesure forte pour réguler les réseaux sociaux est le règlement du 29 janvier 2021 pour lutter contre la diffusion de contenus terroriste en ligne. Leur définition est univoque : ce sont ceux qui incitent à commettre des actes terroristes, qui glorifient ces actes ou encore qui fournissent des instructions pour fabriquer des armes et des engins explosifs. Dans chaque pays membre, une autorité compétente émettra des injonctions de retrait (en France, il s’agit de l’OCLCTIC).
La régulation des réseaux sociaux passe aussi par le Digital Service Act (DSA). Adopté en Octobre 2022 et appliqué en août 2023, il oblige les réseaux sociaux, dont la fréquentation dépasse un certain seuil, à procéder à une évaluation des risques systémiques qu’ils occasionnent et à divulguer les mesures « raisonnables, efficaces et proportionnées » pour les atténuer. Leur algorithme doit être évalué par les spécialistes du Centre européen pour la transparence algorithmique (ECAT). Objectif : détecter d’éventuels biais et s’assurer de l’existence d’un contrôle humain.
Un système de traitement des réclamations doit indiquer clairement l’avancement par les modérateurs d’un signalement. Enfin, des sanctions pour les plateformes récalcitrantes sont prévues. Il s’agira d’une amende pouvant équivaloir à 6% du chiffre d’affaires mondial encaissé au cours de l’année.
Des mesures déjà appliquées en France
En France, la loi Avia de 2020, en grande partie censurée, a permis de créer l’Observatoire de la haine en ligne. Il documente ce phénomène et en analyse les modalités de propagation. Le Pôle national de lutte contre la haine en ligne a aussi été créé. Ce nouveau pôle judiciaire rassemble des magistrats spécialistes des délits numériques comme le cyberharcèlement. Un décret d’août 2020 donne naissance au PeRen dont le rôle est de fournir les outils pour l’examen technique des réseaux sociaux et prouver l’existence d’une anomalie comme un biais algorithmique. En outre, le DSA a été appliqué de manière anticipée à l’occasion de la loi du 21 août 2021. Son article 42 rend obligatoires les mesures de transparence prévues dans le règlement européen.
Le projet de loi « pour sécuriser et réguler l’espace numérique » doit compléter la transposition dans le droit français du DSA. Présentée en mai 2023, la rédaction du contenu de la loi a été bouleversée par les émeutes qui, relayées par les réseaux sociaux comme Tik-Tok et Telegram, ont rendu nécessaire la tenue d’un groupe de travail, le 12 juillet 2023.
Ce texte prévoit, comme mesures supplémentaires d’encadrement, le bannissement des réseaux sociaux des auteurs de cyberharcèlement. Ce sont les réseaux sociaux qui seraient responsables de l’application de cette mesure. Tout manquement à cette tâche occasionnerait une amende. Adopté par l’Assemblée nationale en octobre 2023, le projet va être examiné par une commission paritaire.
Ces mesures constituent un progrès pour maîtriser les risques nés sur les réseaux sociaux. Leur application reste toutefois un défi en raison de la quantité de données à surveiller et à analyser mais aussi de la volonté ou de la capacité des réseaux sociaux à obtempérer. Si certains d’entre eux, comme TikTok et Meta ont annoncé être conformes au DSA, d’autres devront être rigoureusement surveillés comme Telegram, dont les fondateurs refusent de collaborer avec les pouvoirs publics, ou encore X (anciennement Twitter) dont le nombre de modérateurs a considérablement été réduit.
L’attaque terroriste récente du Hamas a été largement diffusée sur les réseaux sociaux. Or Elon Musk, le nouveau propriétaire de Twitter, est resté passif, obligeant la Commission européenne à lui rappeler ses obligations dans un courrier. Réguler les réseaux sociaux est une tâche qui requiert une vigilance dont les pouvoirs publics doivent assurer la constance.
la newsletter
la newsletter