Les plateformes ont amélioré leur lutte contre les contenus illicites en 2022, mais des efforts restent à faire pour se conformer au DSA.

L’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) a publié, le 24 juillet 2023, son rapport 2022 sur les moyens mis en œuvre par les plateformes, en France, pour lutter « contre la diffusion de contenus haineux en ligne ». Le 25 août 2023, le Digital Services Act (DSA), un règlement européen particulièrement contraignant sur ces questions, entrera en vigueur pour 19 « très grandes plateformes » internationales.

11 de ces « très grandes plateformes » sont dédiées à la publication, la consultation, la recherche et le partage de contenus : Bing, Facebook, Google Search, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia et YouTube. Le rapport de l’Arcom les passe toutes au crible, en y ajoutant Dailymotion et le portail Yahoo!, encore assez populaires en France, mais pas assez en Europe pour devoir respecter le DSA.

L’autorité indique une amélioration « des outils et procédures » mis en œuvre en 2022 par ces plateformes pour lutter contre les usages abusifs. Le rapport salue un effort accru de transparence, avec la transmission « d’informations chiffrées, inédites et de qualité, notamment sur le nombre et l’origine des signalements de contenus à caractère haineux, les moyens humains de modération et leur collaboration avec les autorités publiques et les signaleurs de confiance ».

Pour autant, ces efforts semblent encore insuffisants pour rentrer dans les clous du DSA. L’Arcom épingle en particulier Google, incapable de fournir les données de ses services (Google Search et YouTube) dans le temps imparti. Le rapport critique aussi une certaine opacité sur le nombre et la nationalité des modérateurs de contenus haineux. Meta (Facebook et Instagram), Pinterest, Snapchat et TikTok ont transmis ces informations à l’Arcom, mais en refusant de les rendre publiques.

Le rapport montre par ailleurs peu de signalements sur les plateformes de Meta en 2022 (12 424 en tout), mais tous traités par des opérateurs humains. Twitter et TikTok, à l’inverse, en annoncent respectivement plus d’un million et près de 400 000, modérés en partie automatiquement. En fonction des plateformes, les « actions de modération » (le plus souvent une suppression du contenu) concernent entre 25 % et 40 % des signalements.

L’Arcom souligne que TikTok possède un taux élevé d’infirmation des décisions initiales de modération après contestation (41%). De quoi interroger, légitimement, « sur la pertinence de l’action de modération initiale ». L’autorité critique également l’impossibilité de signaler un contenu sans être connecté sur Twitter, LinkedIn ou Pinterest.

En revanche, le rapport se satisfait du « taux particulièrement élevé de réponses positives (près de 85 %) aux demandes d’information des autorités françaises aux fins d’identifier l’auteur potentiel d’un contenu haineux en ligne ».

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.