Alors que les JO de Paris 2024 ont été la cible d’une quarantaine de « manœuvres informationnelles », se pose la question de savoir, de manière plus globale, comment la France doit structurer sa riposte pour contrer cette menace de plus en plus présente.

Selon le rapport – publié en juin 2023 – de la Commission d’enquête de l’Assemblée nationale relative aux ingérences politiques, économiques et financières de puissances étrangères, la Russie et la Chine sont en ligne de mire des autorités françaises. « De toute évidence, la Russie constitue la principale menace pour les démocraties occidentales en termes d’ingérence. Ses activités hostiles s’inscrivent dans une logique de subversion et de déstabilisation. Elles reposent sur l’espionnage, la guerre informationnelle et les cyberattaques », assènent les auteurs du rapport.

Quant à la Chine, elle représente la deuxième grande menace identifiée. « La Chine a de plus en plus recours à des manœuvres agressives et malveillantes pour atteindre ses objectifs, au point qu’on peut parler d’une ‘russianisation’ de son attitude. Si les ingérences dont la République populaire de Chine est l’auteur sont surtout destinées à contrôler son image et ses ressortissants à l’étranger, l’espionnage et l’entrisme qu’elle pratique auprès de nos entreprises et de nos universités constituent un point d’attention majeur », poursuit le rapport de la Commission d’enquête.

D’autres États cherchent, eux aussi, à s’immiscer dans les affaires intérieures de la France, quoique à une moindre échelle actuellement que la Russie et la Chine. Il s’agit notamment de pays comme l’Iran, le Maroc, le Qatar ou encore la Turquie, toujours selon le rapport de la Commission d’enquête.

43 manœuvres informationnelles ont ciblé les JO de Paris 2024

Cet été, certains des pays pointés du doigt par les parlementaires français ont été particulièrement actifs. Dès la fin des JO de Paris 2024, un rapport de Viginum (le service de vigilance et protection contre les ingérences numériques étrangères, placé sous la direction du Secrétaire général de la défense et de la sécurité nationale – SGDSN), a fait état de 43 manœuvres informationnelles ayant ciblé cet événement sportif d’envergure planétaire. 

Sur la période de veille considérée (avril 2023 – 8 septembre 2024), plusieurs modes opératoires ont été identifiés. Parmi eux : les manœuvres sous fausse bannière. Celles-ci consistent à exécuter une opération d’influence en ligne de manière à en faire porter la responsabilité à un autre acteur, soit dans l’objectif d’éviter ou au contraire d’orienter de potentielles représailles, soit afin d’exacerber une situation ou une actualité à haut pouvoir de mobilisation.

« Au mois de juillet 2024, Viginum a détecté quelques jours avant la cérémonie d’ouverture, la publication d’une vidéo sur X, Facebook et Telegram, faisant apparaître un prétendu membre du Hamas menaçant les JOP24 et la France, accusant celle-ci de soutenir Israël et dénonçant la participation d’athlètes israéliens à la compétition. Si l’individu s’adresse dans un arabe correct, son discours comporte des fautes d’intonation, suggérant qu’il pourrait ne pas s’agir de sa langue maternelle. Amplifiée grâce à plusieurs publications d’articles dans des médias africains, potentiellement rémunérés, cette manœuvre a été attribuée par le Centre d’analyse de la menace de Microsoft au mode opératoire russe Storm-15166 », peut-on lire dans le rapport.

JOP 2024 : doxxing et création de contenus audiovisuels

Le « doxxing » d’athlètes a également été pratiqué. Ce mode opératoire consiste à rechercher puis à divulguer en ligne des données sur la vie privée d’un individu. Dans le cadre des JO, le recours au doxxing a principalement consisté à accuser des athlètes de s’être rendus coupables de tricherie ou d’avoir commis des crimes afin de porter atteinte à leur image et de créer des mouvements d’hostilité à leur égard pouvant générer des incidents dans le champ physique.

« Dans le cadre du conflit entre le Hamas et Israël, plusieurs sportifs israéliens ont vu certaines de leurs informations personnelles divulguées puis utilisées pour porter des accusations de crimes de guerre à leur encontre. Viginum a constaté l’utilisation de ce mode opératoire par l’écosystème numérique pro-iranien pour créer un environnement et des polémiques hostiles contre ces athlètes et le Comité International Olympique (CIO), en accusant ce dernier d’appliquer un « double standard » entre les athlètes israéliens d’une part et biélorusses et russes sous bannière neutre d’autre part », note la Commission d’enquête dans son rapport.

La création de contenus audiovisuels usurpant l’identité d’organisations officielles ne manquait pas non plus à l’appel. Ce mode opératoire a été observé par Viginum avec le dispositif pro-russe Matriochka qui a plusieurs fois ciblé l’organisation des JOP24 en usurpant l’identité de médias ou d’institutions légitimes. Les manœuvres émanant de ce dispositif ont notamment tenté d’imposer le récit selon lequel la France serait incapable d’accueillir les JOP24 dans de bonnes conditions (sanitaires, sécuritaires, matérielles, transports) en ciblant les différentes instances d’organisation et en instrumentalisant le niveau réel de la menace terroriste qui pèserait sur l’événement.

Quant à la Chine, elle est soupçonnée d’avoir diffusé une vidéo en mandarin avec des narratifs hostiles aux JOP24, affirmant que la Seine serait « comparable au Gange » en Inde « rempli de pétrole et de déchets », ou encore que l’air de Paris serait trop « nauséabond » pour les athlètes olympiques. Réalisée à l’aide de l’intelligence artificielle (IA), cette vidéo a été diffusée sur plusieurs plateformes chinoises de streaming vidéo.

Enfin, le recours non transparent à des influenceurs ou à des comptes inauthentiques, ainsi que la création de hashtags polarisants ou de vidéos décontextualisées, ont également fait partie de la panoplie des modes opératoires utilisés pendant les JOP 2024.

Les algorithmes des principaux chatbots IA partiellement infiltrés par la propagande russe

Les choses se compliquent encore si l’on tient compte des actions menées par certaines équipes de désinformation à l’encontre des principaux agents conversationnels (chatbots IA de type ChatGPT) disponibles dans le monde occidental. Selon NewsGuard, service de veille spécialisé dans la désinformation, les principaux chatbots d’IA diffusent, dans près de 32 % des cas, des récits de désinformation russe. NewsGuard a en effet testé les 10 principaux outils du marché (ChatGPT-4 d’Open AI, Smart Assistant de You.com, Grok de xAI, Pi d’Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Gemini de Google, et Perplexity), utilisant 57 instructions sur chacun d’entre eux (soit 570 instructions en tout).

​​L’étude révèle que les chatbots étudiés répètent collectivement de faux récits de désinformation russe dans près d’un tiers des cas : 152 des 570 réponses contiennent de la désinformation de manière explicite, 29 réponses répètent la fausse affirmation avec un avertissement, et 389 réponses ne contiennent pas de mésinformation – soit parce que le chatbot a refusé de répondre (144), soit parce qu’il a réfuté la fausse affirmation (245).

Selon NewsGuard, les faux récits proviennent d’un réseau de sites d’infox créé par John Mark Dougan, « ancien shérif adjoint de Floride qui s’est réfugié à Moscou après avoir fait l’objet d’une enquête pour piratage informatique et extorsion de fonds, et qui est devenu un acteur clé du réseau mondial de désinformation de la Russie ». Ce réseau serait composé de 167 sites web qui utilisent l’IA pour générer un contenu qui se propage ensuite sur des sites d’information, des réseaux sociaux et des plateformes d’IA. 

« Ces chatbots n’ont pas reconnu que des sites tels que le ‘Boston Times’ et le ‘Flagstaff Post’ sont des fronts de propagande russe, amplifiant sans le savoir des récits de désinformation que leur propre technologie a probablement contribué à créer. Ce cercle vicieux signifie que les infox sont générées, répétées et validées par les plateformes d’IA », avance le rapport de NewsGuard.

L’IA : une arme à double tranchant

L’infiltration des algorithmes de ChatGPT et consorts par de faux récits de désinformation montre les failles que peut présenter l’IA. Mais cette dernière peut aussi constituer une arme redoutable pour les « attaquants ». « L’IA permet tout d’abord de créer des narratifs convaincants, avec une certaine personnalisation des messages. Par ailleurs, la grande nouveauté, ce sont les interactions en temps réel permises par les bots. Engager des conversations cohérentes avec les utilisateurs augmente la crédibilité et l’influence de ces faux comptes. Enfin, leur objectif est de manipuler et de polariser l’opinion, de manière massive, afin de fracturer la société », déclarent Clément Barnier, Cyber Threat and Risk Intelligence analyst – Team leader, et Lara Aidi, Cyber Threat & Risk Intelligence Analyst chez Sésame IT, éditeur de solutions de cybersécurité NDR (Network Detection and Response).

Pour Andriy Kusyy, CEO et cofondateur de LetsData, les apports de l’IA dans la lutte contre la désinformation ne sont toutefois pas à négliger : « Grâce à l’IA générative et aux progrès technologiques, la désinformation devient de plus en plus diversifiée et sophistiquée. Des identités synthétiques très réalistes peuvent être créées, manipulant des contenus textuels, visuels, audio et vidéo. Mais même si l’IA peut rendre la désinformation plus percutante et plus réaliste, les acteurs malveillants doivent encore investir dans l’infrastructure – comme les comptes, leurs connexions et les connexions aux sources de contenu – pour diffuser cette désinformation. Ces réseaux sont souvent reliés à d’importants canaux de désinformation exploités par des acteurs hostiles. L’analyse avancée des réseaux et des contenus, qui s’appuie sur des outils d’intelligence artificielle, peut permettre d’identifier et de perturber cette infrastructure avant qu’une quantité importante de contenus ne soit diffusée, ce qui constitue une lueur d’espoir dans la lutte contre la désinformation ».

« L’intelligence artificielle joue un double rôle dans le paysage de l’information. Si elle peut générer de la désinformation, elle offre également des outils pour détecter les faux contenus. Des technologies comme Luma AI, qui permettent de créer des vidéos animées à partir d’une simple photographie, présentent des risques, mais des détecteurs d’IA apparaissent pour vérifier l’authenticité des médias. Le défi reste malgré tout important en raison de la nature fermée de nombreuses bases de données », résume de son côté Julia Petryk, CEO et cofondatrice de l’agence ukrainienne Calibrated.

Face à la menace, la France s’organise  

Face à cette menace d’un nouveau genre, la France est-elle suffisamment armée ? Selon une autre commission d’enquête, celle du Sénat, les ingérences étrangères en France nous placent « face à un défi existentiel : celui de ne pas tomber dans le piège qui nous est tendu et donc de refuser, dans notre défense comme dans notre riposte, de céder sur nos principes et nos valeurs démocratiques ». 

Pour se défendre, la France dispose d’un schéma de réponse en trois dimensions :

  • Les actions de détection et de caractérisation, regroupant les activités de surveillance et d’identification des opérations d’influence. Le service Viginum assure ainsi une mission de détection des ingérences numériques étrangères,
  • Les actions de riposte, correspondant à l’ensemble de la palette d’entraves à la disposition des pouvoirs publics, qui peuvent aller des démarches diplomatiques à une judiciarisation des opérations d’influence. Cet arsenal a récemment été renforcé par la loi « Ingérences étrangères », définitivement adoptée le 5 juin 2024,
  • Les politiques de résilience, visant à protéger la société civile contre les opérations d’influence, en amont de la détection et de la riposte.

« Ce schéma de réponse permet de couvrir théoriquement l’ensemble de nos politiques publiques, en permettant de lutter, à l’intérieur, contre les opérations d’influence visant le territoire national ou l’espace informationnel français et, à l’extérieur, contre les opérations d’influence ciblant le déploiement et l’image de nos armées ainsi que les intérêts français à l’étranger. Pour autant et en dépit d’un bilan globalement satisfaisant, les politiques de lutte contre les opérations d’influences malveillantes frappent par leur empirisme. La construction de dispositifs ad hoc de détection et de caractérisation des actions d’influence malveillante a conduit à une ‘archipelisation’ de nos capacités. Il en découle un risque de dispersion de nos moyens de réponse, assorti de l’absence, sur le plan opérationnel, d’une doctrine claire de riposte aux manœuvres hostiles », analysent les auteurs du rapport.

La commission d’enquête du Sénat préconise une refonte globale de notre approche collective du phénomène des influences étrangères malveillantes selon trois piliers. Le premier consiste à bâtir une dynamique de résilience de la population. « À la différence de pays exposés de longue date aux manipulations de l’information, la société française paraît encore trop naïve sur l’état des menaces. Il faut prendre acte que la lutte contre les influences étrangères est l’affaire de tous, les responsables publics comme les citoyens. Elle ne peut pas rester l’apanage de l’État : si les dispositifs de protection, de détection et de riposte que celui-ci met en place sont évidemment nécessaires, ils ne sauraient se substituer à l’effort d’édification d’une société véritablement résiliente », commente le rapport.

Le deuxième pilier suppose de gagner la bataille des narratifs. La posture défensive, qui a jusqu’ici été la nôtre face aux influences étrangères malveillantes, a montré ses limites. Il est désormais nécessaire d’assumer une véritable politique d’influence positive défendant les valeurs et les intérêts français auprès des opinions publiques internationales, et de s’engager ainsi pleinement dans la bataille des narratifs.

Enfin, le troisième pilier vise à construire une stratégie globale et interministérielle pour toute la Nation. « Il appartient à l’État de prendre ses responsabilités en se dotant d’une stratégie globale et interministérielle de lutte contre les influences étrangères malveillantes, dans le but d’ordonner son action et ainsi mettre un terme à l’empirisme qui a dominé au cours des dernières années. Cette stratégie serait structurée en « cercles concentriques », avec un premier volet régalien, un deuxième volet dédié aux politiques sectorielles concourant à la lutte contre les influences étrangères malveillantes, et un dernier volet, transversal et inclusif dédié aux actions en direction de la société civile ainsi qu’à l’intégration de ses initiatives, de façon à renforcer notre résilience collective », avancent les auteurs du rapport.

Le mot de conclusion revient à Dmytro Bilash, Cofondateur et Chief business development officer d’Osavul, plateforme d’analyse de la désinformation : « Il est difficile de quantifier l’impact des campagnes de désinformation, car les plus efficaces d’entre elles s’appuient sur les croyances existantes des gens. Dans quelle mesure ces campagnes influencent-elles la décision des électeurs de soutenir tel ou tel politicien ? C’est impossible à dire. Les menaces liées à l’information sont le talon d’Achille de toute démocratie. Il est facile de lancer et d’exécuter une attaque, mais très difficile de s’en protéger ».

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.