
- Accueil
- Transformation numérique
- L’intelligence artificielle : arme clé des conflits moderne
L’intelligence artificielle : arme clé des conflits moderne


C’est sur ce sujet que le panel « Cyber combat: le rôle pivot de l’IA dans la guerre moderne » s’est penché lors du forum InCyber à Montréal le 30 octobre 2024. Il a réuni : Dewayne Hart (PDG de Semais), Alexandre Massaux (Chercheur et analyste politique, Université de Toulon), Julia Petryk (PDG et co-fondatrice de Calibrated), Hanna Abdel Hamid (Directrice générale de Sigma Software Group) et Daniel Blanc (Chief of Staff Operations, Canadian Armed Forces Cyber Command). Le panel a été animé et modéré par Mélanie Benard-Crozat (Rédactrice en chef S&D Magazine).
Sur un tel sujet se posent des considérations non seulement militaires, mais aussi civiles. Cee d’autant plus que la nature des conflits actuels tend à effacer la frontière entre ces deux catégories de populations.
Le conflit entre l’Ukraine et la Russie : un exemple majeur d’utilisation militarisée de l’IA
L’Ukraine comme la Russie utilisent l’Intelligence artificielle,et pas uniquement sur le champ de bataille. Les domaines médiatiques et de l’influence sont aussi particulièrement visés. Comme le fait remarquer Julia Petryk, l’IA est utilisée comme un outil des campagnes de désinformations russes en utilisant entre autres les deep-fakes . En effet, de fausses vidéos mettant en scène le président Ukrainien Zelensky ont été diffusées sur les réseaux sociaux. Et même lorsque ces vidéos sont identifiées comme fausses, elles parviennent à capter l’attention. Comme le souligne Julia Petryk, les images étiquetées comme générées par IA suscitent davantage d’intérêt, notamment grâce aux mentions qui amplifient leur visibilité sur les réseaux sociaux.
Mais l’IA est aussi utilisée sur le champ de bataille dans plusieurs domaines. Alexandre Massaux le pointe à juste titre :plusieurs entreprises privées américaines coopèrent avec le gouvernement ukrainien. Ainsi, Palantirpossède sa plateforme MetaConstellation permettant d’utiliser les données des images satellites en temps réel, de les analyser et de détecter les cibles. Cette plateforme permet de réduire le délai de traitement de plusieurs heures à quelques minutes.. Un exemple marquant : ClearView, qui a fourni ses outils à plus de 1 500 fonctionnaires ukrainiens. Ces derniers s’en sont servis pour identifier plus de 230 000 Russes présents sur leur territoire.
L’IA a également été utilisée pour identifier les pertes des deux camps dans un but de propagande et de contre propagande. La technologie de l’entreprise reposant sur une bibliothèque d’images de visages compte aujourd’hui quelque 40 milliards d’images, soit une moyenne de cinq images pour chaque habitant de la planète.Le fondateur de Clearview a aussi estimé avoir 2 millions d’images venant du réseau social VKontacte : le principal réseau social du monde russophone.
Des limites éthiques et techniques
L’IA est un outil qui peut paraître puissant sur le champ de bataille et dans les conflits militaires. Néanmoins, il connaît ses limites. D’un point de vue technique et sécuritaire, Dewayne Hart souligne que l’utilisation dans certains domaines pourrait ne pas être réaliste, notamment en ce qui concerne les machines, les navires et les équipements modernes tels que les drones, les bateaux et les robots.
Dans quelques environnements, il est nécessaire de maintenir des engagements manuels, c’est-à-dire une intervention humaine. Lors de l’intégration de l’IA dans un système militaire, les humains devraient toujours conserver le rôle de décideurs finaux dans cette approche hybride.
En effet, le risque de perte de contrôle d’engins autonomes doit être pris en compte.
En outre, il est important de bien gérer l’apprentissage automatique des IA afin d’éviter des dérives.Hanna Abdel Hamid met en exergue l’importance de la diversité dans les équipes de développement des IA afin d’éviter les biais. Ceci est d’autant plus important dans un contexte militaire avec des vies en jeu.
Le panel a également soulevé l’importance des limites éthiques dans l’utilisation de l’IA. Plusieurs adversaires peuvent être tentés de ne pas respecter les règles éthiques ou de droit dans l’utilisation de l’IA. Cependant, comme le souligne Daniel Blanc, il est essentiel de définir et de respecter des règles face aux adversaires. Céder à la pression qu’ils exercent pourrait entraîner un risque d’escalade.
Une évolution rapide à prendre en compte
Comme beaucoup de technologies, surtout émergentes, l’IA évolue rapidement, tout comme ses possibilités d’utilisation. Ceci est particulièrement vrai en matière de cybersécurité où l’IA peut être à la fois un outil de protection comme un moyen de perturbation. Compte tenu du fait que la cybersécurité est un domaine désormais important dans les conflits modernes comme en Ukraine et en Russie, cette évolution doit être prise en compte.
Cette évolution s’accompagne d’une hausse du financement. Comme le fait remarquer le Time, la valeur des contrats fédéraux américains liés à l’IA est passée de 355 millions de dollars au cours de la période précédant août 2022 à 4,6 milliards de dollars au cours de la période précédant août 2023, soit une augmentation de 1200 %. Ces dépenses sont toutefois la face visible de l’iceberg en matière d’investissement dans l’IA. Le secteur de la technologie aux États-Unis dépense des dizaines de milliards pour développer cette technologie (pas uniquement à des fins militaires, mais aussi civiles) : Microsoft, par exemple, souhaite investir chaque année plus de 50 milliards de dollars dans des centres de données équipés de puces à semi-conducteurs.
Finalement, l’IA a désormais une influence importante dans les conflits modernes. Cette technologie offre des avantages pour les acteurs qui l’utilisent. Néanmoins, elle présente des dangers qui nécessitent des précautions dans son emploi et des considérations éthiques. Mais l’IA militaire doit être maîtrisée compte tenu du fait que les grandes puissances comme les “États-Unis investissent massivement dedans.
la newsletter
la newsletter