Les cybercriminels tirent profit des progrès fulgurants de l’IA, notamment de l’IA générative. Cela leur donne-t-il un avantage décisif sur la communauté de la cybersécurité dans son ensemble ? Les avis sont partagés en la matière.

Selon le rapport 2024 d’évaluation de la cybersécurité de Bitdefender, l’essor de l’intelligence artificielle générative est considéré comme une menace par presque toutes les personnes interrogées. À la question sur la dangerosité de l’IA générative pour le monde de la cybersécurité en général, 96 % des répondants (74 % en France) indiquent que cette technologie représente une menace. En outre, ils sont plus d’un tiers (36 % – 37 % en France) estime que son utilisation à des fins de manipulation ou de création de contenus trompeurs (deepfakes) constitue une menace majeure.

À titre d’illustration, des chercheurs de Karspersky ont mis en avant en juin dernier que des bots de mot de passe à usage unique (bots OTP) sont désormais en mesure de se faire passer pour des organismes légitimes, comme des banques, afin d’inciter des personnes à divulguer le code qu’elles viennent de recevoir par un système d’authentification à deux facteurs. Grâce à l’IA générative, la voix du robot peut, lors de l’appel, être personnalisée dans plusieurs langues différentes. Le bot OTP peut ainsi « parler » anglais avec un accent indien ou espagnol avec une pointe de castillan.

Face à cette montée en puissance de l’intelligence artificielle au service des cybercriminels, la question se pose de savoir si la communauté de la « cyberdéfense » (éditeurs de solutions de cybersécurité, sociétés de conseil, intégrateurs, chercheurs, puissance publique…) est en mesure de rivaliser avec l’ingéniosité des pirates. À propos de cette épineuse interrogation, les avis sont partagés.

Cyberattaques : des progrès fulgurants drivés par l’IA dans divers domaines

Pour Hakim Loumi, Senior Product Manager chez Oracle, il existe aujourd’hui plusieurs domaines dans lesquels les attaquants peuvent tirer avantage des progrès de l’IA. « Nous sommes confrontés à presque la totalité d’entre eux. Les bases de données et le Cloud sont devenus des cibles de choix, attaquées en permanence. Depuis trois ans, nous avons basculé dans une démarche de recherche de moyens pour nous protéger d’IA toujours plus agressives et efficaces. À ce jour, nous parvenons à les contrer, mais cela demande un travail sérieux et constant », déclare-t-il.

Hakim Loumi a identifié sept axes sur lesquels l’IA devient de plus en plus offensive : 

  • Automatisation des attaques (par exemple les attaques DDoS et le piratage de mots de passe). Des bots peuvent ainsi être utilisés pour lancer des attaques massives
  • Augmentation de la vitesse et de l’échelle des attaques, ce qui permet de cibler de nombreuses victimes en peu de temps. Par exemple, des ransomwares peuvent être déployés à grande échelle rapidement
  • Techniques de phishing améliorées grâce à la personnalisation des informations personnelles collectées
  • Techniques d’évasion : l’IA permet d’éviter la détection par les systèmes de sécurité. Par exemple, les malwares polymorphes changent leur code pour échapper aux antivirus
  • Génération automatisée de logiciels malveillants. Par exemple, des algorithmes peuvent créer des variantes de virus pour éviter la détection
  • Outils de reconnaissance pilotés par l’IA. Ils collectent des informations sur les cibles. Par exemple, l’IA peut analyser les profils des réseaux sociaux pour des attaques de phishing ciblées
  • Deepfakes pour l’ingénierie sociale : des deepfakes créés par l’IA sont utilisés pour tromper les individus, par exemple en créant de fausses vidéos ou de faux audios d’une personne influente pour manipuler l’opinion publique

Pour illustrer son propos et mettre en avant les récents progrès réalisés par les cybercriminels, Hakim Loumi approfondit l’exemple des deepfakes audio : « Les deepfakes en vidéo et en image présentent encore quelques imperfections, mais en audio, ils sont redoutablement bien faits. Si des enfants ou des adolescents laissent leur voix sur internet, les pirates peuvent la récupérer et se faire passer pour eux. Ils contactent les parents, font parler l’enfant qui dit par exemple avoir été enlevé, puis font parler le cybercriminel qui demande une rançon. Dans l’immense majorité des cas, les parents obtempèrent », relate-t-il.

Et dans le monde de l’entreprise, ces deepfakes audio commencent à apparaître également. « On arrive à des audios qui commencent à devenir très crédibles. Dans ce type d’opération, le cybercriminel contacte un salarié en se faisant passer pour un des dirigeants de la société. En général, la voix utilisée n’est pas connue de la victime et quand elle est laissée sur un répondeur, sans interaction, cela peut être extrêmement efficace », note Hakim Loumi.

Des opérations de phishing toujours plus sophistiquées

Un autre domaine dans lequel l’IA apporte une réelle avancée aux cybercriminels concerne les opérations de phishing. Plus de 74 % des répondants (75,5 % en France) interrogés dans le cadre de l’étude Bitdefender ont constaté une plus grande sophistication des attaques de phishing

Une tendance que confirme Romain Basset, Expert cybersécurité chez Vade : « C’est un fait que sur la création de contenu, la qualité du message s’est très fortement améliorée. Quel que soit le véhicule par lequel vous recevez ce message (un SMS, un message sur Teams ou sur les réseaux sociaux), l’IA générative aide grandement les pirates. Elle leur permet de dépasser les preuves de traduction. Un de nos clients dans le secteur de l’imprimerie a ainsi reçu une attaque personnalisée qui utilisait le terme ‘bon à tirer’ qui est spécifique à ce secteur ».

Est-ce à dire que les cybercriminels sont en mesure de prendre le dessus sur les défenseurs ? Pour Richard de la Torre, Manager marketing technique chez Bitdefender, la réponse est affirmative : « À la question de savoir si l’IA profite davantage aux attaquants qu’aux défenseurs, je dirais qu’à l’heure actuelle, compte tenu de la fréquence et de l’ampleur des cyberattaques propulsées par des outils d’IA alimentés par des LLM, les groupes cybercriminels ont l’avantage. À titre d’exemple, les attaques par ingénierie sociale ciblant uniquement le secteur de la santé ont augmenté de manière stupéfiante de 1 265 % depuis le lancement public de ChatGPT en novembre 2022 selon le ministère américain de la santé et des services sociaux », note-t-il.

Un point de vue que rejoint Morey Haber, Chief Security Advisor de BeyondTrust : « L’adoption rapide de l’IA par les acteurs malveillants suggère qu’ils sont prompts à exploiter les nouvelles technologies. Leur absence de contraintes réglementaires et de considérations éthiques leur permet d’innover à un rythme qui dépasse souvent les vendeurs et les organisations adoptant des technologies défensives ». 

La collaboration au sein de la communauté de la cybersécurité : un atout maître

Morey Haber relativise cependant : « Il faut malgré tout reconnaître les efforts de collaboration au sein de la communauté de la cybersécurité pour contrer ces menaces émergentes. Les alliances industrielles, les initiatives de partage d’informations et le développement d’outils de défense pilotés par l’IA ont un impact significatif dans la lutte contre les menaces basées sur l’IA. L’affinement continu des algorithmes d’IA, couplé à l’intelligence collective de toute la communauté, sert à atténuer les avantages détenus par les acteurs malveillants. À ce jour, je dirais qu’un équilibre des pouvoirs est en place ». 

Quant à Vincenzo Ciancaglini, Senior Threat Researcher chez Trend Micro, il minore la capacité des cybercriminels à prendre de vitesse la communauté de la cybersécurité : « Il faut avoir en tête que les criminels veulent une vie ‘simple’ et ‘facile’. Ils n’adoptent pas une technologie juste parce qu’elle est là, ils sont très méfiants. Par ailleurs, pour qu’une nouvelle technologie connaisse une forte adoption, elle doit être meilleure que les technologies existantes. Et surtout, je dirais qu’ils préfèrent l’évolution à la révolution. Ils ne vont pas forcément changer l’ensemble de leurs flux d’activité et leurs processus du jour au lendemain ».

Pour Vincenzo Ciancaglini, l’IA sert les intérêts des pirates pour un nombre relativement limité d’usages : des applications relativement simples comme des bots pour simuler le comportement des utilisateurs, par exemple, pour générer du trafic sur Spotify, de la génération de campagnes d’email de phishing, des botnets sur X (ex-Twitter) et de la création de faux sites.

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.