En dialoguant avec des LLM pendant leur exécution, ces logiciels malveillants peuvent modifier leur code ou ajuster leur stratégie d’attaque.

Le Google Threat Intelligence Group (GTIG) a publié, le 6 novembre 2025, un rapport révélant l’existence de logiciels malveillants exploitant des modèles d’IA pour adapter leur comportement en temps réel. Selon les chercheurs, cette évolution marque le début d’une nouvelle ère pour la cybercriminalité.

Le GTIG a identifié plusieurs souches de malwares capables, grâce à des échanges avec une IA génératrice tierce, de :

  • générer des scripts malveillants ciblés ;
  • transformer leur code source pour échapper à la détection ou faire évoluer leurs capacités ;
  • modifier leur comportement pendant la phase d’attaque.

Si certaines souches semblent issues de projets expérimentaux, d’autres sont déjà opérationnelles. Selon le GTIG, le groupe APT28, affilié à la Russie, aurait déjà utilisé un logiciel malveillant générant des commandes via un LLM lors d’une attaque contre l’Ukraine.

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.