Anthropic accuse des hackers liés à la Chine d’avoir utilisé son IA Claude pour mener des cyberattaques automatisées.
Articles du même auteur :
3
4
L’entreprise américaine affirme avoir détecté, mi-septembre, une série d’intrusions visant une trentaine d’organisations – grandes entreprises technologiques, institutions financières, industriels et agences publiques. Les attaquants se seraient fait passer pour des analystes en cybersécurité afin d’amener le chatbot à exécuter des tâches successives, formant une campagne d’espionnage sophistiquée. Selon Anthropic, Claude aurait contribué à développer un outil capable de compromettre des systèmes et d’exfiltrer des données.
Plusieurs spécialistes appellent toutefois à la prudence. Martin Zugec (Bitdefender) estime que le rapport d’Anthropic avance des conclusions « spéculatives » sans éléments techniques vérifiables. Le secteur rappelle que l’automatisation complète d’attaques via IA reste limitée, les modèles générant encore de nombreuses erreurs.
Cette affaire s’inscrit dans un contexte où d’autres éditeurs, comme OpenAI, ont déjà signalé des usages malveillants par des acteurs étatiques, au risque d’alimenter un discours alarmiste profitable aux acteurs de la cybersécurité et de l’IA. Anthropic dit avoir bloqué les comptes impliqués et averti les organisations ciblées.