
Anthropic victime d’une fuite de données
Articles du même auteur :
3
4
Un prestataire du spécialiste de l’IA générative a envoyé par erreur un fichier à un tiers, qui contenait des informations personnelles de clients.
Anthropic, le spécialiste américain de l’IA générative, a confirmé avoir été victime, le 22 janvier 2024, d’une fuite de données. Un de ses prestataires a envoyé par erreur à un tiers, fin 2023, un fichier contenant un « sous-ensemble » de noms de clients d’Anthropic et de « soldes de crédits ouverts ». Selon l’éditeur du LLM Claude, cette fuite n’inclut aucune donnée sensible, notamment aucune information bancaire ou de paiement.
Anthropic n’a pas communiqué sur le nombre de clients concernés et indique ne pas avoir eu « connaissance de comportements malveillants résultant de cette divulgation ». La firme a toutefois invité ses clients à la plus grande vigilance face aux risques d’arnaques. Elle évoque en particulier de possibles « demandes de paiement, de modification d’instructions de paiement, d’e-mails contenant des liens suspects, ou des demandes d’informations d’identification ».
« Notre enquête montre qu’il s’agit d’un incident isolé, causé par une erreur humaine, et non par une fuite des systèmes d’Anthropic », a rassuré la start-up. Cette annonce survient toutefois dans un contexte tendu pour les géants de l’IA générative. Fin janvier 2024, la Federal Trade Commission (FTC), le gendarme américain de la concurrence, a en effet lancé une enquête sur cinq entreprises du secteur :
La FTC craint que les partenariats stratégiques noués entre les premières et les secondes ne provoquent des distorsions de concurrence.