
- Accueil
- Cybersécurité
- Deepfakes : un défi émergent pour la cybersécurité des entreprises
Deepfakes : un défi émergent pour la cybersécurité des entreprises


Les deepfakes constituent une menace grandissante. Selon une étude publiée en février 2025 par iProov (spécialiste des solutions scientifiques pour la vérification de l’identité biométrique), les échanges de visages (« face swaps ») ont connu une augmentation de 704% sur les 12 derniers mois. Et selon une étude de Signicat, les tentatives de fraude par deepfake ont augmenté de 2 137 % en trois ans dans le secteur financier européen, passant de phénomène marginal à l’une des principales menaces pour l’identité numérique. Selon le cabinet Global Market Insights, le « marché » de l’IA Deepfake, évalué à 805,1 millions de dollars en 2023, pourrait même atteindre les 6,22 milliards de dollars en 2032, suivant un taux de croissance annuel moyen de 26,3 % sur la période.
La difficile détection des deepfakes
Un des principaux enjeux auxquels les responsables de la cybersécurité sont confrontés est la difficulté à reconnaître ces « contenus » frauduleux. L’’étude publiée par Iproov, a demandé à 2 000 personnes de désigner quels contenus étaient truqués parmi un ensemble d’images, vidéos et autres formats auxquels elles étaient confrontées.euls 0,1 % des participants ont pu distinguer avec précision le faux du vrai. Les fausses vidéos se sont révélées plus difficiles à identifier que les fausses images, les participants étant 36 % moins susceptibles d’identifier correctement une vidéo synthétique (c’est-à-dire générée par l’IA) qu’une image synthétique. Et bien que les inquiétudes concernant les deepfakes augmentent, nombreux sont ceux qui ne connaissent toujours pas cette technologie. Un répondant sur cinq (22 %) n’en a effet jamais entendu parler avant l’étude. Ce pourcentage grimpe quand il s’agit des personnes les plus âgées : 30 % des 55-64 ans et 39 % des plus de 65 ans n’ont ainsi jamais pris connaissance de l’existence des « deepfakes ».
Une autre expérimentation a été menée en France par le site Alucare.fr et l’agence Flashs, spécialisée en data. Ils ont demandé à l’IFOP de sonder plus de 2 000 Français sur cette thématique. Seul un tiers (33 %) des Français se sentent capables de détecter un deepfake et à peine 6 % en sont certains. Les jeunes et les hommes sont plus confiants : 55 % des 18-24 ans pensent y arriver contre 28 % des plus de 35 ans, et 40 % des hommes contre 28 % des femmes. Mais, confrontés à cinq images créées par un algorithme, 75 % des répondants ont cru à l’authenticité d’un portrait de médecin et 64 % à celle d’une vieille photo d’homme à cheval. Finalement, 94 % ont tenu pour réelle au moins une des images créées par une IA.
94% des répondants ont tenu pour réelle au moins une des images créées par l’IA @IFOP
Deepfakes : trois scénarios principaux
Selon Kaspersky, il existe trois principaux schémas de recours aux deepfakes. Le premier concerne la fraude financière. Les deepfakes peuvent en effet être utilisés comme levier d’ingénierie sociale, les cybercriminels ayant recours à la manipulation d’images afin de se faire passer pour des célébrités et piéger leurs victimes. Pour créer ce genre de deepfakes, les criminels utilisent des enregistrements où apparaît la célébrité imitée. Ils peuvent aussiassembler de vieilles vidéos entre elles pour produire du contenu de flux diffusé en direct sur les plateformes de réseaux sociaux, dans lequel on leur promet de doubler tout paiement en cryptomonnaie envoyé à l’émetteur de la vidéo.
Les deepfakes servent également à porter atteinte à la vie privée d’une personne donnée. De fausses vidéos peuvent être créées en accolant le visage d’une victime sur une vidéo pornographique préexistante, ce qui peut causer du tort à la personne visée, ainsi que de la détresse émotionnelle. Dans certains cas, il arrive qu’on appose des images de célébrités à des corps d’actrices pornographiques, dans des scènes explicites. Dans de tels cas, les victimes de deepfakes voient leur réputation entachée et leurs droits bafoués.
Enfin, les deepfakes sont utilisés pour cibler des entreprises à des fins d’extorsion de fonds, de chantage et d’espionnage industriel. La police de Hong Kong a révélé, le 5 février 2024, que des escrocs avaient utilisé des deepfakes pour soutirer environ 26 millions de dollars (environ 24 millions d’euros) à une multinationale. Un employé d’un centre financier chinois de ce groupe a ainsi reçu « des appels par vidéoconférence de quelqu’un se faisant passer pour un cadre supérieur de son entreprise, qui lui demandait de transférer de l’argent vers des comptes bancaires désignés ».
« Parmi tous les risques que les deepfakes peuvent faire courir aux entreprises, le vol de données n’est pas nécessairement le plus grave. Parfois, les atteintes à la réputation peuvent avoir des conséquences bien plus graves. Imaginez qu’une vidéo dans laquelle votre patron fait (en apparence) des déclarations polarisantes sur des questions sensibles soit publiée. Pour les entreprises, cela peut rapidement entraîner une chute du cours des actions. Cependant, bien que les risques associés à ce type de menace soient extrêmement élevés, la probabilité que vous soyez attaqué de cette manière reste extrêmement faible en raison du coût de création des deepfakes et du fait que peu d’attaquants sont capables de créer un deepfake de haute qualité », déclare Dmitry Anikin, expert senior en sécurité chez Kaspersky.
« Ce que vous pouvez faire dès aujourd’hui, c’est connaître les principales caractéristiques des deepfakes et garder une attitude sceptique face aux messages vocaux et aux vidéos que vous recevez. Assurez-vous également que vos employés comprennent ce qu’est un deepfake et comment ils peuvent le reconnaître : en scrutant, par exemple, des mouvements saccadés, des changements dans le teint de la peau, des clignements étranges ou l’absence totale de clignements, etc. », ajoute en guise de conclusion l’expert en cybersécurité.
la newsletter
la newsletter