
Sextorsion : le FBI alerte sur l’utilisation de deepfakes
Articles du même auteur :
1
2
4
La démocratisation des outils de création visuelle par IA provoque un inquiétant développement des deepfakes pornographiques servant à faire chanter des victimes
Le FBI a publié, le 5 juin 2023, un avis de sécurité sur une hausse des sextorsions utilisant des deepfakes pornographiques. « Depuis avril 2023, le FBI a observé une augmentation du nombre de victimes de sextorsion signalant l’utilisation de fausses images ou vidéos créées à partir de contenus publiés sur leurs sites de réseaux sociaux ou sur le web, fournies à l’acteur malveillant sur demande, ou capturées lors de chats vidéo », lit-on dans le communiqué.
La génération d’images par IA (photos et vidéos) s’est largement démocratisée, y compris pour la création de deepfakes illégaux. De nombreux outils de ce genre sont disponibles gratuitement sur GitHub. Sur des forums cybercriminels, des annonces proposent ainsi de « transformer n’importe quelle photo en image porno ».
Ces fausses images pornographiques réalistes peuvent être utilisées pour harceler ou faire chanter des personnes, notamment des enfants. L’auteur peut ainsi directement publier ces images sur différents sites ou les envoyer à des proches de la victime, afin de détruire sa réputation.
Dans les cas de sextorsion, le FBI distingue deux types de chantage. Le malfaiteur peut exiger « soit un paiement (par exemple, de l’argent, des cartes-cadeaux) avec la menace de partager les images ou les vidéos avec des membres de la famille ou des amis sur les réseaux sociaux (…) ; soit que la victime envoie de vraies images ou vidéos à caractère sexuel ».
Le FBI préconise des conseils de prudence sur la publication, la diffusion ou l’envoi de fichiers photo ou vidéo, « en particulier lorsqu’il s’agit d’enfants ».