Alors que l’IA Act pourrait tarder à entrer totalement en vigueur, les experts se demandent si cette loi européenne, garde-fou éthique de l’intelligence artificielle, ne sera pas rapidement totalement dépassée vu la vitesse hallucinante à laquelle progressent les faussaires. C’était l’un des thèmes majeurs du Forum INCYBER 2026 à Lille. 

« Il suffit aujourd’hui de cinq secondes prises sur YouTube ou tout autre enregistrement pour copier et imiter à la perfection une voix humaine et tromper tous ses interlocuteurs », affirme Jérôme Nevicato, réserviste citoyen de la gendarmerie (ComCyberMI) et en charge d’une veille sur la menace IA. Tout ce qui peut constituer une preuve en justice peut désormais être facilement truqué par le commun des mortels. 

« Tous les outils sont disponibles en open source, ce qui a fait exploser le nombre de deepfakes et diminué drastiquement la courbe de complexité », abonde Adel Mebarki, CEO de la startup Foresight Data Agency, spécialisée dans l’objectivation des phénomènes numériques. « Il existe certes de nombreuses normes et outils pour identifier les falsifications et ces deepfakes, mais au fil du temps, aucun ne résiste au détournement, poursuit M. Nevicato. Cet empilement pourrait finalement mener à l’impuissance. » 

Surtout les IA « à haut risque » 

En tête de gondole figure donc l’IA Act, la loi censée encadrer les usages de l’intelligence artificielle en Europe. Adoptée il y a un peu plus de deux ans, son entrée en vigueur pourrait être retardée. La Commission européenne souhaite en effet éviter que des exigences trop lourdes viennent peser sur les sociétés. « Ce sont surtout les fournisseurs d’IA « à haut risque » qui sont dans la cible, précise Me Garance Mathias, avocate spécialisée en droit numérique, lorsque l’intelligence artificielle constitue par exemple un composant de sécurité ou est intégrée à un produit relevant du cadre européen de sécurité des produits (jouets, ascenseurs, dispositifs médicaux, etc.) » 

Le « dividende du menteur »

Nous avions été prévenus contre les images fabriquées. Nous n’avions pas vu venir l’inverse : le moment où même les images authentiques perdraient leur valeur de preuve. C’est ce que des chercheurs de l’Université de Yale, aux États-Unis, ont baptisé le « dividende du menteur ». Selon eux, dans certains cas, crier aux fake news permet de surmonter un scandale plus facilement qu’en gardant le silence. Il devient plus facile aujourd’hui pour un menteur de remettre en question des faits pourtant irréfutables.Signe que tout n’est pas permis, les investigations récemment lancées en Europe contre Grok, l’outil d’IA développé par X, le réseau d’Elon Musk. Elle a valu au milliardaire américain une mise en cause par la justice française. « Une enquête est en cours concernant la génération et la diffusion de contenus sexuels non consentis (deepfakes) et les atteintes visant des femmes et des mineurs, confirme M. Nevicato. Dans l’absolu, même lorsqu’une image est  entièrement générée par une IA, avec un visage synthétique, elle relève de l’infraction dès lors qu’elle représente des mineurs dans une mise en scène à caractère pédopornographique. » 

Un marché à 1 000 milliards de dollars

« Aujourd’hui, le défi n’est plus seulement de distinguer un contenu humain d’un contenu généré par l’IA, confirme le Dr Emilia Tantar, du Luxembourg House of Cybersecurity. Il faut désormais considérer des risques plus subtils et techniques, tels que le bruit adversarial universel (petites perturbations introduites dans les faiblesses des modèles d’IA, ndlr), quelques pixels par exemple imperceptibles dans les données d’entrée, mais capables de perturber significativement les systèmes. » L’enjeu est énorme : évalué à 244 milliards de dollars l’an dernier, le marché de l’intelligence artificielle pourrait atteindre près de 1 000 milliards de dollars d’ici 2031 ! 

« La conformité devient un levier stratégique et non plus seulement une contrainte, conclue Quentin Cozette, expert en cybersécurité et en gouvernance de l’IA, notamment dans un paysage où coexistent plusieurs réglementations, comme NIS2 et l’IA Act. » Se mettre en conformité rapidement pourrait donc finalement apporter aussi des avantages pour les sociétés, en termes d’image auprès de leurs clients. 

Un corset législatif

Au-delà de l’IA Act, d’autres initiatives existent comme le programme Eufactcheck.eu, mis en place par l’European Journalism Training Association (EJTA) et destiné à débusquer les fake news concernant la politique et les sujets européens. « Cet exemple illustre la nécessité d’une vérification collaborative et d’une référence officielle et normative à l’échelle européenne, poursuit le Dr Tantar, similaire à la vérification par l’Académie française pour les dictionnaires. » Mais ce corset législatif annoncé ne risque-t-il pas de freiner l’innovation en matière d’IA ? « Assurément pas, répond M. de Mercey, c’est un mythe ! Grâce aux progrès sur les freins de voiture, on roule plus vite aujourd’hui et davantage en sécurité. »  

Reste maintenant à savoir qui sera en charge de la conformité de l’intelligence artificielle dans les entreprises. « Le DPO et le RSSI seront amenés à travailler ensemble sur un même document de référence, prédit Jérôme de Mercey, cofondateur de l’éditeur de logiciels Dastra et ancien de la CNIL. C’est un sujet juridique, c’est du droit et le RSSI aura besoin de consignes claires ! Il faut garder la même méthodologie que pour le RGPD. »

Une boucle infinie   

« Le problème, c’est qu’on nous interroge post-attaque, souligne M. Mebarki. Nous sommes davantage sollicités dans la réaction que dans la prévention alors qu’il faut au contraire identifier les signaux faibles précurseurs d’une opération le plus tôt possible pour évaluer la riposte. On identifie des « patterns » (modèles) de deepfakes mais ils évoluent à grande vitesse, c’est une boucle infinie. »

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.