- Accueil
- Gestion des risques
- Comment assurer la sécurisation des modèles d’IA ?
Comment assurer la sécurisation des modèles d’IA ?
L’intelligence artificielle a pris une place prépondérante dans nos vies. Dans la sphère personnelle comme professionnelle, les algorithmes influent sur nos décisions, voire les prennent à notre place. L’impact est mineur quand l’IA vous recommande les films à regarder sur une plateforme de streaming. Il l’est moins quand elle décide ou non de retenir votre candidature à un emploi ou rejette votre demande de prêt bancaire.
Longtemps cantonnée aux laboratoires de recherche, l’intelligence artificielle est, par ailleurs, désormais accessible au plus grand nombre, tout particulièrement depuis le tournant pris avec l’IA générative il y a un an et demi. Si elle est source d’innovation et de gains de productivité, l’IA introduit aussi de nouveaux risques d’ordre sécuritaire, juridique ou réputationnel.
« Alors que l’informatique « traditionnelle » suit un raisonnement déterministe avec un ensemble de règles bien défini, ce n’est pas le cas de l’IA », fait observer Hervé Le Jouan, associé cybersécurité au fonds de capital-risque SevenTrainVentures. Ce qui met en lumière, selon lui, un enjeu de transparence et d’explicabilité des modèles afin d’éviter l’effet boîte noire. Comment évaluer les risques propres à l’IA ? Comment encadrer son usage par des normes et des standards ?
« Comment gérer une IA qui évolue en permanence ? »
Un parterre d’experts, réunis fin mars, lors d’une table ronde au Forum InCyber de Lille ont tenté de répondre à ces questions. PDG fondateur d’EazyML, qui édite une plateforme de développement de modèles de machine learning, Deepak Dube estime que l’essor de l’IA présente un saut dans l’inconnu. « Comment gérer une IA qui évolue en permanence et se comporte de façon quasi autonome en s’autorégulant ? C’est un vrai défi en termes de sécurisation et de normalisation. »
Directeur cybersécurité et management produits chez Stormshield, éditeur français de logiciels spécialisés en sécurité informatique, Sébastien Viou propose d’aborder le sujet de façon pragmatique. « Un modèle IA reste un programme qui présente des vulnérabilités classiques même s’il est plus complexe et spécifique. Il s’agit donc de sécuriser toute la chaîne de traitement comme on le fait pour un logiciel courant. Statistiquement, Il y a un bug toutes les mille lignes de code. Cela ne change pas avec l’IA. »
Directeur adjoint de la sécurité au sein de la société d’assurances AXA, Patrick Menez abonde dans son sens. « Nous ne partons pas de zéro. Les modèles d’IA sont entraînés et exécutés sur des infrastructures connues. Les systèmes de protection conventionnels continuent à s’appliquer. »
En revanche, les conséquences potentielles d’une vulnérabilité prennent une tout autre dimension. « Imaginez le volume de données compromises dans le cas d’une fuite de données d’un grand modèle de langage ? », interroge-t-il. L’IA présente, par ailleurs, de nouvelles vulnérabilités. Dans le domaine de l’IA générative, la technique dite de « prompt injection » permet de contraindre un LLM (Large language model) à générer du contenu indésirable, trompeur ou toxique en désactivant ses protections naturelles.
Impliquer les experts métiers, former les collaborateurs
Sébastien Viou préconise d’introduire de nouvelles étapes de sécurisation propres à l’IA. « Un modèle sera, par exemple, formé sur un échantillon de données afin de s’assurer que le jeu de données dans son ensemble n’est pas compromis. » « Le fait de s’intéresser à la qualité des données n’est jamais une perte de temps, confirme Deepak Dube. Au contraire, cela évite les allers-retours quand il s’agit de collecter de nouvelles données car le premier data set n’était pas fiable. L’amélioration en continu des données est indispensable. »
Pour Sébastien Viou, l’effort de sécurisation accrue qu’exige l’IA ne doit pas se limiter aux seules équipes cyber mais impliquer les data scientists et les experts métiers. « Seuls les sachants savent quelles données utiliser et alerteront en cas de dérive du modèle ». Pour sa part, AXA a formé ses équipes IT spécifiquement à l’évaluation et à la gestion des risques liés à l’IA et mis en place un cadre de gouvernance pour encadrer les usages en interne autour de l’IA.
« Toutes les fonctions travaillent de façon coordonnée avec des responsabilités bien définies, explique Patrick Menez. C’est une liberté contrôlée. Nous les laissons développer et expérimenter autour de l’IA mais au sein de frontières bien délimitées. » AXA sensibilise également ses collaborateurs au bon usage de l’IA générative. « L’IA réagit différemment selon ce qu’on lui donne à manger, à savoir les prompts. »
Deepak Dube plaide, de son côté, pour recourir à une IA responsable, transparente et explicable. « Nous devons pouvoir expliquer comment, à partir de telles données en entrée, un modèle algorithmique obtient tel résultat en sortie. » Reprenant le fameux cas d’école du véhicule autonome causant un accident mortel, il estime que l’IA doit avoir la capacité d’indiquer, par exemple, que le drame a été provoqué par le système de freinage rendu déficient en raison du verglas sur la chaussée.
En attendant l’AI Act…
Pour les experts réunis lors de la table ronde, les exigences du futur cadre réglementaire et normatif permettront de structurer les politiques de sécurisation actuelles. Le travail de mise en conformité à l’AI Act, prévu pour entrer en vigueur début 2026, offre d’ores et déjà un ensemble de bonnes pratiques aux entreprises. En lien étroit avec le futur règlement européen, l’Afnor a engagé un travail de normalisation.
En attendant cette future norme dédiée à l’IA, Anna Prudnikova, Cybersecurity Manager chez Bureau Veritas, rappelle que les entreprises peuvent d’ores et déjà s’appuyer sur les standards existants sur la sécurité des systèmes d’information (ISO 27001, ISO 9001). « Les acteurs de la santé, de l’industrie ou de la finance peuvent aussi appliquer les réglementations et les normes propres à leur domaine d’activité ».
Tous les participants à la table ronde s’accordent à dire que ce cadre réglementaire et normatif ne doit pas être un frein à l’innovation. Patrick Menez y voit également un enjeu de souveraineté. « Les normes mettent en forme la façon dont on utilise les technologies. Elles modèleront le futur de l’IA. Ne laissons pas les GAFAM ou les géants asiatiques nous imposer leur vision de l’IA ». Un enjeu qui dépasse le seul terrain de la cybersécurité.
la newsletter
la newsletter