La révolution des LLM, ces nouveaux modèles d’IA générative, fait progressivement son nid à l'intérieur des entreprises. Pour le meilleur… et pour le pire. Alors que l’Open Worldwide Application Security Project (OWASP) a récemment mis à jour son top 10 des plus grandes vulnérabilités de ces outils propulsés à l’IA les experts Hervé Le Jouan et Alice Fournier ont décrypté certaines des vulnérabilités les plus significatives liées aux LLM lors du Forum InCyber Canada

Qu’ils soient orientés vers le client sous forme de chatbot, ou vers les employés pour optimiser la prise de décision, les LLM sont rapidement implantés au sein des entreprises. S’il existe « une réelle opportunité d’améliorer les choses grâce aux LLM », indique Alice Fournier, CISO d’ISS A/S, la vitesse à laquelle ceux-ci sont incorporés à l’intérieur des organisations s’avère dangereuse. 

Car contrairement aux logiciels traditionnels, dont les failles peuvent être corrigées par l’installation de mises à jour, les LLM reposent sur des probabilités statistiques. « Tout est construit au fur et à mesure avec les réseaux de neurones, les nœuds, la probabilité du choix de mots », explique l’entrepreneur spécialisé en cybersécurité et en IA Hervé le Jouan. Ainsi, déployer ces outils sans un cadre de gouvernance solide, en raison de leur nature non déterministe, représente un défi complexe mais crucial à relever.

La menace des prompt injections

Parmi les dangers qui pèsent sur le déploiement des LLM, l’un des plus préoccupants est la capacité qu’ont les acteurs malveillants à manipuler ces systèmes. Notamment, par le biais de prompt injections, où un attaquant réussit à sortir un LLM de son contexte de modération. « Le prompt injection représente un risque pour la cybersécurité, mais aussi à l’image de marque », explique Hervé le Jouan, mentionnant le risque que les LLM, en conversation avec des clients, se mettent à déblatérer des propos racistes ou misogynes, un type d’incident déjà observé chez les agents conversationnels dans le passé. 

Un chatbot mal configuré peut entraîner des répercussions juridiques significatives pour les entreprises, qui peuvent être tenues responsables pour les déclarations de leurs agents conversationnels. Plus tôt cette année, la compagnie aérienne Air Canada a dû verser des indemnités suite à la communication d’informations inexactes à un client via son chatbot, incitant ce premier à acheter un billet à plein tarif. La compagnie a d’ailleurs été critiquée pour avoir tenté de se dissocier des propos trompeurs générés par IA. Une situation qui illustre qu’en cas d’erreur, c’est l’entreprise qui finit par en assumer la responsabilité.

La manipulation des LLM, au-delà du texte

Si le prompt injection peut affecter les textes, les images sont elles aussi à la merci de la manipulation d’acteurs malveillants, avertit Hervé le Jouan. Par exemple, si un LLM est censé générer une image de chien, mais produit à la place celle d’un chat, cela indique que l’interprétation du LLM a été faussée. Une autre menace, celle de l’injection de prompt par code informatique, peut également faire des dommages considérables aux entreprises qui en sont victimes. 

« Dans Github [une plateforme de développement permettant aux utilisateurs de créer, stocker, gérer et partager leur code], on a vu des codes hackés, qui contenaient des lignes de code invisibles. Le développeur qui téléverse le code source dans un LLM et lui demande de l’améliorer grâce à la fonction copilote fait en sorte que le LLM exécute le code invisible  », et ce, complètement à l’insu du développeur, alerte Hervé le Jouan. Une telle tactique de prompt injection peut permettre à l’attaquant de s’introduire dans des bases de données d’entreprise et de mettre la main sur des informations sensibles.

La responsabilité en cas de défaillance des LLM

Lorsqu’un chatbot communique de fausses informations aux clients, ou quand un LLM piraté permet à un attaquant de s’emparer des secrets commerciaux d’une entreprise, à qui incombe la responsabilité? Cette question épineuse est au cœur des enjeux de sécurité liés aux LLM. 

Si l’apprentissage autonome de ces modèles — leur capacité à s’adapter aux besoins des clients et à reconnaître des schémas — constitue une force indéniable, elle représente également une vulnérabilité majeure, difficile à attribuer à une partie précise. Les LLM restent des outils fondamentalement instables (on ne peut prévoir leur output), et particulièrement indéchiffrables : « Aujourd’hui, peu de personnes peuvent prétendre comprendre les LLM à 100 % », souligne Hervé Le Jouan.

D’où l’importance de la collaboration interdisciplinaire au sein de l’organisation, insiste Alice Fournier. « Dans un tel contexte, c’est critique de collaborer avec la sécurité, les TI, le marketing, le commercial et le légal. Car il y a tellement d’incertitudes sur la façon dont les choses vont évoluer. Des réflexes de sécurité, comme ceux liés à la protection de la vie privée, sont des choses auxquelles il faut penser dès le départ ». Il est donc essentiel d’envisager cette réflexion en équipe et en amont, dans un cadre dont les contours demeurent difficiles à anticiper.

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.