![[Shadow IA :] les entreprises structurent leur approche](https://incyber.org//wp-content/uploads/2024/06/incyber-news-avatar-cybersecurite-cybersecurity-2160x735.jpg)
- Accueil
- Gestion des risques
- Shadow IA : les entreprises structurent leur approche
Shadow IA : les entreprises structurent leur approche


Selon une analyse de Forrester réalisée l’an dernier, 60 % des salariés utiliseront cette année leur propre IA pour effectuer certaines tâches quotidiennes liées à leur fonction, tombant ainsi dans le phénomène du shadow AI. Les collaborateurs contournent en effet les politiques de sécurité de leur organisation parce qu’ils pensent que c’est le moyen le plus efficace de faire leur travail.
« En 2024, le shadow AI se développera, car les organisations qui s’efforcent de gérer les questions de réglementation, de protection de la vie privée et de sécurité ne seront pas en mesure de faire face à la généralisation du BYOAI (bring your own AI). En plus des outils d’IA générique, les salariés utiliseront également des logiciels d’IA qui leur appartiennent personnellement, ce qui contribuera à l’essor du BYOAI au cours de l’année à venir », peut-on lire sur le site du cabinet d’études.
Pour Stéphane Roder, CEO d’AI Builders, l’apparition d’outils d’IA générative très performants a constitué une vraie catastrophe. « ChatGPT a donné un accès incroyable à l’IA et a fait exploser le shadow AI. Alors qu’il fallait auparavant un data scientist pour manipuler l’IA, trois clics ont suffi avec ChatGPT. Mais cela a été une vraie catastrophe, pour deux raisons. La première est la puissance et l’attractivité de l’outil, qui a rendu des services incroyables aux collaborateurs. La seconde tient à la mise à disposition de cet outil de manière gratuite, sans toutefois bien préciser que tout ce qui est saisi appartient à OpenAI, la société qui a conçu ChatGPT ».
L’IA générative, deuxième risque le plus souvent cité par les responsables des risques d’entreprise
La crainte exprimée par Stéphane Roder est reprise par le cabinet Gartner qui, en août 2023, a mis en avant le fait que la disponibilité massive de l’IA générative était devenue l’une des principales préoccupations des responsables des risques d’entreprise au deuxième trimestre 2023. « L’IA générative est le deuxième risque le plus souvent cité dans notre enquête du deuxième trimestre, apparaissant pour la première fois dans le top 10. Cela reflète à la fois la croissance rapide de la sensibilisation du public et de l’utilisation des outils d’IA générative, ainsi que l’étendue des cas d’utilisation potentiels, et donc des risques potentiels, que ces outils engendrent », a déclaré Ran Xu, directeur de la recherche au sein de Gartner Risk & Audit Practice.
Outre la fuite d’information, que l’on peut également retrouver dans le shadow IT traditionnel, les outils d’IA générative présentent deux risques supplémentaires, bien spécifiques : « Si une solution SaaS présente une vulnérabilité, le risque est que les données soient exposées. Avec l’IA générative, le problème vient de la confiance que l’on a dans le modèle qui va générer les résultats. Les deux principaux problèmes sont les biais et les hallucinations. Les biais sont dus à une non-représentativité de la donnée. L’hallucination est beaucoup plus compliquée : elle concerne la vectorisation des données qui a mis en correspondance des informations qui n’auraient pas dû l’être », note Christophe Menant, Responsable des offres cybersécurité chez Capgemini France.
Des mesures prises par Samsung, Amazon et Goldman Sachs, entre autres
En avril 2023, Samsung a fait les frais de fuites d’informations confidentielles via ChatGPT. Trois collaborateurs de la division semi-conducteurs ont en effet utilisé les services de l’agent conversationnel pour diverses tâches : optimiser le code source d’une base de données (recherche de failles éventuelles), vérifier la qualité de lignes de code d’un programme et effectuer le résumé d’une réunion.
Un mois plus tard, la firme coréenne a précisé dans une note vouloir interdire de manière temporaire l’utilisation des services d’intelligence artificielle générative pour les smartphones, ordinateurs et tablettes qui lui appartiennent. Cette interdiction s’appliquait aux employés du département des appareils mobiles et électroménagers, Samsung précisant qu’elle s’efforçait de trouver les moyens d’utiliser les services d’IA générative dans un « environnement sûr pour les employés afin que l’efficacité et la commodité du travail puissent être améliorées » (source : AFP).
D’autres groupes d’envergure mondiale ont eux aussi interdit ou fortement restreint l’utilisation des outils d’IA générative. C’est le cas de banques comme Goldman Sachs, Wells Fargo, Deutsche Bank, JPMorganChase et Bank of America, mais aussi d’acteurs technologiques comme Verizon et Apple, ou bien encore du géant de l’e-commerce américain Amazon.
Après les premières expérimentations, il faut recadrer
Dans ce contexte, les entreprises se posent la question de savoir comment réagir, au-delà de la simple interdiction ou de la restriction d’usage des outils incriminés. Les usages étant bien présents, les directions générales, les DSI et les directions métier doivent gérer ce « dossier » de manière très sérieuse. « Après avoir laissé libre cours aux premières expérimentations, il faut recadrer les choses. C’est la grosse difficulté qu’ont toutes les grandes organisations. Avant toute chose, il est nécessaire de mener une étude de fond pour savoir qui utilise quoi et si cela vaut le coup d’investir sur une infrastructure dédiée, privative », prévient Stéphane Roder.
Mais cette étude de fond fait appel avant tout à l’humain, rappelle Marion Videau, Chief Scientific Officer de Quarkslab : « Pour comprendre les usages, ce sont des mécanismes humains qui doivent se mettre en place, dans un rapport de sincérité par rapport aux tâches réalisées quotidiennement et aux outils potentiels. Ces mécanismes humains reposent sur la confiance et tiennent des processus et méthodes de travail. Ils renvoient aux bons usages du métier. Par ailleurs, il est nécessaire de sensibiliser les salariés au fait d’utiliser des outils qui correspondent à leur niveau de sensibilité de l’information. Si vous manipulez des données sensibles, vous ne pourrez pas vous servir de la transcription et la synthèse de réunions dans votre outil de visioconférence favori ».
Si l’étude menée en interne fait apparaitre la nécessité d’industrialiser le déploiement d’outils d’IA générative, alors un « data office » est nécessaire. « Un data office est un hub qui édicte les règles à respecter par tous les collaborateurs et met à leur disposition une infrastructure dédiée », précise Stéphane Roder.
Mais attention, ce type de solution a un coût. Il est donc plus que nécessaire de savoir précisément qui a réellement besoin d’une licence. « Il ne faut pas être dans les extrêmes, mais trouver un équilibre entre l’interdiction totale et l’équipement de tout le monde. Les entreprises qui interdisent l’accès frustrent leurs salariés et donnent une mauvaise image en interne. Les entreprises qui équipent 100 % de leurs collaborateurs ont de la déperdition et donc des coûts inutiles. Celles qui ont distribué les accès aux bonnes personnes voient que leur choix est pertinent et que les accès sont bien utilisés », commente Stéphane Roder.
Un équilibre que semble avoir trouvé le groupe Axa à travers sa business unit Axa Group Operations. En juillet 2023, elle a déployé un service baptisé « Axa Secure GPT » permettant à l’ensemble de ses collaborateurs de « générer, résumer, traduire et corriger des textes, des images et des codes » en toute sécurité, selon un communiqué. Cette plateforme repose sur un partenariat entre Axa et Microsoft et s’appuie sur la technologie Azure Open AI de Microsoft.
« L’utilisation d’outils ouverts peut entraîner de graves problèmes, notamment des fuites de données, des failles de sécurité et la perte de propriété intellectuelle. AXA a une fois de plus démontré sa capacité à innover rapidement, en tirant parti de son infrastructure basée sur le cloud. Ce faisant, AXA devient l’un des premiers assureurs mondiaux à développer une telle plateforme à grande échelle tout en gérant les risques potentiels », a déclaré Alexander Vollert, Directeur des Opérations du Groupe et Directeur Général d’AXA Group Operations.
la newsletter
la newsletter