

Selon Françoise Soulié, conseillère scientifique au Hub France IA, une intelligence artificielle digne de confiance doit être transparente dans ses actions et fiable dans son exécution. Elle doit clairement signaler son identité en tant qu’IA et spécifier ses objectifs ainsi que son niveau de performance. Enfin, elle doit fonctionner en évitant les attaques, distorsions, deep fakes…
Nozha Boujemaa, vice-présidente « AI innovation & Trust » chez Décathlon, complète le tableau : « Une IA de confiance se doit d’être robuste, ce qui ne signifie pas forcément performante. On observe des IA performantes mais non fiables. La robustesse implique la transparence, l’interprétabilité, la traçabilité et la reproductibilité. Pour établir la confiance dans une IA, il est crucial d’analyser les risques potentiels tout au long de son cycle de vie, de la collecte des données à leur transformation, la construction des modèles et leur déploiement. Une IA de confiance n’est pas juste du « good will », mais repose sur une infrastructure et des outils installés de manière très opérationnelle dans les entreprises et chez les producteurs de services numériques, autant pour les données que pour les modèles. Cela permet l’observabilité et la traçabilité aussi bien des données que des algorithmes, afin d’être capables de détecter toutes les sources de risques et d’y remédier ».
Les cinq particularités de l’AI Act
Emmanuelle Legrand, magistrate spécialisée détachée à la Direction générale des entreprises (DGE), qui a participé aux négociations de l’AI Act pour le compte de Bercy, enchaîne sur ce règlement européen, qui comporte, selon elle, cinq grandes caractéristiques. Il instaure des règles contraignantes, – approche assez classique de l’Union européenne -, assorties de sanctions en cas de violation et établit un système de gouvernance définissant les autorités de régulation à désigner et les conséquences des infractions aux obligations légales.
Il n’a pas vocation à régler tous les problèmes de l’IA mais s’inscrit dans une approche de réglementation des produits, considérant l’IA comme un produit commercialisé dans le marché de l’Union européenne et soumis à un certain nombre de conditions. Le texte s’applique aux secteurs public et privé, soulevant un défi en termes de précision des règles pour être opérationnel dans des contextes variés. Il adopte une approche neutre sur le plan technologique, ciblant les produits incorporant de l’IA et non les technologies elles-mêmes. Enfin, l’AI Act repose sur une approche fondée sur le risque, en se concentrant non pas sur les risques intrinsèques de la technologie, mais sur ceux associés à certains usages spécifiques de l’IA. « Cette approche a été annoncée dès 2019 et a été suivie d’un Livre blanc en 2020 et d’une consultation publique. Ce processus a permis à la Commission européenne de définir l’orientation réglementaire finalement retenue », rappelle la magistrate.
Irakli Khodeli, chef de l’unité « Éthique de l’IA » à l’Unesco, relate les travaux menés sur l’IA en termes d’éthique. « Lorsqu’on établit une régulation stricte dans une région du monde, les acteurs ont tendance à se délocaliser dans un autre endroit où la régulation est moins contraignante, affirme-t-il. Un cadre global s’avère donc nécessaire avec les mêmes règles et standards partout. C’est ce que L’Unesco a accompli voilà deux ans. Les 193 membres ont adopté une recommandation sur l’éthique de l’intelligence artificielle. La gouvernance n’était pas le seul enjeu, souligne-t-il. Les bénéfices de l’IA doivent aussi être accessibles aux pays en développement ».
Faire collaborer le monde de la cybersécurité et celui de l’IA
Emmanuelle Legrand le précise, dans le but d’étendre les règles du jeu de l’IA au delà de l’Europe, les États du Conseil de l’Europe se sont entendus en mars dernier, avec des partenaires internationaux non membres du Conseil, sur le contenu d’une convention internationale sur l’intelligence artificielle intégrant des règles contraignantes. « De nombreux acteurs, dont les États-Unis, le Canada, la Grande-Bretagne, le Mexique et le Japon, ont participé à son élaboration, raconte-t-elle. Une consultation accrue de la société civile a été intégrée dans le processus, la volonté commune étant de faire bénéficier l’ensemble de la population des bienfaits de l’IA ».
Les intervenants s’accordent sur un point, la collaboration entre experts en cybersécurité et experts en IA est essentielle pour garantir des systèmes d’IA fiables, sécurisés et respectueux des droits fondamentaux. « Les spécialistes de l’IA ont mis en œuvre des applications d’IA dans les entreprises sans jamais se poser la question de leur protection cyber, la considérant comme la responsabilité des experts en cybersécurité. Il en était de même pour les professionnels de la cyber », affirme Françoise Soulié. « Aujourd’hui, on ne peut plus se renvoyer la patate chaude et il faut s’en emparer tous ensemble. En effet, l’IA est protégée comme n’importe quel programme informatique alors qu’elle n’en est pas tout à fait un. Elle peut être attaquée de nombreuses façons : au moment de la collecte des données en les empoisonnant, en perturbant l’apprentissage du modèle, en bloquant un certain nombre d’itérations… Le rapport du NIST sur les attaques adversariales liste toutes les attaques sur l’IA prédictive et quelques-unes sur l’IA générative et donne des pistes de remédiation. Ces attaques sont bien plus complexes que celles connues par les professionnels de la cyber, et il est nécessaire qu’ils travaillent avec les experts de l’IA pour construire les défenses adaptées ».
Les spécialistes de l’IA ont mis en œuvre des applications d’IA dans les entreprises sans jamais se poser la question de leur protection cyber, la considérant comme la responsabilité des experts en cybersécurité. Il en était de même pour les professionnels de la cyber
Françoise Soulié, conseillère scientifique au Hub France IA
En fin de conférence, à la remarque « certains pensent que les règlementations ralentissent l’innovation », Emmanuelle Legrand a rétorqué : « il faut arrêter d’opposer le droit et l’innovation, ce qui passe par un changement de mentalité des deux côtés : pour les acteurs, ne pas systématiquement voir une règle de droit comme une contrainte insurmontable et, pour les juristes, essayer de mieux comprendre l’environnement dans lequel ils travaillent, ainsi que les besoins et les limites des technologies sur lesquelles ils ont à intervenir. Concernant l’application de l’AI Act, il ne s’agit pas juste d’un texte qui va s’appliquer tel quel, tout le monde aura un rôle à jouer. Les entreprises disposeront d’une certaine marge de manœuvre dans leur domaine pour l’interpréter au plus proche de leurs cas d’usage et de leur activité ». La juriste évoque le rôle des régulateurs dont la responsabilité va consister à en faire une application intelligente, afin que législation et innovation ne s’opposent pas et que l’AI Act agisse comme un levier d’innovation et de développement pour les entreprises européennes.
la newsletter
la newsletter