Les projets de mise en conformité réglementaire et d’application des grands principes éthiques sont des projets complexes pour les entreprises. Séduire les jeunes générations et maîtriser de bout en bout l’ensemble des algorithmes constituent deux défis majeurs à relever.

En avril 2021, la Commission européenne a dévoilé un projet de régulation de l’intelligence artificielle (IA). Avec ce texte, la Commission réaffirme l’importance stratégique de l’IA pour l’Europe, tout en établissant une vision commune reposant sur l’éthique, l’objectif étant de prévenir les risques inhérents à cet ensemble de technologies.

Le 23 février 2022, la Commission européenne a présenté sa proposition de directive sur la « diligence raisonnable » des entreprises en matière de développement durable. Instaurer un devoir de vigilance européen contraignant pour les entreprises constitue une avancée non négligeable vers un écosystème économique européen plus durable et plus respectueux des droits humains, des droits sociaux et de l’environnement dans les chaînes de valeur mondiales.

Le 1er septembre 2022, la loi Waserman est entrée en vigueur en France en transposant en loi nationale la directive européenne 2019/1937 du 23 octobre 2019 dont l’objectif est d’unifier, au sein de l’UE, la protection des lanceurs d’alerte. Cette transposition a été faite par la modification de la loi Sapin II. Le décret d’application s’y afférent a été publié le 3 octobre 2022.

Ces trois thématiques ne sont qu’une illustration de la multitude de réglementations auxquelles les entreprises sont confrontées à travers le monde, et plus particulièrement en Europe, et de la pression qui s’exerce sur elles en matière de conformité et d’éthique. « Les entreprises sont confrontées à un déluge réglementaire. La technologie les aide à se mettre en conformité. Il ne s’agit pas de se doter d’outils technologiques pour le plaisir, mais bien de choisir intelligemment les solutions les plus pertinentes pour couvrir les risques, les exigences légales mais aussi les bonnes pratiques », déclare Noshin Khan, Senior compliance counsel chez OneTrust.

Populations les plus jeunes : une cible à adresser avec ingéniosité

Dans les entreprises et organisations, les populations les plus jeunes, c’est-à-dire âgées de moins de 30 ans, ne sont parfois pas les plus sensibilisées à la thématique de la conformité et de l’éthique. C’est un véritable défi pour les entreprises, notamment celles qui évoluent dans le secteur de la technologie, en raison du pourcentage élevé que ces populations représentent dans leurs effectifs. Pour intéresser les jeunes générations à ces sujets, il est nécessaire de déployer des stratégies d’approche innovantes et attractives.

« Si vous devez utiliser TikTok pour atteindre votre audience, il ne faut pas hésiter. L’objectif est de délivrer les messages là où les jeunes collaborateurs se trouvent. Par ailleurs, il faut avoir en tête que l’engagement de ces salariés est clé, ils sont nos yeux et nos oreilles. S’ils se sentent appartenir à un collectif, à une ‘famille’, les jeunes collaborateurs s’impliqueront dans les projets liés à la conformité et à l’éthique », complète Noshin Khan.

Noshin Khan a ainsi développé un programme certifiant appelé « Trust Troopers ». Ce dernier propose, à la manière du film « Hunger Games », un véritable parcours composé de sessions de formation de 20 minutes, ainsi que de courtes vidéos ou de quiz à consulter sur son smartphone. « Ce parcours permet à chacun de s’approprier cette thématique à son rythme. Il est composé de modules obligatoires, mais aussi d’une série de livres et de films que nous conseillons de lire et de regarder, comme par exemple Philadephia, Scandale, Worth, The Tinder Swindler, etc. », note Noshin Khan.

Établir la confiance est un prérequis pour pouvoir déployer des projets de conformité et d’éthique dans les entreprises. « Les services en charge de la conformité et de l’éthique peuvent mettre en place tous les dispositifs possibles et imaginables, si tout le monde n’est pas concerné par le sujet, leur tâche n’en sera que plus complexe. À l’inverse, quand un collaborateur vient vers vous et vous demande si offrir une carte Amazon à un client est correct, car il a un doute, alors vous savez que les messages sont bien passés et ont été compris », analyse Noshin Khan.

L’éthique au sein des algorithmes d’intelligence artificielle : un sujet sensible

Autre sujet de préoccupation pour les entreprises : la définition très large, selon le projet de la réglementation européenne « Artificial Intelligence Act », de ce qu’est l’intelligence artificielle. « Selon ce texte, un tableau Excel pourrait être assimilé à de l’IA, ce qui impacterait toutes les entreprises. Il faut selon moi se concentrer sur les sociétés spécialisées dans les algorithmes les plus complexes qui font de l’IA pure et dont c’est le cœur de métier, comme le Machine Learning ou le Deep Learning. Si la cible est trop large, les vrais risques passeront à travers les mailles du filet », ajoute Noshin Khan.

Pour traiter ce sujet sensible de l’éthique au sein des algorithmes d’intelligence artificielle, il est conseillé de créer un comité transversal à toutes les activités de l’entreprise. Ce type d’entité permet d’acquérir une vue globale sur l’ensemble des enjeux et d’uniformiser les processus à travers toute l’organisation et aussi de diminuer considérablement ou éliminer tout biais ou discrimination.

« Il sera également nécessaire, demain, d’être en mesure de prouver que vous avez pris en compte tous les enjeux liés à l’intelligence artificielle et que toutes les mesures indispensables ont été mises en œuvre », commente Noshin Khan. Selon le risque, plus ou moins élevé, lié à l’intelligence artificielle, certaines entreprises pourront procéder à une auto-certification reposant sur des vérifications effectuées en interne et des rapports fournis par une solution logicielle spécialisée en conformité.

Autre conseil pour être en conformité avec la législation : garder en permanence la maîtrise des algorithmes d’intelligence artificielle développés en interne. Concrètement, cela signifie comprendre à tout moment comment les algorithmes fonctionnent et comment ils parviennent au résultat qu’ils proposent.

« L’intelligence artificielle a déjà 25 ans d’avance sur ce qui était prévu en 2020. Elle fournit les résultats attendus par les utilisateurs, mais ces derniers ne sont parfois plus capables d’expliquer comment l’algorithme s’y est pris. Ils sont confrontés à ce que nous appelons des ‘black boxes’, des boîtes noires », complète Noshin Khan.

Le projet de réglementation européenne sur l’IA beaucoup plus strict qu’ailleurs dans le monde

Face à ces boîtes noires, les développeurs sont amenés à interpréter les résultats, imaginant que l’intelligence artificielle a procédé de telle ou telle manière. C’est un travers que le projet de règlementation européenne souhaite éviter avec une exigence d’explication sur le fonctionnement des algorithmes.

« La Chine et les États-Unis s’embarrassent beaucoup moins que l’Europe de ces aspects-là. Le texte européen est beaucoup plus strict que les autres textes dans le monde. Cela peut potentiellement nous porter préjudice et nous faire prendre du retard. Mais cela peut aussi, comme avec le RGPD, devenir une référence internationale sur laquelle la plupart des pays tendent à s’aligner », conclut Noshin Khan.

Quoi qu’il en soit, que le sujet porte sur les biais de l’intelligence artificielle, la protection des lanceurs d’alerte ou la « diligence raisonnable » des entreprises, rentrer en conformité avec l’ensemble de ces réglementations et défendre les grands principes éthiques nécessite de se doter de moyens humains, organisationnels et d’outils technologiques conséquents. Il s’agit d’une véritable stratégie d’entreprise qui doit être portée et soutenue par les dirigeants eux-mêmes.

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.