1 min

Signature du premier accord international sur la sécurité de l’IA

Ratifié par 18 des 54 pays signataires de la déclaration de Bletchley, il n’a aucune valeur contraignante.

Transformation numérique - 29 novembre 2023

18 pays ont signé, le 26 novembre 2023, le premier accord international, non contraignant, sur l’IA et les moyens d’assurer sa sécurité. Il prolonge le « AI Safety Summit », qui avait réuni 54 pays, les 1er et 2 novembre 2023, à Bletchley Park, au Royaume-Uni. Ce sommet avait conduit à l’adoption, par tous les pays présents, de la « déclaration de Bletchley » sur la sécurité de l’IA.

La France a ratifié ce nouveau texte, ainsi que l’Allemagne, les États-Unis, le Japon et le Royaume-Uni mais pas la Chine, pourtant signataire de la « déclaration de Bletchley ». L’accord définit 17 « lignes directrices pour le développement sécurisé de systèmes d’IA », élaborées avec les géants du secteur, OpenAI, Google, Microsoft, Amazon ou Anthropic.

Ces directives actent la nécessité de protéger les modèles d’IA et leurs données, dans une logique de « secure by design », de réaliser des tests avant la mise en ligne ou d’en garantir la transparence. « Ces directives représentent un accord historique. Les développeurs doivent investir pour protéger les clients à chaque étape de la conception et du développement d’un système », a commenté Alejandro Mayorkas, secrétaire à la Sécurité intérieure des États-Unis.

La portée de cet accord, signé uniquement par des alliés des États-Unis, reste toutefois limitée. Non seulement il ne comporte aucune mesure contraignante pour les entreprises du secteur, mais il ne se fixe même pas l’objectif d’en élaborer à terme.

Partager cet article avec un ami