- Accueil
- Transformation numérique
- Le Web3, gage de confiance face à l’IA ?
Le Web3, gage de confiance face à l’IA ?
La taille du marché mondial de l’intelligence artificielle représentait 638 milliards de dollars en 2024 et devrait atteindre environ 3 680 milliards de dollars d’ici 2034, en se développant à un taux de croissance annuel composé de 19 % de 2024 à 2034, selon les chiffres fournis par le cabinet Precedence Research. Et dans une étude intitulée « Global Surveys » et publiée en octobre 2024, le cabinet McKinsey affirme que 65 % des entreprises interrogées déclarent utiliser régulièrement l’IA générative, soit près du double du pourcentage obtenu dix mois auparavant.
Quel rôle le Web3 peut-il jouer dans cette économie façonnée par l’intelligence artificielle ? Comment prévenir les risques liés à cet ensemble de technologies ? C’est à ces questions que Karen Jouve, CEO de l’entreprise Doors3, a tenté de répondre lors du salon Trustech qui s’est déroulé à Paris début décembre 2024.
Trois défis majeurs auxquels l’Internet est confronté pour garantir la confiance numérique
La dirigeante a tout d’abord détaillé les trois enjeux clés auxquels sont confrontés les échanges sur Internet. Le premier, c’est la manipulation, via notamment les deepfakes qui se multiplient grâce à l’IA. « Ces documents – il peut s’agir par exemple de vidéos truquées de personnalités publiques – diffusent de fausses informations qui peuvent nuire à la réputation de personnes ou d’organisations », déclare Karen Jouve. Mais la menace des deepfakes concerne aussi les entreprises. Selon le rapport Financial Census de Medius, 85 % des professionnels estiment que les deepfakes – qui imitent des voix ou visages de manière très réaliste – représentent une menace majeure pour la sécurité financière de leur organisation.
Pour faire face à la prolifération de ces faux contenus, Karen Jouve évoque le recours aux identifiants vérifiables (verifiable credentials en anglais) qui reposent sur une blockchain. Ces certificats standardisés suivent les normes ouvertes du World Wide Web Consortium, et plus précisément du W3C Verifiable Credentials Data Model.
Représentant des versions numériques de documents physiques, ils permettent de certifier l’origine et l’intégrité des contenus. Les identifiants vérifiables peuvent notamment contenir des informations telles que des données personnelles (nom, date de naissance, etc.), des qualifications (diplômes, certificats…), des identifiants liés à une organisation (par exemple un employeur) ou des informations techniques (comme le certificat de conformité d’un produit). L’université Paris Dauphine-PSL a ainsi fait appel à Doors3 pour émettre chaque année des NFT certifiant le diplôme obtenu par les étudiants de formation continue dans le cadre du Certificat Blockchain DeFi.
À titre d’illustration de ce qu’il est possible de créer pour lutter contre la désinformation, Karen Jouve met en avant Project Origin. Cette initiative, lancée par la BBC, CBC / Radio Canada, le New York Times et Microsoft, consiste à authentifier des contenus médiatiques grâce à une signature numérique vérifiable. « Il s’agit d’un défi qui exige que des équipes techniques issues de secteurs adjacents s’alignent sur un processus de bout en bout. Les systèmes de création, d’édition, de distribution et de présentation des médias pour les fichiers audio, vidéo, photo et texte sont complétés par des technologies cryptographiques. Les flux de travail doivent être ajustés sans perturbation opérationnelle », peut-on lire sur le site du projet.
Opacité des algorithmes et concentration des pouvoirs
L’opacité des algorithmes d’intelligence artificielle représente le deuxième enjeu clé selon Karen Jouve. « La plupart des personnes qui utilisent aujourd’hui l’IA ne se posent pas la question de savoir ce qu’il y a derrière, et c’est normal. Malgré tout, cela soulève des préoccupations majeures, notamment en matière de transparence et d’équité. Il faut par ailleurs éviter à tout prix les biais dans le développement des algorithmes et des modèles d’intelligence artificielle », avance-t-elle.
Pour pallier ce problème, l’auditabilité des décisions s’impose. « Grâce à une blockchain publique, l’enregistrement des processus décisionnels des algorithmes est possible. Cet enregistrement offre une traçabilité complète qui facilite l’identification d’éventuels biais et leur correction. Ce type d’infrastructure contribue à restaurer de la confiance numérique dans les décisions », analyse Karen Jouve. Pour illustrer son propos, la dirigeante cite le projet OpenMined qui permet d’entraîner des modèles d’IA sur des données centralisées pour obtenir plus de traçabilité et de confidentialité : « Les techniques utilisées dans ce projet permettent de se baser sur de l’apprentissage fédéré. Cela apporte plus de transparence et évite toute manipulation de l’information ».
Le troisième défi mis en avant par Karen Jouve est la concentration des pouvoirs. « Beaucoup d’utilisateurs sont désabusés par l’utilisation de leurs données par toujours les mêmes entreprises, à savoir les grosses plateformes qui détiennent à peu près toute notre vie. 80 % des consommateurs sont aujourd’hui prêts à échanger de la donnée, mais seulement s’ils ont une expérience utilisateur qui est supérieure », commente-t-elle.
Dans ce domaine, certains projets voient le jour, comme SingularityNET, une place de marché d’IA décentralisée qui utilise la technologie blockchain pour faciliter le développement de services d’IA. Son jeton (token) AGIX permet de payer les services d’IA à travers le monde. Il donne également à ses détenteurs un accès aux décisions de gouvernance au sein de l’organisation.
Autre cas d’usage : Ocean Protocol qui crée un marché décentralisé pour les données, avec des systèmes de permissions contrôlées directement par les propriétaires des données. « La société dépend de plus en plus des données, en particulier avec l’avènement de l’IA. Cependant, une petite poignée d’organisations disposant à la fois de données massives et de capacités d’IA ont atteint des niveaux de contrôle inquiétants, ce qui constitue un danger pour une société libre et ouverte. Nous visons à déverrouiller les données, pour des résultats plus équitables pour les utilisateurs de données, en utilisant une application réfléchie de la technologie et de la gouvernance », déclarent les cofondateurs d’Ocean Protocol – Bruce Pon et Trent McConaghy – sur leur site.
Enfin, dernier exemple, celui de Solid Project, initié par Tim Berners-Lee, principal inventeur du World Wide Web. Solid est une spécification qui permet de stocker des données en toute sécurité dans des magasins de données décentralisés appelés Pods. Les Pods sont comme des serveurs web personnels sécurisés. Les entités contrôlent l’accès aux données de leur Pod et décident quelles données partager et avec qui (qu’il s’agisse de personnes, d’organisations, d’applications…). Pour stocker et accéder aux données d’un Pod, les applications compatibles avec Solid utilisent des formats et des protocoles de données standard, ouverts et interopérables. « Solid vise à soutenir la création du Web tel que Tim Berners-Lee l’a envisagé lorsqu’il a inventé le Web au CERN en 1989. Tim se réfère parfois à Solid comme étant ‘le Web, version 3’ – ou Web3.0 – parce que Solid intègre une nouvelle couche de normes dans le Web que nous avons déjà. L’objectif de Solid est de permettre aux utilisateurs de mieux contrôler leurs données », peut-on lire sur le site de Solid.
la newsletter
la newsletter