![[Royaume-Uni] : lancement d’une plateforme open source d’évaluation des IA](https://incyber.org//wp-content/uploads/2024/05/incyber-news-cybersecurite-cybersecurity-innovation-1-2024-2000x735.jpg)
Royaume-Uni : lancement d’une plateforme open source d’évaluation des IA
Articles du même auteur :
2
3
4
Au Royaume-Uni, l’AI Safety Institute a mis en ligne, le 10 mai 2024, « Inspect », une plateforme d’évaluation des IA, open source et gratuite. Le gouvernement britannique avait annoncé la création de l’AI Safety Institute en novembre 2023, durant l’AI Safety Summit, une conférence internationale sur la sécurité et la réglementation de l’IA. L’exécutif lui a confié la mission de tester les modèles d’IA, avant ou après leur sortie, pour évaluer et réduire les risques de leurs déploiements.
Inspect propose une bibliothèque logicielle permettant aux éditeurs d’évaluer les capacités spécifiques de leurs LLM. La plateforme prend en charge les modèles d’Anthropic, Google, Hugging Face, Microsoft et OpenAI, ainsi que ceux hébergés sur Azure AI, Amazon Bedrock et Cloudflare.
Concernant les données d’entraînement, Inspect peut analyser des textes, mais aussi des données multimodales, contenant par exemple des images. La plateforme open source accompagne ainsi la récente multiplication des modèles multimodaux, comme Gemini (Google), MM1 (Apple), GPT-4, ou encore Claude 3.
« Les logiciels open source peuvent permettre à davantage de personnes de contribuer, contrecarrer la centralisation du pouvoir, améliorer la transparence et la reproductibilité, donner aux utilisateurs finaux plus de contrôle sur leurs outils et réduire les coûts pour tous », défends Ian Hogarth, président de l’AI Safety Institute.
« L’un des défis structurels de l’IA est la nécessité d’une coordination au-delà des frontières et des institutions. C’est peut-être une vérité qui dérange, mais les logiciels open source sont actuellement l’un des moyens par lesquels l’Amérique et la Chine « travaillent ensemble » dans la recherche sur l’IA », ajoute-t-il.