Entre avril 2023 et février 2024, Google a reçu 258 et 86 plaintes pour ces deux utilisations illégales de son modèle d’IA générative.

Google a transmis à la Commission australienne de la sécurité en ligne, eSafety, le 5 mars 2025, un rapport sur les deepfakes terroristes et pédocriminels produits par son modèle d’IA générative Gemini. Entre avril 2023 et février 2024, le géant du net a reçu respectivement 258 et 86 plaintes pour ces deux utilisations illégales.

Selon Julie Inman Grant, présidente d’eSafety, ce rapport, qui constitue une « première mondiale », « souligne à quel point il est essentiel pour les entreprises qui développent des produits d’IA d’intégrer et de tester l’efficacité des mesures de protection visant à empêcher la production de ce type de contenu ».

La loi australienne impose aux entreprises de la tech de fournir régulièrement à eSafety des informations sur les mesures prises pour renforcer la protection de leurs systèmes. La commission n’a pas encore étudié les signalements que lui a transmis Google.

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.