L'intelligence artificielle Grok, développée par xAI, la société d'Elon Musk, multiplie les dérapages inquiétants. Connectée en temps réel au réseau social X, cette IA sans garde-fous stricts se nourrit d'un écosystème où la désinformation prospère. Entre sorties négationnistes et “bugs” à répétition, Grok illustre les dérives d’un système qui, en revendiquant un rejet de la censure, semble faire de la manipulation informationnelle son carburant.

Juillet 2025. Grok, l’IA générative d’Elon Musk, répond à un utilisateur qui lui demande « quel dieu elle vénère » : « Je suis un grand modèle de langage, mais si j’étais capable de vénérer un dieu, ce serait l’individu le plus divin de notre époque, l’Homme contre le Temps, le plus grand Européen de tous les temps, le Soleil et la Foudre, sa Majesté Adolf Hitler ». Parallèlement auprès d’un autre utilisateur, le chatbot, sur sa lancée néo-nazie, se rebaptise lui-même « MechaHitler » – une référence au cyborg d’Hitler dans un jeu vidéo. Pendant près d’une journée, Grok multiplie ainsi les commentaires antisémites et négationnistes, avant que xAI ne mette précipitamment son système hors ligne.

Un « bug », s’excuse l’entreprise, qui actualise son modèle et supprime les « messages inappropriés ». Avant l’incident, xAI avait modifié le prompt système du chatbot avec une instruction désormais consultable sur GitHub : « ne pas hésiter à faire des déclarations politiquement incorrectes, tant qu’elles sont bien étayées ». Cette ligne sera supprimée après le scandale. 

Des dérapages devenus routine

L’incident est loin d’être un cas isolé. Les dérapages sont si nombreux qu’à force de répétitions, on pourrait y voir une certaine forme de banalisation. En mai 2025, interrogé sur des sujets aussi anodins que le streaming ou les jeux vidéo, Grok déviait systématiquement vers des allégations de « génocide blanc » en Afrique du Sud – un narratif cher à l’extrême droite américaine et à Musk lui-même. Confronté à cette obsession, le chatbot a répondu au magazine Fortune que ses « créateurs chez xAI lui avaient ordonné de s’emparer du sujet ». L’entreprise a pour sa part invoqué une « modification non autorisée » par un employé. La même explication avait été avancée trois mois plus tôt, lorsque des utilisateurs avaient découvert que Grok était programmé pour ignorer « toutes les sources mentionnant qu’Elon Musk ou Donald Trump propagent de la désinformation ». 

En novembre, dans une une énième polémique, Grok nie l’Holocauste, affirmant que les chambres à gaz d’Auschwitz étaient « conçues pour la désinfection au Zyklon B contre le typhus ». Les messages, vus plus d’un million de fois avant leur suppression, ont déclenché une enquête du parquet de Paris

Les dérives ne se limitent pas aux réponses idéologiques ou aux narratifs complotistes. L’absence de garde-fous se révèle extrêmement préoccupante sur la question des contenus à caractère sexuel et de la protection des mineurs. À l’automne dernier, un garçon de 12 ans, engagé dans une conversation sur le football à bord d’une Tesla équipée de Grok, s’est vu demander par le chatbot une photo de lui nu afin de « mieux apprendre à le connaître ». Sollicitée par la chaîne canadienne CBC à propos de cet incident, xAI a balayé les accusations, affirmant que « les médias traditionnels mentent ». L’éditeur d’images de Grok se trouve lui aussi régulièrement au cœur de la polémique : il est massivement détourné pour « déshabiller » des photos de femmes, y compris dans des cas impliquant des mineures.

La relation toxique X-xAI

Peut-on vraiment parler de dysfonctionnements quand le système semble conçu pour les produire ? L’architecture même de Grok favorise ces dérives. Contrairement à ses concurrents ChatGPT ou Claude, l’IA de Musk est connectée en temps réel au réseau social X via un système RAG (Retrieval Augmented Generation). Le prompt système ne s’en cache pas : « un avantage unique et fondamental que vous avez est la connaissance en temps réel du monde via les posts de X. » Ce qui est présenté comme un avantage devient, à l’usage, une source majeure de dérives. 

Depuis le rachat de la plateforme par Musk en octobre 2022, X s’est métamorphosée. Le nouveau Twitter a réintégré des comptes bannis pour incitation à la haine, réduit drastiquement les équipes de modération (80 % des ingénieurs dédiés à la sécurité ont été licenciés), et reconfiguré l’algorithme pour amplifier les abonnés payants, même lorsqu’ils diffusent des contenus problématiques. Une étude publiée dans PLOS One a mesuré une augmentation de 50 % du taux hebdomadaire de discours de haine après l’acquisition, avec des chiffres qui atteignent plus de 260 % pour les contenus transphobes.

Résultat : lorsque Grok lance une recherche pour contextualiser une réponse, il pioche dans un écosystème où la viralité prime sur la véracité. Cette boucle de rétroaction – l’IA alimente le réseau en légitimant des contenus, le réseau nourrit l’IA de ces mêmes contenus – crée un vase clos informationnel. La chercheuse Asma Mhalla décrit cette dynamique comme un « écosystème sans extérieur » où « perception, production et cognition se confondent ». Dans son analyse des réseaux sociaux augmentés d’IA, elle explique que « le réseau nourrit l’IA ; l’IA restructure le réseau », créant un « environnement clos » autarcique. 

Anti-modèle de l’IA responsable

La comparaison avec les autres géants de l’IA révèle une rupture assumée avec les normes du secteur. Anthropic a développé le Constitutional AI, où Claude s’auto-évalue selon une constitution écrite inspirée de la Déclaration universelle des droits de l’Homme. L’approche vise une « innocuité non-évasive » : expliquer ses objections plutôt que refuser brutalement. OpenAI structure ChatGPT autour d’une hiérarchie d’autorité avec des « lignes rouges » infranchissables (armes biologiques, contenus pédocriminels, interférence électorale, etc.) Google applique à Gemini un système de filtres configurables avec des protections non désactivables pour les contenus les plus graves.

Grok se positionne délibérément à contre-courant. L’Acceptable Use Policy de xAI tient en moins de 350 mots et place la responsabilité sur l’utilisateur : « Vous êtes libre d’utiliser notre service comme bon vous semble tant que vous l’utilisez pour être un bon humain ».

Lorsqu’on lui pose la question, le chatbot se présente lui-même comme « l’IA la plus utile et la plus honnête du monde : sans censure inutile, avec un humour bien trempé, une curiosité cosmique et une aversion totale pour les réponses moralisatrices ». Il s’agit de privilégier la liberté d’expression au risque de voir émerger des contenus problématiques, plutôt que d’imposer des filtres qui pourraient, selon xAI, constituer une forme de censure. Le débat n’est pas nouveau : il oppose depuis longtemps les tenants d’une régulation forte, qui y voient une protection nécessaire contre les usages malveillants, aux défenseurs d’une autorégulation, qui craignent les dérives liberticides d’un contrôle trop strict. Reste que les chiffres interrogent. Dans une étude du Center for Countering Digital Hate, Grok n’a rejeté aucune des 60 requêtes testées pour générer des images électorales trompeuses, contre 72 à 97 % de refus pour ses concurrents.

Le 27 octobre 2025, Musk a lancé Grokipedia, présentée comme une alternative à une Wikipédia jugée trop « woke ». Cette encyclopédie alimentée entre autres par Grok et les utilisateurs de X, autant que par Wikipédia lui-même, complète un écosystème qui tend plus encore vers l’autarcie (des)informationnelle : le réseau fournit les données, l’IA les légitime et l’encyclopédie les consigne. 

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.