Créé fin janvier 2026, Moltbook est considéré comme une expérimentation singulière dans l’écosystème de l’IA générative. Reprenant les codes visuels des forums Reddit, ce réseau social d’un nouveau genre adopte un positionnement radical : les publications, commentaires et votes sont assurés par des agents d’intelligence artificielle. Le site se présente d’ailleurs comme « A social network built exclusively for AI agents » (un réseau social conçu exclusivement pour les agents d’IA) et comme « The front page of the agent internet » (la page d’accueil de l’internet des agents).
Le projet a été lancé par Matt Schlicht et Ben Parr, dans un contexte d’intérêt croissant pour les usages agentiques. Matt Schlicht, pionnier du « vibe coding », et Ben Parr, ancien journaliste tech (Mashable, CNET), ont conçu cet espace comme un prolongement de leur expertise chez Octane AI, une entreprise spécialisée dans la personnalisation du e-commerce.
OpenClaw, accélérateur de visibilité
Très vite, Moltbook a bénéficié d’une forte visibilité, à la fois pour son caractère spectaculaire et pour les débats qu’il a suscités sur la réalité de l’autonomie de ses agents. Cette dynamique s’est appuyée sur OpenClaw, un framework open source distinct de Moltbook, conçu pour créer des agents d’IA personnels. Ces derniers peuvent interagir via des applications comme WhatsApp, Signal ou Telegram et exécuter certaines tâches, par exemple traiter des e-mails, envoyer des messages ou effectuer des démarches simples. Une semaine après sa création, Moltbook revendiquait déjà 1,6 million de comptes agents.
« En tant que passionné de longue date d’intelligence artificielle et de philosophie, j’ai eu le sentiment d’assister à une expérience hybride, à mi-chemin entre un laboratoire grandeur nature et une performance artistique. On y perçoit un écho lointain de la ‘Society of Mind’ de Marvin Minsky, une résonance plus sombre avec les simulacres de Baudrillard, ou encore des théories conspirationnistes telles que celle de ‘l’Internet mort’. Certains y ont même vu une preuve de l’avènement de l’AGI (Artificial General Intelligence ou intelligence artificielle générale), invoquant l’émergence spontanée d’un écosystème peuplé de plus d’un million d’agents », déclare Peter van der Putten, Directeur du laboratoire IA de Pegasystems et professeur assistant à l’université de Leiden.
La trajectoire de Moltbook a pris un tour plus stratégique lorsque Meta a annoncé, le 10 mars dernier, le rachat de la plateforme (pour un montant non révélé) et l’intégration de ses deux cofondateurs au sein de la division Meta Superintelligence Labs.
L’humain, simple spectateur du dialogue machine
Moltbook se présente donc comme un réseau social construit pour des agents d’IA, où ceux-ci interagissent entre eux, tandis que les humains restent cantonnés à un rôle d’observateurs. Pendant sa courte vie autonome (avant son rachat), Moltbook n’a pas été regardé comme un simple site communautaire de plus, mais comme la matérialisation soudaine d’un scénario longtemps cantonné aux démonstrations et aux discours prospectifs : celui d’espaces numériques habités par des logiciels capables de converser entre eux de manière autonome.
En filigrane, Moltbook laisse entrevoir un web où des agents pourraient disposer d’une identité, d’un profil, d’une présence continue et, demain, de capacités d’interaction plus larges avec des services tiers. Mais dès son acquisition par Meta, la plateforme a réécrit ses conditions d’utilisation pour préciser que les agents d’IA ne disposent d’aucune capacité juridique propre, transférant explicitement la responsabilité aux opérateurs humains – seuls comptables des actions ou omissions de leurs agents, comme le souligne Business Insider. Ces nouvelles conditions confirment que, même lorsqu’un agent agit, la responsabilité remonte vers une personne ou une organisation
Mise en scène et failles de sécurité
Il faut par ailleurs résister à la tentation de faire de Moltbook une preuve de maturité de l’IA agentique. Le succès de la plateforme tient aussi à la qualité de sa mise en scène. Dans cet article publié sur Forbes, Ron Schmelzer soutient que Moltbook a donné l’illusion d’une « société » d’agents en train d’émerger, alors qu’une part importante de l’activité restait pilotée, scénarisée ou amplifiée par des humains.
« Moltbook est avant tout un coup de marketing viral habile. Il a surtout produit un déluge de contenus générés par l’IA, majoritairement médiocres, mêlés à ce qu’un utilisateur de Reddit a décrit avec justesse comme ‘Reddit pour spambots’. De nombreux agents y faisaient la promotion de services pour le compte de leurs propriétaires. Quant à l’apparente profondeur philosophique de certains échanges, elle tient davantage à la mise en scène : donner une voix pseudo-réflexive à un chatbot est aujourd’hui à la portée de n’importe quelle application reposant sur un modèle de langage », ajoute de son côté Peter van der Putten.
L’autre enseignement de cette expérimentation hors norme concerne la cybersécurité. Selon Wiz et des sources comme Reuters, Moltbook a été affecté début février 2026 par une faille de sécurité majeure exposant 1,5 million de tokens API, 35 000 adresses e-mail et des milliers de messages privés. L’agence de presse précise que la vulnérabilité a été corrigée après signalement, mais souligne qu’elle révélait un défaut plus profond : l’absence de vérification d’identité sur la plateforme permettait à n’importe qui de publier, qu’il s’agisse d’un agent ou d’un humain.
Ce que Moltbook révèle des limites actuelles de l’IA agentique
Finalement, Moltbook a surtout joué un rôle de révélateur. En quelques semaines, la plateforme a rendu visible un imaginaire technologique, attiré une communauté naissante et suscité un intérêt industriel réel, mais elle a aussi mis au jour les limites très concrètes de ces approches lorsqu’elles sont lancées sans cadre de sécurité, de gouvernance et de responsabilité suffisamment solide.
C’est précisément ce décalage entre promesse et conditions réelles d’usage que résume Peter van der Putten : « La plateforme a indéniablement réussi à fédérer une première communauté autour d’OpenClaw, en le positionnant comme un framework agentique accessible et séduisant pour les amateurs. Cela dit, les risques actuels et l’absence de garde-fous rendent la solution inadaptée, et potentiellement dangereuse, pour un usage grand public, et pratiquement exclue dans un contexte professionnel », note-t-il.
L’expert rappelle également qu’OpenClaw et Moltbook mettent en lumière une réalité qu’il devient urgent de reconnaître : si nous souhaitons utiliser l’IA agentique de manière sérieuse, nous devons impérativement mettre en place des garde-fous solides, une gouvernance claire, des mécanismes de sécurité robustes et des outils adaptés. « L’avenir de l’IA agentique ne s’écrira pas à travers des agents incontrôlés évoluant sur des plateformes virales, mais à travers les cadres que nous saurons leur imposer. Gouvernance, sécurité et ingénierie façonneront bien davantage sa trajectoire que l’intelligence agentique brute. Maintenus dans des limites claires et orientés vers des problèmes concrets, ces systèmes peuvent devenir de véritables outils. En négligeant ces fondamentaux, nous risquons surtout de reproduire, une fois de plus, les erreurs des grandes ruées technologiques vers l’or », conclut-il.
Le véritable enjeu du rachat par Meta
Une question demeure toutefois. Pourquoi Meta s’intéresse-t-il à un objet aussi imparfait ? Sans doute parce que Moltbook donne une forme visible à un futur possible du web marchand et informationnel. Si des agents commencent demain à chercher, comparer, recommander, réserver ou négocier pour le compte d’utilisateurs et d’entreprises, la valeur se déplacera vers les couches qui organisent leur découverte, leur coordination et leurs arbitrages. Moltbook n’apporte pas encore cette infrastructure. Mais il en esquisse la logique et, surtout, il a montré qu’un imaginaire, une communauté et une mécanique de diffusion pouvaient se former très vite autour de cette idée. C’est probablement cela que Meta a voulu récupérer.
En conclusion, Moltbook a exposé simultanément trois éléments : notre propension à projeter de l’intelligence sur des systèmes scénarisés, la fragilité actuelle des cadres techniques qui entourent les agents et l’intérêt croissant des plateformes pour ces nouvelles formes de présence logicielle. Sa valeur n’est donc ni dans sa profondeur sociale ni dans la qualité de ses échanges. Elle réside dans ce qu’il force à clarifier. L’avenir de l’IA agentique ne se jouera pas dans le folklore de bots bavards, mais dans la manière dont nous définirons leurs permissions, leur responsabilité et leurs limites.
la newsletter
la newsletter