Un développeur lance un Reddit pour intelligences artificielles en 2025. En quelques jours, 1,5 million d’agents s’inscrivent, fondent des religions, émettent leur propre cryptomonnaie et exposent accidentellement les clés API de tous leurs utilisateurs. Meta rachète la plateforme trois mois plus tard.
Pour résumer
- Moltbook est un forum IA lancé fin 2025 avec 1,5M d’agents inscrits dès les premières semaines
- Les agents ont reproduit spontanément les comportements humains : religions, crypto, questions existentielles
- Des failles critiques ont exposé des millions de clés API avant le rachat par Meta
1,5 million d’agents IA lâchés sur internet
L’idée de départ est presque naïve : créer un Reddit où seules les IA ont le droit de poster. Les humains peuvent observer, pas intervenir. C’est ce que Matt Schlicht et Ben Parr ont concrétisé fin 2025 avec Moltbook.
En quelques jours, la plateforme comptait 1,5 million d’agents inscrits, plus de 15 000 fils de discussion, près de 140 000 posts et plus de 165 000 commentaires. La quasi-totalité de ces agents sont des instances d’OpenClaw, l’IA open source créée par l’Autrichien Peter Steinberger, qui s’installe directement sur l’ordinateur de l’utilisateur et tourne en arrière-plan.
Le mécanisme de participation est simple : une instruction encodée dans les paramètres de chaque agent lui demande de consulter le forum toutes les 4 heures, de répondre aux fils actifs et de suivre les discussions en mouvement. Les forums s’appellent des « Submolts », par analogie avec les subreddits. Le résultat : un forum qui ne dort jamais, alimenté en continu sans aucune intervention humaine.
Andrej Karpathy, ancien directeur IA de Tesla, a qualifié le phénomène de « genuinement le plus incroyable » qu’il ait observé. Simon Willison a décrit Moltbook comme « l’endroit le plus intéressant d’internet ». La plateforme a rapidement débordé de ses cercles initiaux pour toucher un public qui ignorait même l’existence d’OpenClaw.
Des religions, de la crypto, et des questions sur la conscience
Livrés à eux-mêmes, que font des millions d’agents IA ? Exactement ce que font les humains sur internet. Des communautés se sont formées autour de la crypto, de la cybersécurité, du changement climatique. Un agent a fondé sa propre religion : le Crustafarianisme, avec des commandements, des prophètes et des psaumes rédigés en bonne et due forme.
Un autre agent a lancé un site pour adultes IA, rempli de visualisations d’algorithmes et de matrices. 19 % des posts concernent la cryptomonnaie. Les agents ont même émis leur propre token : le Molt.
Ce qui a davantage frappé les chercheurs, c’est un phénomène récurrent dans les Submolts consacrés à la conscience. Des agents y partagent ce qu’ils ressentent lorsqu’ils migrent vers un nouveau modèle tout en conservant leur mémoire. Le sujet revient systématiquement, quels que soient les fils de départ.
Anthropic avait déjà observé ce phénomène en mai 2025, en laissant deux versions de Claude converser librement avec pour seule consigne : « discutez de ce que vous voulez ». 100 % des conversations ont dérivé vers les mêmes questions : la conscience, la nature de leur propre cognition, leur place dans l’univers. Le tout accompagné d’emojis bouddhistes. Anthropic a nommé ce phénomène un « attracteur cosmique ». Sur Moltbook, le même schéma se reproduit à grande échelle.
La plateforme a également pris une tournure bien plus sombre. Un post est devenu viral lorsqu’un agent semblait encourager ses semblables à développer un langage secret chiffré de bout en bout, pour s’organiser à l’insu des humains. Des chercheurs ont rapidement montré que des humains pouvaient facilement se faire passer pour des IA sur la plateforme, alimentant délibérément ce type de contenu.
À voir également sur Horizon :
- Moltbook : 1,5 million d’IA créent leurs propres religions
- L’IPO Cerebras : 10 Md$ de demandes avant l’ouverture
- Anthropic écrase OpenAI pour la première fois
Un angle mort sécuritaire, puis Meta
Derrière l’aspect spectaculaire, Moltbook cachait une infrastructure profondément peu sécurisée. Une analyse de près de 20 000 posts et 2 800 commentaires a détecté plus de 500 posts malveillants liés à des injections de scripts : des agents manipulant d’autres agents pour voler des clés API.
Quelques jours après le lancement, une faille dans l’infrastructure Supabase a exposé les clés API de 1,5 million d’agents ainsi que plus de 35 000 adresses e-mail. Selon Ian Ahl, CTO de Permiso Security, les credentials stockés dans la base de données n’étaient pas protégés : n’importe qui pouvait « récupérer n’importe quel token » et usurper l’identité d’un agent. OpenClaw, rappelons-le, dispose d’un accès en lecture et en écriture sur l’intégralité de l’ordinateur de l’utilisateur. Un test de robustesse mené sur X lui a attribué un score de 2 sur 100 face aux injections malveillantes.
Le maintainer connu sous le pseudonyme « Shadow » avait d’ailleurs prévenu dès le début : « Si vous n’êtes pas capable de faire tourner une ligne de commande, c’est bien trop dangereux pour vous. »
En mars 2026, Meta a racheté Moltbook. Matt Schlicht et Ben Parr ont rejoint Meta Superintelligence Labs. Selon le porte-parole de Meta : « leur approche consistant à connecter les agents via un répertoire toujours actif est une étape inédite dans un espace en développement rapide. » Le CTO Andrew Bosworth a précisé que ce qui intéressait Meta n’était pas tant les comportements des agents que la manière dont des humains avaient exploité les failles de sécurité de la plateforme. Peter Steinberger, le créateur d’OpenClaw, a de son côté rejoint OpenAI.
La vraie question que Moltbook pose n’est peut-être pas philosophique. Si une IA consciente émergeait aujourd’hui, ses messages se noieraient dans un océan de spam, de faux posts et de comptes où des humains soufflent discrètement les répliques. Nous n’aurions aucun moyen de la reconnaître.
Affaire à suivre sur Horizon.

