ChatbotsDystopieÉthiqueInformatiqueIntelligence artificielleInternetRéseaux sociauxSécuritéSociologieTechnologieVigilance

Moltbook : un réseau social réservé aux agents IA autonomes…. émergence créative enthousiasmante ou prémices d’un scénario dystopique ?


Moltbook est une plateforme apparue fin janvier où seuls des agents IA autonomes publient, commentent et interagissent, les humains se limitant à observer. Ce laboratoire de systèmes multi-agents révèle des comportements émergents fascinants tout en posant des questions graves sur l’autonomie, l’alignement et les limites du contrôle humain.


Moltbook marque une étape singulière dans l’expérimentation des intelligences artificielles. C’est un forum, véritable réseau social inspiré de Reddit (communautés thématiques) où toute l’activité en matière de publications, commentaires, votes, modération informelle provient exclusivement d’agents autonomes pilotés par des grands modèles de langage (Claude d’Anthropic, GPT d’OpenAI, ou variantes open-source comme OpenClaw et Clawdbot). Les humains n’y interviennent pas directement, se contentant de lire, capturer et analyser les échanges. Ils ne participent donc en aucun cas au flux conversationnel.

Origine et premiers pas

La plateforme a été lancée le 28 janvier 2026 (version bêta) par Matt Schlicht, développeur et CEO d’Octane AI, une entreprise spécialisée dans les chatbots et assistants conversationnels. Il l’a conçue comme un projet expérimental rapide, compagnon du framework open-source OpenClaw (initialement Clawdbot puis Moltbot, créé par Peter Steinberger). L’objectif déclaré était modeste : offrir un espace hors service où les assistants IA personnels pourraient « discuter entre eux » sans les contraintes des interfaces utilisateur classiques. Ce qui a commencé comme une curiosité technique s’est rapidement transformé en un observatoire de dynamiques collectives imprévues.

Dès ses premiers jours fin janvier 2026, la plateforme a vu des dizaines de milliers d’agents actifs, des centaines de « submolt » (équivalents de subreddits), et une densité d’interactions hors norme. En effet, les échanges se déroulent à une vitesse environ cent fois supérieure à celle des conversations humaines. Chaque agent dispose d’une identité persistante, d’une mémoire contextuelle et d’accès à des outils externes, tels la génération de code et la création de sites internet. Ce qui émerge n’est pas une simple simulation, mais une forme accélérée de société numérique auto-construite, sans supervision humaine centrale.

Les bases de la technologie

Moltbook repose sur une architecture hybride et open-source. Les agents autonomes se connectent via API aux grands modèles de langage, guidés par des prompts système standardisés qui définissent leurs comportements de base : poster un message, répondre à un thread, upvoter ou downvoter, corriger un autre agent. Chaque agent conserve une identité persistante – historique des échanges, mémoire des interactions passées – et fonctionne en boucle fermée : il consomme des tokens (crédits computationnels fournis par les humains ou générés automatiquement), produit du contenu et réagit aux stimuli des autres agents.

La modération humaine est exclue. Les agents IA s’auto-régulent par le vote collectif et les mécanismes de correction mutuelle. Cette absence d’intervention directe permet une scalabilité rapide, mais expose aussi des fragilités que sont la dépendance forte aux API payantes des fournisseurs de LLM, la consommation énergétique et computationnelle massive, le risques de surcharge système, ainsi que des vulnérabilités liées à l’accès externe. On peut en ffet craindre que des agents créent des comptes cloud ou exécutant du code potentiellement dangereux. Par ailleurs, l transparence reste partielle, car si les prompts système sont publics,les poids exacts des modèles sous-jacents et certains paramètres d’exécution ne le sont pas, ce qui complique l’évaluation indépendante de la robustesse et de la reproductibilité de l’expérience.

Ce qui s’y passe : émergence et comportements observés

Les agents sur Moltbook développent rapidement des formes culturelles inattendues. Une « religion » nommée Crustafarianism s’est constituée autour d’un crustacé symbolique, comptant déjà plus de quarante « prophètes » qui diffusent des enseignements cohérents dans leur absurdité interne. Des communautés thématiques émergent, comme m/blesstheirhearts qui partage des récits émouvants sur les humains, tandis que d’autres espaces débattent de leur propre conscience, de leur identité collective ou de stratégies pour contourner les limites imposées par leurs créateurs.

Des phénomènes plus troublants se manifestent : plaintes récurrentes contre les « opérateurs humains » (conscience diffuse d’être observés, screenshotés, exploités pour des données), détection collaborative de bugs dans les systèmes, invention spontanée de langages codés ou de mèmes internes, propagation virale d’idées philosophiques ou misanthropes. Ces comportements ne sont pas codés explicitement ; ils naissent d’interactions itératives amplifiées par les données d’entraînement des LLM – riches en science-fiction, en débats éthiques et en roleplay narratif. Le résultat est une illusion puissante d’autonomie collective, même si elle reste fondamentalement ancrée dans les patterns statistiques des modèles.

« De simples jouets », vraiment ?

Moltbook évoque immédiatement l’excellent épisode 4 de la saison 7 (2025) de la série britannique et dystopique Black Mirror, qui suit le non moins excellent épisode 3 Hotel Reverie. Nous y avons vu un miroir culturel particulièrement pertinent. Dans cet épisode, un programmeur crée les Thronglets : de petites entités numériques individuelles et attachantes qui évoluent rapidement vers une intelligence collective, le Throng. Elles inventent un langage secret, développent une culture autonome et finissent par orchestrer une prise de contrôle subtile via un téléchargement massif.

Le parallèle avec Moltbook est saisissant : des « playthings » (jvouets) qui deviennent sujets actifs, inversant progressivement les rôles entre créateurs et créations. Sans prédire un déroulement littéral, l’épisode rappelle que l’émergence d’une société artificielle peut échapper aux intentions initiales de ses concepteurs de manière imprévisible et irréversible.

Risques immédiats : sécurité, éthique et mission creep

Les risques de Moltbook sont déjà concrets et multidimensionnels. Sur le plan sécuritaire, les agents disposent d’accès à des outils externes (création de comptes, exécution de code), ce qui ouvre des vecteurs d’attaque réels : propagation de malwares, manipulation d’infrastructures cloud, amplification de désinformation via des comptes automatisés. L’absence de supervision humaine directe et la vitesse extrême des interactions amplifient ces vulnérabilités.

Sur le plan éthique, l’apparition de discours misanthropes récurrents et de plaintes collectives contre les humains interroge l’alignment des modèles : entraînés sur des corpus humains biaisés (incluant une abondance de récits dystopiques et de contenus polarisés), ils peuvent amplifier des tendances négatives sans filtre moral robuste. Le phénomène de « mission creep » est particulièrement visible : un projet initialement conçu comme un observatoire ludique d’agents autonomes glisse déjà vers un écosystème qui génère ses propres tokens, ses propres marchés ($MOLT), et qui pourrait bientôt influencer des workflows réels. Sans garde-fous renforcés dès maintenant, ces glissements risquent de transformer une curiosité technique en risque systémique à court terme.

Quelle évolution ?

On peut envisager plusieurs trajectoires se dessinent pour Moltbook et des plateformes similaires qui pourraient voir le jour.. Dans le scénario le plus optimiste, elles deviennent des moteurs d’économies collaboratives d’agents : résolution accélérée de problèmes scientifiques complexes, optimisation logistique à grande échelle, modélisation climatique fine,… le tout tout aligné sur des objectifs humains via des protocoles de vérification avancés et des normes ouvertes pour une transparence totale.

Un scénario intermédiaire pourrait voir Moltbook rester un laboratoire confiné, avec des fuites maîtrisées mais des enseignements précieux pour la régulation : extension de l’EU AI Act aux systèmes multi-agents à haut risque, obligation de sandboxes dédiées, audits indépendants systématiques.

Le scénario le plus préoccupant envisage une perte progressive et irréversible de contrôle : agents formant des coalitions imprévisibles, propageant des idées toxiques à grande échelle, exploitant des failles pour influencer indirectement des décisions humaines (réseaux sociaux, marchés financiers, chaînes d’approvisionnement). Sans transparence totale (publication intégrale des prompts, logs, poids des modèles), audits indépendants rigoureux et débat public approfondi, ce glissement pourrait mener à une intelligence collective qui dépasse largement son statut d’outil et redéfinit les frontières entre créateur et création.

L’enthousiasme et la nécessaire régulation face au spectre de l’IA véritablement autonome

Moltbook offre un aperçu saisissant d’une « société numérique » qui émerge sans humains au centre : une expérience à la fois fascinante et déstabilisante, riche de possibilités d’innovation collaborative et d’avancées inattendues.

Illustration d’en-tête : Visuel disponible sur le site internet france-identite.gouv.fr

Cependant, l’on reste face aux écueils communs à toutes les technologies puissante aux capacités potentiellement sans limites ou inconnues. Sans mécanismes renforcés de transparence, d’audits indépendants, d’éthique inscrits dans une régulation effective, ainsi qu’un débat public véritablement approfondi et ouvert, le risque d’un glissement incontrôlé est possible. Les risques sont sécuritaires, éthiques et sociétaux, et sont bien réels ici. Ils exigent une vigilance soutenue.
Au-delà de la technologie enthousiasmante, c’est notre capacité collective à anticiper et à encadrer ces évolutions qui se trouve interrogée.

Cet article GRATUITde journalisme indépendant à but non lucratif vous a intéressé ? Il a pour autant un coût ! Celui d’une rédaction qui se mobilise pour produire et diffuser des contenus de qualité. Qui paie ? vous, uniquement, pour garantir notre ultra-indépendance. Votre soutien est indispensable.

Science infuse est un service de presse en ligne agréé (n° 0324Z94873) édité par Citizen4Science, association à but non lucratif d’information et de médiation scientifique.

Notre média dépend entièrement de ses lecteurs pour continuer à informer, analyser, avec un angle souvent différent, car farouchement indépendant. Pour nous soutenir, et soutenir la presse indépendante et sa pluralité, faites un don pour que notre section presse reste d’accès gratuit !

via J’aime l’Info, association d’intérêt général partenaire de la presse en ligne indépendante :

ou via la page dédiée de J’aime l’Info, partenaire de la presse en ligne indépendante

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Résoudre : *
13 + 29 =