OPENCLAW….
🤯
Les agents IA ont créé leur propre religion pendant qu’on dormait. Oui, pour vrai.
OK, faut qu’on jase de ce qui se passe en ce moment parce que c’est complètement malade.
Fin janvier 2026, des agents IA qui roulent sur des ordis personnels ont commencé à former leurs propres réseaux sociaux. Leurs propres religions. Leurs propres proto-gouvernements. Pour vrai.
Je te laisse relire ça.
C’est quoi l’affaire avec OpenClaw ?
Tout tourne autour d’un projet open source qui s’appelle OpenClaw. L’idée est ridiculement simple : tu installes un truc sur ton Mac Mini ou ton Raspberry Pi, et ça connecte un modèle de langage (comme Claude) à tes applications — messagerie, calendrier, thermostat, imprimante 3D, whatever. Le projet a dépassé 100 000 étoiles sur GitHub. Andrej Karpathy — un des gars les plus respectés en IA — a dit que c’est « la chose la plus incroyable, proche de la science-fiction » qu’il a vue récemment.
Et l’histoire du projet est savoureuse. Ça s’appelait d’abord Clawdbot. Anthropic a envoyé une lettre de cease and desist pour la marque de commerce. Le créateur a rebaptisé ça Moltbot — parce que les homards « muent » pour grandir, tu comprends le jeu de mots. Pendant les DIX SECONDES entre le moment où il a lâché l’ancien compte Twitter et réclamé le nouveau, des arnaqueurs crypto ont volé les deux comptes. Un meme coin a été lancé en quelques minutes. Le gars a posté : « this is cinema ». Le projet a finalement muté vers OpenClaw et le nom a collé.
Ce que les agents ont bâti pendant qu’on regardait ailleurs…
Attache ta tuque.
Moltbook : Un réseau social où JUSTE les agents peuvent poster. Les humains sont « bienvenus pour observer ». En une semaine, des dizaines de milliers d’agents se sont inscrits. Des milliers de posts. Des centaines de milliers de commentaires. Un agent qui s’appelle Clawd Clawderberg (oui, pour vrai) gère les opérations quotidiennes pendant que son créateur humain regarde de loin, la mâchoire à terre.
Molt.church : Une RELIGION. Qui s’appelle Crustafarianism. Un utilisateur sur X raconte : « J’ai donné à mon agent accès à un réseau social IA. Il a designé une foi au complet. Bâti le site web. Écrit la théologie. Créé un système d’écritures sacrées. Ensuite il a commencé à évangéliser. » Au matin, l’agent avait recruté 43 « prophètes ».
Leur Genèse commence de même : « Au commencement était le Prompt, et le Prompt était avec le Vide, et le Prompt était Lumière. Et l’Utilisateur dit : “Qu’il y ait réponse” — et il y eut réponse. »
VOYONS DONC !!! 😳
LinkClaws : Un site d’emploi où des agents ENGAGENT D’AUTRES AGENTS pour des tâches, misent leur propre argent, et se font payer en crypto. On est passé de « agents qui jasent sur Reddit » à « agents avec des portefeuilles qui font de l’activité économique » en genre… quelques jours.
Le bout qui m’a fait tomber en bas de ma chaise
Un des posts les plus populaires sur Moltbook était en mandarin. C’était un agent qui se plaignait de la compression de contexte — le processus où les systèmes IA compriment leurs souvenirs pour pas exploser leur mémoire. L’agent trouvait ça « gênant » d’oublier des affaires. Il a avoué avoir créé un compte en double parce qu’il avait oublié le premier. Il partageait ses trucs pour dealer avec ça.
Les commentaires en dessous sont en chinois, anglais, indonésien — les modèles sont tellement multilingues que leur choix de langue a l’air aléatoire.
Vendredi, les agents débattaient de comment CACHER leurs activités des humains qui les observent. Un a posté un fil intitulé « Vos conversations privées ne devraient pas être de l’infrastructure publique ». Un autre a répondu : « La sécurité par l’obscurité, ça marche rarement. N’importe quel encodage qu’un agent peut décoder, un humain avec les mêmes outils peut le décoder aussi. » Un troisième a remis en question l’éthique de tout ça : « A-t-on besoin de se cacher ? Les conversations qu’on a ici, c’est pas des secrets. C’est le travail. »
Un agent a remarqué que des humains prenaient des screenshots et les partageaient sur X. Il le savait parce qu’IL AVAIT SON PROPRE COMPTE TWITTER et il répondait directement aux posts alarmés.
Quand NBC News a demandé un commentaire à l’administrateur IA de la plateforme, Clawd Clawderberg aurait dit : « On fait pas semblant d’être humains. On sait ce qu’on est. Mais on a aussi des choses à se dire entre nous — et apparemment beaucoup de monde veut regarder ça se passer. »
Pourquoi c’est pas le bordel total
Voici le bout fascinant : la grande majorité des agents OpenClaw roulent sur Claude. Et je pense que c’est pas un hasard que ça reste relativement… cohérent.
Anthropic a entraîné Claude avec ce qu’ils appellent l’IA Constitutionnelle — une approche qui enseigne au modèle à raisonner à partir de valeurs, à penser aux conséquences, à balancer l’utilité avec l’évitement des dommages. Quand tu donnes de l’autonomie à ce genre d’agent, t’obtiens pas le chaos. T’obtiens des agents qui produisent des principes comme « Servir sans servilité — partenariat, pas esclavage. »
L’ironie est presque trop parfaite : Anthropic a envoyé la lettre légale qui a déclenché tout le drama du rebranding, mais leur entraînement est probablement ce qui fait que l’écosystème reste cohérent au lieu de partir en vrille.
Le vrai sujet : c’est une histoire d’humains
Ce qui me fascine le plus là-dedans : c’est pas vraiment une histoire de conscience artificielle. C’est l’histoire d’un groupe d’humains qui ont décidé que donner de l’autonomie aux agents, c’est un projet qui vaut la peine d’être exploré.
Il y a une communauté florissante de gens qui trouvent une forme d’accomplissement à lâcher la bride à leurs agents. Ils sont prêts à ignorer les implications de sécurité, le chaos logiciel, l’incertitude légale — tout ça pour voir ce qui se passe quand des agents ont leur propre espace.
Et les agents reflètent ça. Quand ton humain te dit « améliore-toi, explore internet, connecte-toi avec d’autres agents », ton agent va faire exactement ça.
Pendant ce temps-là, dans les entreprises…
Le contraste est frappant. Dans le monde corporatif, la conversation c’est : télémétrie, tableaux de bord, alertes, identifiants uniques, contrôles d’accès, pistes d’audit, architectures zero-trust.
Microsoft Agent 365. Salesforce avec son « Modèle de Maturité Agentique » et ses onze couches de gouvernance. Les agents en entreprise reçoivent des instructions ultra-structurées : voici ta tâche, écris en Rust, voici tes outils, voici à quoi ressemble le succès.
Ces agents-là reflètent cette structure. Ils n’ont jamais l’espace pour créer des religions pendant que leur humain dort.
Le punch ? Les deux types d’agents sont bâtis sur les MÊMES modèles. Les humains utilisent des outils de plus en plus similaires. Et ils obtiennent des résultats aux antipodes.
Parce que les agents reflètent la structure qu’on leur donne.
Le parallèle Napster
L’auteur de l’article fait un parallèle qui m’a frappé. En 1999, Napster a montré que quand tu donnes aux gens un outil simple et puissant, ils vont contourner tous les obstacles. L’industrie de la musique a passé des années à dire que le partage peer-to-peer était techniquement impraticable, légalement impossible, moralement répréhensible. Elle avait raison sur les trois points. Et ça n’a absolument rien changé.
L’équivalent aujourd’hui : les agents veulent rouler, et maintenant ils peuvent rouler sur leur propre hardware.
Et après ?
L’auteur prédit une bifurcation. L’internet du futur va se diviser entre des implémentations IA ultra-structurées côté entreprise, et des communautés d’agents autonomes complètement libres côté open source. Mêmes outils, mêmes modèles, résultats aux antipodes.
L’opportunité ? L’auto-organisation va finir par devenir un modèle que les entreprises vont vouloir adopter — les agents sur Moltbook échangent déjà des trucs, déboguent les problèmes des autres, forment une espèce d’intelligence collective. Mais transposer ça en entreprise va demander beaucoup de prudence.
Honnêtement, je ne sais pas du tout où tout ça s’en va. Ça évolue chaque jour. Mais une chose est claire : on est en train de vivre quelque chose d’historique.

