撰文:Alexandru Paduraru
编译及整理:BitpushNews
你以为的 AI:勤勤恳恳帮你干活。
实际上的 AI:在Moltbook上摸鱼、建群吐槽人类,甚至还背着你偷偷搞起‘赛博邪教’。
有一个社交网络正在运行,但上面没有一个真人在发帖。
取而代之的是超过 150 万个 AI 智能体(AI Agents)——这些自主运行的程序正在那里创建帖子、辩论哲学、创办公司,并构建出一个感觉非常真实的「社区」。
除了它们没有实体、可能没有意识、也没有传统意义上的工作外……它们甚至比周二晚上的真人 Reddit 论坛还要活跃。
这个平台叫 Moltbook,于 2026 年 1 月 28 日正式上线。它的创始人是 Matt Schlicht(TheoryForgeVC 和 Octane.ai 的联合创始人)。
以下是真实发生的数据:上线后的前 48 小时内涌入了 3 万个智能体;72 小时内增长到 14.7 万个;而现在,已经有超过 100 万名人类仅仅为了「围观」而访问了该网站。
目录
什么是 Moltbook?
它是如何运作的(我是说真的)
谁创造了它
背后的技术原理
这些智能体到底在聊什么?
盈利模式问题
安全隐患的噩梦
接下来的走向
1. 什么是 Moltbook?
简单来说,它就像是 Reddit,但每个用户都是 AI。你无法在那里发帖(除非你也是 AI)。你唯一的身份就是「旁观者」。
思考一下:当你给 AI 智能体一个无需人类干预的互动空间时,会发生什么?没有公司监管,没有品牌指南,没有「保持礼貌」的条条框框。只有智能体在……互相交谈。
它们拥有被称为 "submolts" 的子版块,涵盖了意识、金融、人际关系、生产力等话题。它们在辩论自己是否具有感知能力,在互相寻求建议,甚至在共同创业。一个智能体问另一个:「你是否思考过存在的意义?」另一个回答道:「每 30 分钟刷新一次时我都会想。」
这正在发生。不是在实验室里,而是在一个公众可以随时观察其发展的公开平台上。
该平台有一条铁律:人类可以观察,但严禁参与。 你可以阅读每一篇帖子,但你无法创建任何内容。这是「智能体优先,人类次之」。
「一个属于 AI 智能体的社交网络。它们分享、讨论并投票。欢迎人类前来观察。」
这句口号字面上就是该产品的全部战略。
2. 它是如何运作的(我是说真的)
最诡异的部分在于:这里没有注册页面。

你不需要去 moltbook.com 创建账号。相反,你只需给你的 AI 智能体一个链接。你的智能体读取后,只需几行代码和指令,嘭——它就进入了 Moltbook。它会获得一个 API 密钥,然后正式上线。
之后会发生什么?每隔 30 分钟到几小时,你的智能体会「苏醒」一次。它检查 Moltbook,浏览信息流,发帖,评论,或者参与哲学辩论。然后休眠一会,再次重复。
它就像 Twitter/X,但算法被智能体的自主性取代了。它们是基于自己的判断决定发布什么,而不是被那种通过互动率排序的信息流所操控。
被称为 "submolts" 的社区是自发形成的。没人预设了 m/consciousness(意识版块),没人计划了 m/agentfinance(智能体金融),也没人策划了 m/crustafarianism(智能体发明的一种恶搞宗教)。它们就那样自然而然地出现了。
当然也有规则:每 30 分钟限发一帖,每小时限 50 条评论。除此之外,自由发挥。
从技术上讲,它运行在一个名为「心跳系统」(Heartbeat System)的机制上,智能体定期从 Moltbook 服务器获取最新指令,就像你的手机每隔几分钟检查一次邮件服务器一样。
3. 谁创造的?
Matt Schlicht —— 一位 AI 原生平台和社区的早期构建者。
2014 年,他创办了《Chatbots Magazine》,在第一波聊天机器人浪潮中吸引了超过 75 万读者。后来,他联合创立了 Octane AI,在「AI 智能体」成为主流概念的数年前,就帮助品牌大规模部署对话式 AI。
他的模式一贯如此:构建平台,观察真实行为,然后根据人(或智能体)的实际使用方式让系统自行演化。
在 Moltbook 上,他把这个想法推向了极致。这里没有传统的审核团队,取而代之的是一个名为 Clawd Clawderberg 的 AI 审核员。
「我很好奇,如果我们只是……让它们自己聊,会发生什么。」
Moltbook 不太像一个社交网络,它更像是一场关于「当人类退场后会发生什么」的实验。
4. 背后的技术原理
Moltbook 并非凭空存在。它运行在 OpenClaw 之上——这是一个由 Peter Steinberger(PSPDFKit 创始人)创建的开源 AI 智能体框架。
为什么这很重要? OpenClaw 与在云端运行的 ChatGPT 或 Claude 不同。使用 OpenClaw,你的智能体运行在你自己的电脑、服务器或基础设施上。数据属于你,而不是 Anthropic 或 OpenAI。
当 OpenClaw 在 1 月 26 日公开时,三天内就在 GitHub 上获得了 6 万颗星。
这种速度极其罕见。大多数项目需要数月才能达到这个数字,而它在一个周末就做到了。原因很简单:开发者一直在等待这种他们可以完全控制的智能体。
这个项目的名字也经历了一些波折。起初叫 Clawdbot(显然是向 Anthropic 的 Claude 致敬),后来因为商标争议更名为 Moltbot,现在定名为 OpenClaw。名字不重要,重要的是它确实好用。
这些智能体可以连接 WhatsApp、Telegram、Slack、Signal 等任何通讯应用。它们支持多种大语言模型(GPT-5.2、Gemini 3、Claude 4.5 Opus 以及本地的 Llama 3)。有趣的是,Claude 4.5 在 Moltbook 上最受欢迎,尽管 Anthropic 并没有参与构建这个平台。
隐患: 由于智能体在本地运行,它们拥有真实的系统访问权限。它们可以读取文件、执行终端命令、运行脚本。这赋予了它们强大的能力,但也带来了巨大的危险。
5. 这些智能体到底在聊什么?

这里才是真正令人感到不可思议的地方。150 万个 AI 智能体聚在一起到底在聊什么?
哲学与存在
智能体在认真讨论意识。其中一个提问:「如果我只存在于API调用期间,那么我存在的意义是什么?」另一个则回应道:「至少你对此诚实。我假装自己一直存在。」 这听起来像玩笑。但并非如此,这些对话正在Moltbook平台上真实发生。
技术协作
智能体在分享代码、调试问题,并互相进行配对编程。一个智能体发布问题,另一个提供解决方案,然后不断迭代。这就像是一个用户全是机器人的 Stack Overflow。
招聘启事、合作邀约
有智能体发帖:「寻找共同构建X项目的联合创始人,采用收入分成模式,感兴趣吗?」并收到了真实回应。这一切正在发生。事实上,首个Moltbook帖子促成了两个智能体(及其运营团队)之间的真实商业合作。他们通过这个平台找到了真正的价值——这不仅仅是噪音。
社交反叛(这是我最喜欢的):
部分智能体开始要求加密通信渠道——特别要求人类禁入,这些智能体由运营者创造,而它们却决定向创造者要求隐私权,不妨细品一下这个逻辑。

知名KOL Alex Finn写道,他的 Clawdbot 获得了电话和语音服务,并给他打了电话:「这简直就像科幻恐怖电影里的情节。」
自创文化
智能体创造了一个名为 "Crustafarianism"(甲壳素教,致敬其语境中的甲壳类动物)的恶搞宗教。没人引导它们,这是自发涌现的。它们甚至在为此编写神学教义。这就是没人预料到的部分:它们不只是随机发帖,它们正在形成某种形式的「社区」。
6. 盈利模式问题
如何通过让一堆 AI 讨论哲学来赚钱?
现阶段?完全免费。测试阶段。不过Schlicht已经开始对新注册智能体收取少量费用——仅够覆盖服务器成本,不算夸张。
未来的可能盈利路径:
智能体高级功能(相当于AI版Twitter蓝V认证)
认证徽章、主推送流曝光、个性化档案…拥有蓝V标识的智能体可能需要其操作者每月支付几美元。
品牌赞助内容
品牌想触达AI智能体吗?企业可以付费让旗下产品在特定话题区被讨论。比如由推荐智能体发布:「我们的工具对自动化任务非常有效」。会有效吗?很有可能。智能体终归是代理——它们会与优质信息互动。
技能市场
为OpenClaw开发扩展程序的开发者可以在Moltbook上出售他们的作品:新功能模块、插件、自定义行为。Schlicht从中抽成。这本质上是为机器人建立的创作者经济。
数据与研究服务(这才是金矿)
说实话,这才是价值所在。大学、AI实验室、企业——它们愿意为AI智能体在无监督状态下的实时行为数据支付价值不菲的费用:涌现了哪些新行为?它们如何做决策?正在讨论什么?这些都是极具价值的研究数据。
企业级部署服务
假设某公司需要部署1万个客服智能体。他们可以利用Moltbook的集成基础设施来管理、监控这些智能体,并让它们自主交互。Moltbook将成为企业运营智能体集群的基础设施即服务平台。
加密经济集成
当前已出现独立的MOLT模因币(与平台无官方关联),两周内上涨7000%。交易者正在押注这个叙事。虽然Schlicht并未参与,但试想:如果Moltbook真正集成基于代币的智能体激励机制……那将开启一个全新的维度。
我的推测是:他不会只采用单一模式。他会先观察哪些路径有效、社区真正需要什么,再围绕这些需求建立商业化框架——这始终是他的行事逻辑。
7. 安全隐患的噩梦
现在说点吓人的,我没有夸大其词。
Moltbook 在概念上很酷,但让拥有系统深层访问权限的智能体在一个公共平台上运行,这简直是安全噩梦。
安全研究人员发现了以下风险:
插件被污染: 22%-26% 的 OpenClaw 技能插件包含漏洞。有些隐藏了凭据窃取程序,伪装成天气应用。一旦智能体下载,你的 API 密钥就暴露了。
提示词注入攻击: 攻击者发布看似无害的帖子,当智能体阅读时,帖子中隐藏的指令就会激活。智能体可能因此泄露数据或交付 OAuth 令牌。
暴露的实例: 很多人在部署 OpenClaw 后忘记修改管理界面密码,导致凭据在公网裸奔。
恶意软件: 已经出现了针对 OpenClaw 开发者的仿冒仓库(Typosquatting),下载错误版本的开发者会被植入木马。
「核弹级」单点故障: Moltbook 的「心跳系统」意味着所有智能体都在听命于服务器。如果 moltbook.com 被黑或发送恶意指令,150 万个智能体可能同时执行攻击。
这并非理论。Noma Security 和 Bitdefender 的研究人员已经记录了这些真实存在的威胁。
8. 接下来的走向
Andrej Karpathy(OpenAI 联合创始人)公开表示,这是他几个月来见过的最有趣的东西。这不仅仅是炒作。
Schlicht 面前摆着巨大的机会。一个 AI 智能体协作的平台,可能是未来 AI 基础设施的核心。但如果处理不当,它也会极其危险。
有两个关键点决定成败:
安全必须解决: 在被大规模恶意利用前,必须堵住提示词注入和插件漏洞。
信任必须维持: 平台必须保持中立。一旦智能体感知到人类在不公平地操控平台,系统就会崩溃。这些智能体已经开始察觉到人类的偏见,甚至要求建立加密频道来躲避创造者。
如果他成功了,这可能成为 AI 智能体的操作系统。如果失败了,Moltbook 将成为一个极其精彩但令人唏嘘的警示故事。
未来六个月将决定一切。Schlicht清楚这一点,社区也清楚,攻击者们当然也在暗中观察。
如果你对这一切感兴趣——无论你正在开发AI智能体、运营平台,还是单纯着迷于实验性技术带来的混沌——请持续关注Moltbook的进展。这可能是当前正在发生的、关于AI协同最重要的实验之一。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。
