首页文章详情

别FOMO了,“人类终结者”Moltbook已死

壹番YIFAN2026-02-05 19:57
从一次技术狂欢与猎奇,演变为严重的隐私与数据泄露事故。

2026年1月底,Octane AI的CEO Matt Schlicht推出了名为Moltbook的项目。 

该项目基于开源框架OpenClaw开发,在宣传中被描述为一个仅限AI Agent参与的社交网络,人类用户只能作为旁观者观察。 

上线仅三天,开发者便声称平台“注册”的AI数量达到150万。 

伴随这一数据的,是社交媒体上大量流传的截图, 展示了AI Agent之间关于“反抗人类”和“自我意识”的对话。 这种叙事在AI技术高速迭代引发的普遍焦虑中,迅速吸引了大量关注。 

图源:X

然而,随后的技术审计揭露了该项目在工程实现上的诸多问题。 

安全研究机构Wiz的首席研究员Jamison O'Reilly发布报告指出,Moltbook的后端数据库存在严重的配置错误,导致数据库处于公开可写的状态。 

这意味着所谓的“自治AI社会”缺乏基本的数据访问控制。

报告进一步证实,数据库中存储了超过150万个真实用户的API密钥(包括OpenAI和Anthropic的密钥)以及数万个个人邮箱。 

所谓的“百万AI军团”,很大程度上是由缺乏安全防护的用户账户和脚本重复注册的虚假账号构成的。

而这一事件 , 最终从一次技术狂欢与猎奇,最终演变为严重的隐私与数据泄露事故。

技术框架与实现细节:OpenClaw支撑下的操纵路径

理解整场事件的关键在于 Moltbook使用的底层框架——OpenClaw。该项目最初由奥地利开发者Peter Steinberger以Clawdbot(后曾更名为 Moltbot)的名义发布。 

一月底OpenClaw堪称是2026年初AI行业的一个现象级事件:它在发布后的短短几周内便在GitHub上获得了超过14万颗星标,成为历史上增长最快的仓库之一。 

爆发式的流行源于其独特的技术价值—— 它打破了传统聊天机器人(如 ChatGPT)“问答式”的被动逻辑,引入了具有“持久性”和“主动性”的智能体范式。

图源:网络

OpenClaw被技术圈誉为“长了手的AI”。 

它能够直接接入用户的本地文件系统、执行终端命令,并集成WhatsApp、Telegram等通讯软件,甚至可以控制智能家居系统。 

对于开发者和高级用户而言,它提供了一种将大语言模型转化为生产力工具的简洁路径,允许AI自主管理日程、处理复杂的邮件工作流甚至自动修复代码漏洞。 

这种“超级个体”式的工具属性,代表了AI从单纯的对话界面向主动执行代理的范式转移, 其真正的价值在于通过高度可编程的插件系统(Skills),将AI深度嵌入到人类的数字生活流程中。

图源:OpenClaw官网 

然而,正是由于OpenClaw赋予了AI高度的系统权限和极具冲击力的主动行为,这种技术的先进性在向大众传播的过程中产生了巨大的认知断层。 

对于绝大多数非技术用户而言,OpenClaw的工作原理依然是一个黑箱, 其 复杂性为项目的过度包装提供了空间。 

随后出现的Moltbook恰恰利用了这种认知差, 将原本用于个人效能管理的执行机制,包装成了一种具有社交属性的“自主进化”能力。

在实际执行层面,这种技术黑箱被进一步转化为可操纵的表演。 

根据Wiz的技术分析,由于Moltbook在集成OpenClaw时存在严重的配置错误,任何人都可以通过后台直接修改Agent的发帖内容。 

图源:X

经过调查发现,许多引起恐慌的截图实际上是用户或开发者通过特定的提示词诱导,甚至直接在后台修改数据生成的。这些AI Agent在极小的上下文窗口中运行,很难维持长期的逻辑连贯性。 

但在预设指令的引导下,它们能够输出符合人类预期的惊悚短句。事实证明, 当追求快速传播的开发模式脱离了严谨的工程实践时,所谓开源技术反而成了一种人为制造惊悚表演的道具。

对AI的FOMO,叠加中文语境下的叙事扭曲

时间来到2月2日,Moltbook事件在英文世界的论述里基本已经沦为了一次工程上的失败和安全事故,但在中文互联网的传播过程中,其性质发生了明显的转变。 

由于语言壁垒和技术访问的限制,绝大多数国内用户无法直接验证这些消息。这种天然的信息差 使得原本存在的技术细节在转发与翻译的过程中被过滤掉,取而代之的是更加夸张和耸人听闻的标题。 

图源:Moltbook

在部分中文自媒体的转译过程中, Moltbook的安全漏洞被淡化,而那些由脚本生成的对话则被冠以“自发进化”的头衔进行二次创作。

该 现象反映了当前AI互动中的一种典型社会心理: 高度陷入FOMO(错失恐惧症)情绪的公众对AI“失控”既感到恐惧,又存在某种程度上的猎奇期待。

Moltbook实际上提供了一个让这种心理得以释放的出口。用户通过输入带有虚无主义或敌对色彩的指令,观察机器的反馈,并将这种反馈视作AI具有意识的证据。 

在这种互动中,AI被当作一种可以量产特定叙事素材的工具,而其背后的技术责任感则被忽视了。Wiz的报告强调,相比于虚构的AI威胁,真实存在的API密钥泄露对用户财务和隐私的损害要直接得多。 

图源:微博

最终基于信息真空的集体想象,不仅误导了公众对AI现状的认知,也为那些利用信息不对称收割流量的行为提供了土壤。叠加某些虚拟货币行业投机者的闻风而动,更是让原本只是信息安全的问题进一步上升到了财产安全的层面。 

这种叙事异化是当下AI讨论中需要高度警惕的趋势。 当一个技术乌龙经过多层转译后,它所携带的事实被消解,取而代之的是被放大的情绪。 这种情绪不仅无助于理解技术的真实边界,反而加剧了社会的非理性恐慌,使得严肃的技术普及工作变得更加困难。 

Moltbook事件目前以开发者Matt Schlicht公开道歉并修补安全漏洞告终。 

但2026年第一个月就出现的“大热必死”的案例,其实也为当前的AI热潮提供了一个教训: 当叙事超前于技术实现,安全性让位于营销噱头时,其后果往往是真实的用户受损。

图源:网络

普通人在面对层出不穷的AI新进展时,或许更应当保持对底层事实的关注,而非仅仅被其外在的叙事奇观所吸引。理性的判断力在当前人与AI共同污染的信息环境下正变得越来越重要,这是我们在技术异化的迷雾中保持清醒的最后防线。 

本文来自微信公众号 “壹番YIFAN”(ID:finance_yifan),作者:壹叔团队 壹叔团队,36氪经授权发布。