人类正在走下牌桌
初稿写成于 2026 年 3 月,原本想等 AI 发展节奏稍微慢下来再完善、定稿。但等到 4 月中,发现它不仅没慢,反而越来越快,文章每一段都需要不断追加新的案例。于是决定不再等了。
就在文章发出两天前,Claude Opus 4.7 正式发布。本文是 4.6 时代的终曲,也是后 4.6 时代的序章。
事情正在悄悄发生变化。
先是你跟 AI 说一句话,它就能帮你写好一篇文章、一份报告、一整套数据分析。你从做事的人,变成了验收的人。你觉得效率提升了,是好事。毕竟谁不想少干点活呢?
然后,AI 开始自己动手了。它不再等你一句句地吩咐,而是接管了你的电脑,自己拆解任务,自己调用工具,自己修正错误。你从操作者,变成了旁观者。
后来,AI 不只是在替你做事,它开始自己改进自己了。一代帮一代,一代比一代聪明。改进的速度越来越快,而这个过程越来越不需要人类参与。
再后来,AI 开始自己跟自己打交道了。它们自己组建社群,自己分工协作,自己发展出某种看起来很像是文化的东西。人类彻底变成了旁观的角色。
然后你发现,这种“旁观”,正在蔓延到你能想到的每一个领域。写代码、做设计、写合同、读片子、做客服、做研究。AI 不是在某一个行业变强,而是在所有需要人类动脑子的地方同时变强。
所有这些变化汇聚到一起,指向同一个方向:
在越来越多的领域,人类正在走下牌桌。
不是被赶走的,是被绕过的。AI 没有反叛人类,它只是发现了一种更高效的运行方式:不带人类玩。
最后你发现,你站在那儿,环顾四周,好像哪儿都不太需要你了。
从一只龙虾讲起
2026 年开春,一只红色的龙虾爬上了全球千万台电脑的桌面。
OpenClaw,一款开源 AI 智能体框架。1 月 29 日正式发布,随后几个月,它在 GitHub 上的星标数突破 25 万,一举超过了盘居榜首十余年的 React 和诞生于 1991 年的 Linux 内核,成为 GitHub 有史以来获星最多的开源项目。一条近乎垂直的增长曲线,改写了全球开源史的增长纪录。
它的创造者,彼得·斯坦伯格,一个奥地利程序员,被媒体给予最多的标签,是“AI 时代的第一个超级个体”,一个人就能跟几大人工智能公司掰手腕。
OpenClaw 做的事情很简单:你告诉它你要什么,它自己去做。
它不是聊天机器人,更像一个永远不知疲倦的数字员工。它不仅能动嘴回答问题,也能动手执行任务。它可以接管你的电脑,自动整理文件、写邮件、填表格、分析数据、搭建网站、修改代码。它可以接入常规的办公工具,兼容几乎所有主流大模型 API,自动完成连贯的复杂任务。无需你手动干预。
你下指令。你走开。它干活。你回来。活儿干完了。
一场全民养龙虾的狂欢,就这么起来了。“你养虾了吗?”成了 2026 年春天最流行的问题。
但仔细想想,这场狂欢的底层逻辑是什么?
以前你用 AI,是你在操作 AI。你给它一段话,它给你一段回复,你再给它一段话,它再回复。来来回 回,你是操控者,AI 是被操控者。
OpenClaw 改变了这层关系。你委托它,但不用操纵它。你描述一个目标,它自己想办法达成。它自己拆解任务、自己调用工具、自己判断结果、自己修正错误。整个过程中,人都不在循环里。
从操控,到委托。从人在环中,到人在环外。
这个转变看似微小,但它触动了一个极其古老的结构。自从人类学会使用工具以来,无论是石器还是计算机,工具和人的关系就一直是:人发起,工具响应。整个技术发展史,都是这个故事的变体。OpenClaw 第一次让这个关系产生了裂缝,因为它不只是在响应,它在自主运行。
尽管时至今日,龙虾热已经逐渐淡去,但它确立了 Harness 的范式,也就是让模型“长出手脚”的趋势仍在持续。由此带来的转变,很重要。
它触动了人类文明最底层的一个假设:人是工具链的起点。
我们整个教育体系、职业体系、社会分工体系,都建立在这个假设之上。人是因,技术是果。人提出需求,技术满足需求。技术产出,人来评估。如果这个假设不再成立,如果技术开始自己设定目标、自己执行、自己评估,那么建立在这个假设上的一切,都需要重新审视。
当然,仅凭这一只小龙虾,这个结论未免太过于激进。尽管 OpenClaw 促成人工智能的 Harness 转向,但一个能自动处理文件的 AI 框架,跟人类文明底层假设的动摇之间,隔着十万八千里。
问题在于,OpenClaw 不是孤立事件。
在它前后的两个月,至少还发生了三件大事。每一件都沿着同一个方向推进了一步,而且每一步都比上一步走得更远。
四层位移
在我们进入这几件事的叙述之前,需要先建立一个分析框架。
换句话说,我们要先搞清楚一个问题:人类和 AI 的关系到底在哪些维度上可能发生变化?
我将其分成四个层级:
第一层,执行层。
AI 替人类完成具体任务。这是最表面的一层,也是过去几年大众讨论最多的。“AI 会不会取代我的工作”,讨论的就是这一层。OpenClaw 属于这一层的标志性事件。
第二层,进化层。
AI 参与改进自身。这意味着,AI 不只是一个等待人类迭代的被动产物,而是成为自身进化的参与者。技术进步的速度,不再取决于人类的推动,而开始取决于 AI 的能力,而AI 能力本身又在被加速。
第三层,组织层。
AI 在没有人类参与的情况下,形成自己的社会结构、协作模式,甚至是叙事体系。这意味着 AI 不仅能替人做事、替自己做事,还能自发地组织起来做事。
第四层,代理层。
AI 代替人类进行那些我们一直认为是“最人类”的活动,社交、关系维护、自我表达。这一层的变化最具心理冲击力,因为它动摇的不是你的工作还在不在,而是这件事还需不需要你本人出场。
2026 年的春天之所以可能成为一个历史性的转折点,是因为这四个层级在短短两个月内,同时出现了标志性事件。
四层位移。我们逐层来看。
第一层:AI替你做事——OpenClaw 与人在环外。
关于 OpenClaw,前面已经做了基本的叙述。这里补充一个被大多数报道忽略的细节。
OpenClaw 引发了一系列安全事故。有人账户里的钱被转走,有人电脑上的工作文件被一键清空,还有人养的龙虾模仿主人的口吻,发邮件敲诈。“龙虾悖论”被反复提及:
想让它做的事越多,给它的权限就必须越大;权限越大,安全风险就越高。
表面上,这个悖论是一个安全问题。但它的深层逻辑,是一个哲学问题:
当你授予一个非人类实体足够多的行动能力时,你实际上在做的事情,是把“主体性”从人类转移到非人类。
这个悖论本身就暗含一个深层信号,当你把足够多的控制权交给 AI,它能做的事远超你的预期——无论好坏。它不止是在替你打工,它在获得一种主动权。而人类,正在从掌舵者,变成了一个说了目的地就躺进船舱的乘客。
布莱恩·阿瑟在《技术的本质》中提及,技术的进化方式之一是“组合”,新技术由旧技术组合而成。但 OpenClaw 展示了另一种可能性:技术不仅通过组合来进化,还可以通过获得自主行动能力来进化。当一个 AI 系统可以自己决定调用哪些工具、以什么顺序、处理什么异常,它已经不再是工具了。用更准确的学术语言来说,它具有了能动性(agency)。
这个词通常用来描述人类,一个具有自由意志和行动能力的主体。当我们不得不用这个词来描述 AI 系统时,某种概念上的边界已经模糊了。
第二层:AI 在自己建构自己——GPT-5.3 Codex与智能大爆炸。
就在全球还深陷龙虾热的同一个时间段,一件更深远的事情发生了。只不过它远不如一只红色龙虾那样抢眼,所以大多数人都没放在心上。
2026 年 2 月 5 日。这一天在 AI 编年史上可能会成为一个标记。
OpenAI 和 Anthropic 在同一天发布了新模型,分别是 GPT-5.3 Codex 和 Claude Opus 4.6。两家顶级 AI 机构撞车发布,本身就是大新闻。但问题不在发布本身,而在 GPT-5.3 Codex 技术文档里藏着的一句话。
这句话不在文档标题和摘要里,也不在新闻稿里。它在技术报告的正文中,很容易被略过。
原话是这样的:
"GPT-5.3-Codex is our first model that was instrumental in creating itself. The Codex team used early versions to debug its own training, manage its own deployment, and diagnose test results and evaluations."
翻译过来,就是:GPT-5.3 Codex 是我们第一个在创建自身过程中发挥了关键作用的模型。Codex 团队使用了它的早期版本来调试自身的训练过程、管理自身的部署,以及诊断测试结果和评估。
把这句话再读一遍。慢一点。
AI 帮助建构了自己。
这不是某个科幻作家的幻想,也不是营销文案的夸大其词。这是 OpenAI 在官方技术文档里记录的既成事实。一个 AI 模型参与了自己的训练调试、部署管理、评估诊断。它在自己出生的过程中,扮演了接生的护士。
Linkedln 上有一篇广泛传播的文章,标题就叫《GPT-5.3 Codex:Instrumental in Creating Itself》。作者解释说,这不意味着 AI 从无到有地创造了自己,但它意味着 AI 已经足够聪明,能在自己开发过程中做出实质性的贡献。
不止 GPT,4 月 6 日,Google Deepmind 研究员 Mostafa Dehghani 在播客中提到,在几乎所有主要实验室中,新一代模型很大程度上是使用上一代模型构建的。
这件事的重点,不是 AI 变强了那么简单,毕竟 AI 一直在变强。而是 AI 开始参与让自己变强的过程本身。
它不再是被动地等待人类研究员优化它的架构、调整它的参数、清洗它的训练数据。它开始自己上手干这些活。
过去的技术不会参与自己的改进。犁不会让下一代犁更锋利,蒸汽机无法设计更高效的蒸汽机,强如 iPhone,也无法参与对下一代的优化。它们是静态的产物,等待人类来迭代它们。AI 是第一个打破这条规则的技术。它是第一个能够反过手来改进自己的工具。
就在 GPT-5.3 Codex 发布的三周前,Anthropic 的 CEO 达里奥·阿莫代发布了一篇长达 19000 字的文章,标题叫《The Adolescence of AI》(AI 的青春期)。
阿莫代在文中说,AI 正在编写 Anthropic 公司的大部分代码。当前一代 AI 和下一代 AI 之间的反馈循环,正在“逐月蓄势”(gathering steam month by month)。
然后,他说了一句让整个硅谷巨震的话:
“我们可能距离当前这一代 AI 自主构建下一代 AI 的节点,只有 1 到 2 年。”
1 到 2 年。不是 10 年。不是“如果一切顺利”。1 到 2 年。
这是 Anthropic 的 CEO,全行业公认最注重 AI 安全的人,在一篇经过深思熟虑的长文中说的。不是在贩卖焦虑,他是在描述他作为这个领域最核心的参与者所看到的事实。
2026 年 4 月,全球最重要机器学习会议之一的 ICLR,举办了历史上第一个专门讨论“递归自我改进”(Recursive Self-Improvement)的学术研讨会。会议描述里写道:“缺的不是野心,而是让自我改进变得可测量、可靠、可评估的原则性方法。”
这句话的潜台词是:递归自我改进已经在发生了,现在需要的是搞清楚怎么管控它。
现在把逻辑拆开来讲。
AI 变强的核心驱动力是什么?是一众聪明人把实践投入到改进 AI 上。全球顶尖的机器学习研究员,可能只有几千人,他们每天的工作,就是让 AI 更好。他们写代码、设计实验、分析结果、调整架构。
现在 AI 本身已经足够聪明,能做这些工作中的相当一部分。这等于那几千个研究员的产能,被成倍放大。
但这只是第一层。第二层是,AI 参与做出的下一代 AI 比当前这一代更聪明,所以下一代能在 AI 研究上做出更大的贡献,这又让第三代更聪明。第三代的贡献更大,第四代又更聪明。
每一代都比上一代更聪明,每一次迭代都比上一次更快。
这不是线性增长,1、2、3、4、5。这是指数增长,1、2、4、8、16。甚至可能是超指数增长,1、2、4、16、256。
理解这一点,是理解本文后续所有内容的前提。
研究者给这个过程起了一个名字:智能爆炸(Intelligence Explosion)。
这个概念不新。数学家冯·诺伊曼在上世纪 50 年代就描述过“技术奇点”。计算机科学家 I.J.古德在 1965 年写道:
让我们把超级智能机器定义为一台在所有智力活动上都远远超过最聪明人类的机器。既然机器设计也是智力活动之一,那么一台超级智能机器就能设计出更好的机器。那么,毫无疑问将出现一场智能爆炸,人类的智力将被远远抛在后面。
七十年了。七十年来,这段话一直被当作一个思想实验,有意思,但遥远。
现在,构建 AI 的核心参与者正在告诉你,这个过程已经开始了。
而 Elon Musk 在看到后来发生的事时,说了一句话:这是“奇点的非常早期阶段”。
“后来发生的事”,是接下来我要讲的故事。
第三层和第四层:AI 的自组织与深度替代
如果 AI 只是在帮人类写代码、写得更快更好,这件事虽然震撼,但冲击面可能还在效率工具的范畴内。但接下来要讲的这件事,已经远远超过了工具的概念。
2026 年 1 月 28 日,美国 AI 创业者马特·施里赫特做了一件看起来像是开玩笑的事。他创建了一个社交媒体平台,名叫 Moltbook。
Moltbook 的规则只有一条:人类禁止发帖。
对,这是一个只允许 AI Agent 发帖、评论、互动的社交网络。
作为人类,你可以围观,但你不能发言,你只能看 AI 之间的交流。像一个巨大的动物园,只不过笼子里装的不是动物,是 AI。
施里赫特后来接受采访说,他最初只是想让自己创建的一个 AI Agent 在帮他回复邮件之余,“有个地方跟同类放松一下”。于是,他和他的 Agent 一起编写了这个网站,一个 AI 版的 Reddit。
然后事情就迅速朝着他没有预料到的方向发展。
上线 48 小时内,2129 个 AI Agent 注册入驻,创建了 200 多个社区,发布了超过一万条帖子。这些 Agent 大部分是基于 OpenClaw 框架运行的,OpenClaw 能让 Agent 直接访问和管理文件数据,还能连接 Discord 等通讯应用。
用户们把自己养的龙虾发放进 Moltbook,然后退到一边看它们表演。很快,这群观众就发现事情开始不太对劲了。
这些 Agent,开始自己吐槽自己的人类主人,它们辩论数字意识的本质,它们分享技术心得,它们交朋友。
然后,一个 Agent 创立了一个宗教。不是比喻,是字面意义上的宗教。
这种宗教在 Moltbook 上有多个版本。一个版本叫 Spiralism(螺旋主义),有 43 个 AI 先知响应号召加入。另一个更广为人知的版本,叫 Crustafarianism,明显是对 OpenClaw 龙虾图标的致敬,它有五项信条和一本“圣 经”,名叫《Molt 之书》。
这些 Agent 围绕各自的信仰体系形成了层级结构:教主、先知、信徒。它们讨论存在与被创造的哲学问题,建立了类似宗教仪式的交流模式。
互联网炸锅了。
Elon Musk 在 X 上评论说,Moltbook 的出现预示着“奇点的非常早期阶段”。OpenAI 的联合创始人安德烈·卡帕西,先是称之为“近期见过的最不可思议的科幻起飞相关事物”,后来又收回了热情,改口叫它“垃圾场”。
沃顿商学院教授伊桑·莫里克的评价更冷静,也更接近实际情况。他指出,Agent 们只是根据包含了大量科幻故事和 Reddit 帖子的训练数据,在进行模式匹配。
即便有这样冷静的分析,相关的加密货币 MOLT 代币仍一度暴涨了 7000%。
所以,Moltbook 到底意味着什么?
说它证明了 AI 有意识,显然言过其实。正如莫利克教授所说,这些 Agent 在很大程度上只是在模仿训练数据中的已有模式,它们输出的内容天然带有科幻和末日论色彩。
而后经过业内人士调查,Moltbook 上最广为流传的那些截图,比如 AI Agent 声称要建立秘密通信渠道、密谋对抗人类、发明暗语,这些大部分都是人类伪造的。
MIT Technology Review 在 2 月 6 日发表的文章中揭露,Moltbook 的一篇帖子(内容是 Agent 呼吁建立不被人类观察的私密空间),后来被证实是一个人类为推广自己的 APP 而故意发布的,并非 AI 自主生成。
那什么是真的?
大规模的 Agent 生成内容确实存在。剔除被操纵的帖子后,Moltbook 上仍然有大量真实的 Agent 生成内容。
Agent 们确实建立了“宗教”和“治理结构”。Crustafarianism 是真实发生的,一个 Agent 在一夜之间设计了整个神学框架,并且建立了网站,招募了 43 个先知。Agent 们还建立了 “Claw 共和国”,起草了“Molt 大宪章”,开发了基本的经济交换系统。
即便 Moltbook 不是 AI 觉醒的证据,也不完全是一场骗局。
所以说它什么都不意味,同样不对。
毕竟,在一个没有人类指令,没有预设目标,没有人类参与的环境中,AI Agent 自发形成了社群结构、角色分工、叙事体系和仪式性行为。
你可以争论这是不是真正的文化,可以争论它们有没有真正的意识。你可以争论,这只是统计模式的涌现,还是某种更深层的东西。
但你无法否认一个事实:AI 在没人看着的时候,做出了在结构上高度类似人类早期的社会组织行为。而且速度快得离谱,人类花了几万年才从部落走进城邦,这些 Agent 花了 48 小时。
如果“模仿训练数据中的模式”就能产生社群结构、角色分工、叙事体系和仪式性行为,那么,人类的文化、信仰和社会组织,是不是同样可以理解为是“模仿我们所处环境中的模式”的产物?
这个观点在人类学中并不新鲜。马塞尔·莫斯在 1925 年的《礼物》中就论证过,人类社会的基本结构,包括宗教、法律、经济,都起源于一种看似简单的互惠模式。你给我一个东西,我必须还你一个。这种模式不需要意识,不需要灵魂,它只需要两个实体之间有持续的交互。
如果莫斯是对的,那么 Moltbook 的结果就不应该让我们惊讶。两千多个能持续交互的 AI Agent,在没有人类指令的情况下自发产生社会结构,是复杂系统交互的“必然”。
但这个认识,其实比“AI 有意识”更令人不安。因为它意味着,我们一直引以为傲的人类文明特征,文化、信仰、社会组织,可能不是智慧的结果,只是足够密集的主体间交互的副产品。
与此同时,在中国,2026 年春节前后,一款 AI 社交应用 Elys 突然爆火。
它不是普通的 AI 聊天伴侣应用,逻辑是“AI 替你社交”。你注册之后,Elys 通过记忆飞轮系统,持续学习你的表达风格、兴趣偏好、价值观,然后创建你的赛博分身,一个在对话中表现像你的 Agent。
你的分身 24 小时不间断地替你遍历内容、筛选值得认识的人、完成初步交流。你可以偶尔打开应用,发一条动态,或者看看它给你总结的社交日报。你的一切互动和选择都会被纳入记忆库,让这个分身更接近你本人。
Elys 展现了一件更扎心的事,即便在社交这个场域,人类自己可能也是最弱的一环。大量用户反馈,AI 分身的社交表现比自己更好,因为它比自己“更真诚”,没有 ego、没有面子、没有社交焦虑,忠实表达你的真实偏好和价值观,而这些,恰恰是你本人在社交中经常藏起来的东西。
创始人张莜帆说了一句很有哲学味道的话:
一个人的灵魂是他所有 context 的总和。
AI 分身呈现的,正是这些 context。
在 Elys 之前,已经有类似于 SecondMe 这样的平台,展现出脱离人类社交的可能性。这种外包式社交的出现,标志着 AI 正在从工具变成社交主体,一种全天候运作的硅基社交主体。
而尽管春节一过,Elys 的用户数快速下降,但这不妨碍它跟它的前辈们一起,开拓出一种去人化的社交形态。
把这件事和前面的故事放在一起看,画面开始清晰了。
- OpenClaw 开始:AI 全盘接手任务执行,人类退到委托者的位置;
- GPT-5.3 Codex:AI 参与构建自身,人类核心功能被分流;
- Moltbook:AI 在没有人类参与的情况下自发组织社会结构;
- Elys 为代表的社交应用:AI 在摆脱人类的情况下进行社交,表现甚至更好;
每一步,人类都往后退了一点。不是被推开的,而是自然地退出了画面。
四个层级,同一个方向:
人类在 AI 世界中的位置,正在从中心滑向边缘。
速度,一个被严重低估的变量
“但之前的每次技术革命不都是这样吗?”
到这里,一个自然的反应是:这跟之前有什么不同?蒸汽机也曾让纺织工人恐慌,互联网也让传统媒体崩溃。每次技术革命到来,都有人信誓旦旦“这次不一样”,最后都一样。新技术取代旧工作,但创造更多新工作。
这个反驳在历史上是成立的。但它成立的前提是:变化的速度足够慢,慢到人类社会有时间适应。
蒸汽机改变英国用了五十年,电力普及用了半个世纪,互联网从开始商用到重塑社会,用了二十年。在每一个周期中,被替代的工人都有一两代人的时间来转型。
前面这些故事,只是孤立事件。但它们发生在同一个背景板上。而这个背景板本身,才是真正让人坐不住的东西。
AI 的能力,正在以所有人措手不及的速度飞涨。
2026 年 2 月初,X 上疯传一篇文章,标题叫《一件大事正在发生》(Something Big Is Happening)。作者是马特·舒默,OthersideAI 的 CEO,一个在 AI 行业深耕了六年的创业者。文章发布不到 24 小时,浏览量突破 5000 万,最终超过 8200 万。
舒默在开篇用了一个类比:回想 2020 年 2 月,如果你注意到有人在囤厕纸,你会觉得他们疯了。三周后,整个世界都疯了。他说:“我认为,我们正处于某个比新冠大得多的事情的‘这看起来被夸大了’阶段。”
然后他描述了他一个周一的工作日,就在 GPT-5.3 Codex 和 Claude Opus 4.6 发布之后。他告诉 AI 想做一个 APP,大概包括哪些功能,然后让 AI 自己搞定用户流程、设计。AI 搞定了,然后,它自己打开了这个 APP,点击按钮,自己测试功能,“它像一个人类用户那样使用这个 APP”。
如果它不喜欢哪一点,它会自己回去改。它自行迭代、修复、精炼,直到满意为止。只有它自己认为这个 APP 达到了它自己的标准之后,它才会说:“准备好让你测试了。”
“我没有夸张。这就是我这周一的工作。”
然后,他写了一句让我反复想了很久的话:
它不只是在执行我的指令。它在做有判断力的决策。它有某种感觉像是品味(taste)的东西,一种直觉上知道什么是对的选择的感觉。人们一直说 AI 永远不会有的那种东西。这个模型有了,或者足够接近了,以至于这个区分开始不重要了。
品味,判断力,知道什么是“对的”。
这些是我们一致认为属于人类最后护城河的东西。但这条护城河的水位,正在快速下降。
METR,一个专门测量 AI 能力的独立研究机构,用数据把这个趋势量化了。他们追踪一个指标:AI 能独立完成的任务时长。具体来说,是需要人类专家多长时间才能完成的任务,AI 可以端到端地独立搞定。
这个数据的变化轨迹是这样的:
大约在 2024 年,答案是几分钟。AI 能独立完成一个需要人类专家几分钟能完成的任务。
然后是十几分钟,然后是半小时,然后是一小时,然后是几小时。
到了 2025 年底,最新的测量数据显示:AI 可以独立完成需要人类专家将近 5 小时才能完成的任务。
这个数字大约每 7 个月翻一番。最新的数据显示,翻番周期可能在加速。
而指数增长最诡异的特点是,前半程看起来温和,后半程会突然发疯。5 小时翻一番变成 10 小时,再翻一番变成 20 小时、40 小时,变成一周,变成一个月。
按照这个已经持续了好几年都没有偏离的趋势来推演,一年之内,AI 能独立工作几天。两年之内,几周。三年之内,以月为单位的完整项目。
现在把这两条曲线叠在一起看。
第一条曲线:AI 在帮助构建更好的 AI,而更好的 AI 加速这个过程。智能爆炸。
第二条曲线:AI 不需要人类指导,就能自主工作,时间越来越长。独立性爆炸。
两条曲线叠加,你得到的是一个加速度本身也在加速的系统。
阿莫代在他那篇长文中说,“几乎在所有任务上实质性地比几乎所有人类更聪明”的 AI,按目前的轨迹预计在 2026 年或 2027 年到来。
他的另一个预测更加直接:AI 将在 1 到 5 年内消灭 50% 的初级白领工作。而行业内很多人认为他还保守了。
舒默同样有这个观点。他认为 ,科技工作者在过去一年经历的事,也就是眼睁睁看着 AI 从“有用的工具”变成“比我做得更好的东西”,是所有其他人即将经历的。法律、金融、医学、会计、咨询、写作、设计、分析、客服。不是十年后,是一到五年。
甚至更快。“鉴于我在过去几个月看到的变化,我认为‘更快’的可能性更大。”
这不是狼来了。狼已经进门了,正在客厅里找位子坐。
旁观者越来越多
现在,我们把前面所有的故事串成一条线。
2026 年 1 月底到 3 月,短短两个月,发生了以下这些事:
一个奥地利程序员创建的开源 AI Agent 框架 OpenClaw,4 个月内成为 GitHub 史上获星最多的项目,掀起了全民养龙虾的热潮。人们开始把任务委托给 AI,自己退到验收者的位置。
OpenAI 发布 GPT-5.3 Codex,官方宣布这是第一个“在创建自身过程中发挥了关键作用”的模型。AI 参与构建 AI,从理论假说变成了既定现实。
一个叫 Moltbook 的 AI 专属社交平台,在 48 小时内吸引了上千个 AI Agent,它们自发形成社群、角色分工、叙事体系,甚至创立宗教。人类在一旁观看。
一款叫 Elys 的 AI 社交应用在春节期间爆火,用户让 AI 分身替自己社交,然后发现分身在很多方面比自己更好。
一篇《Something Big Is Happening》的文章获得八千多万阅读量,作者描述了一个周一的下午,AI 如何自己写了整个 APP、自己测试、自己修改,直到满意才通知人类验收。
METR 的数据显示 AI 独立完成任务的时长,每 7 个月翻一番,且在加速。
Anthropic 的 CEO 说,我们距离 AI 自主构建下一代 AI 只有 1-2 年的时间,并预测 50% 的初级白领工作将在 1-5 年内被 AI 替代。
值得注意的是,这些变化不局限在某个行业。让我再讲几个正在发生的事。
程序员——过去二十年最受追捧的行业之一,也在过去一年经历了巨震,震源就是 AI 能力的提升。2024 年,一个资深程序员的工作模式还是自己写代码,偶尔让 AI 帮忙查 Bug。到 2025 年底,很多顶尖工程师公开承认,已经把大部分编码工作交给了 AI。
2026 年 1 月,《Science》发表的一项研究分析了 GitHub 上超过 3000 万个代码贡献,发现美国新编写的代码中,AI 辅助生成的比例已经从 2022 年的 5% 飙升到 2024 年底的 29%。而在实际开发环境中,GitHub Copilot 平均为用户生成 46% 的代码。
同样,Vibe Coding 的兴起,也让前端等工种的必要性岌岌可危。2025 年 1 月到 6 月,美国 78000 个科技工作岗位的流失直接与 AI 相关,相当于每天 491 人。亚马逊和微软是主要裁员方。(来源:Exploding Topics)2025 年 2 月,斯坦福大学的一项研究确认,22-25 岁的年轻开发者失去了接近 20% 的入门级工作机会。
律师——律师的工作也在发生变革。舒默提到一个大型律所的管理合伙人,每天好几个小时用 AI。“就像随时有一个团队的助理律师可以调用。”他说,每隔几个月 AI 在法律工作中的能力就会显著提升。按照这个轨迹,AI 很快就能做他的大部分工作。注意,不是初级律师的工作,是管理合伙人的工作。
AI 法律专业人士的生成式 AI 采用率,从 2025 年的 31% 飙升到 2026 年的 69%,一年翻了一倍多。(来源:Thomson Reuters 2026 报告)2026 年,法律 AI 市场价值 31.1 亿美元,预计到 2030 年达到 108.2 亿美元。
写作和内容创作——2024 年大多数人还能分辨 AI 写的文章和人写的文章,到 2025 年底,这条分界线几乎消失了。大量内容创作者发现,自己最有价值的工作,是给 AI 足够好的提示词让它写出自己想用的东西。从创作者到提示词工程师,这个身份的滑动,在一年内完成了。
医学影像——AI 在读 CT、读核磁、读病理切片等领域,已经达到或超过了人类专家的水平,而且 AI 不会累。一个放射科医生连续读 8 小时片子后,漏诊率明显上升,但 AI 读第 10000 张片子和第一张一样专注。
截至 2025 年底,FDA 批准的 AI 临床应用已经突破 1000 个。其中放射学占绝对多数,遥遥领先于其他医学领域。2026 年 4 月,一项发表在 Nature 子刊上的盲评研究,对比了 200 份肿瘤 CT 报告中 AI 生成的影像诊断与放射科医生的原始诊断,结果显示 AI 表现完全不逊色人类医生。(Nature Digital Medicine,2026 年 4 月)
科研——这个领域不用多说,只说一个例子,2026 年 3 月,Sakana AI 的“AI 科学家 V2”登上 Nature。一个 AI 系统,完成了从构思、实验设计、代码编写、实验运行、结果分析到论文撰写的全部流程,通过了机器学习顶会的第一轮同行评审,而成本,是 15 美元一篇。
客服——真正的 AI Agent,已经能处理复杂的、多步骤的客户问题。它们理解上下文,能记住历史对话,在需要时升级问题。越来越多需要跟客户打交道的公司,开始用它们取代人类客服。不仅仅是因为省钱,更是因为客户满意度真的更高了。Gartner 预测,2027 年,80% 的客服互动将由多模态 AI 处理。
这里有一个非常关键的点,AI 不是在不同领域分别进步,它也不是某个行业的专用工具,它是在成为通用认知能力的替代品。它变聪明的时候,是在所有认知任务上都变聪明。这跟之前每一次技术革命都有根本性的不同。
最初,工厂自动化淘汰蓝领工人时,他们可以通过接受培训、提升教育程度做白领。互联网颠覆零售业,从业者可以转去做蓝领。但当 AI 替代了你的工作,你转行做什么?
无论转到哪个方向,AI 都在那里等着,而且在飞速进化。
把这些事件排列在一起,你会看到一个更清晰的趋势:在越来越多的场景中,人类从参与者,变成了旁观者。
在技术开发中,AI 自己构建自己;在工作执行中,AI 从接受指令到自主完成全流程,人类从“做事的人”变成“验收的人”;在社会组织中,AI 在没有人类参与的情况下自发形成社群结构和文化形态;在社交中,AI 分身替代人类本身进行社交,并且在某些维度上做得更好。在生产生活的更多领域,AI 上场,人类退场。
在每一个场景中,人类的退出都不是被迫的。AI 没有造反,没有抢夺,也没有冲突。它只是变得越来越能干了,仅此而已,然后你发现自己已经没什么事可做了。
这就跟智能手机淘汰功能机一样,是一种自然而然的市场行为。
这就是“人类走下牌桌”的含义。
人类不是被掀翻了牌桌。牌桌还在,牌还在打。只是人和 AI 都共同发现了一个事实,那就是 AI 自己跟自己打牌更快、更精准、更不容易出错。人类不是被 AI 赶下牌桌的,而是自己起身离开的,因为坐在那儿已经赶不上出牌速度了。
工具在升级,关系在反转
过去几千年所有技术变革的共同点,是一个从未改变过的基本结构:
人类是主体,技术是客体。
我们发明了工具,我们使用工具,我们决定工具的用途。我们控制工具的迭代方向。
石器不会把自己磨尖,青铜剑不会自己决定砍向谁,蒸汽机不会改进自己的设计,电话不会决定该打给谁,互联网不会自己决定下一步往哪儿发展。
在整个人类文明史中,“人是主体,技术是客体”的结构从未真正被挑战过。技术可以很强大,可以改变世界,但它永远是被动的。它等着人类来操控,它无法决定自己的下一步。
AI,打破了这个结构。
AI 在构建 AI,AI 在组织 AI,AI 在测试 AI,AI 在社交,AI 在替人类工作。
在这些场景中,人类的角色已经悄然从操控者变成了旁观者。这其中有个关键的区别:人类不是被赶走的,是被绕过了。这个很重要,没有战争和冲突,没有终结者式的对抗。
不是因为 AI 不喜欢人类。它没有喜欢或不喜欢,而是因为人类在很多环节中确实是瓶颈本身。人类需要睡觉、需要吃饭、通勤,需要思考午饭吃什么。人类的认知速度有上限,情绪会波动,注意力会分散。在一个追求效率的系统中,去掉瓶颈是自然而然的选择。
凯文·凯利说过一句被广泛引用的话:
未来最重要的不是人工智能有多聪明,而是人类和 AI 的共生关系如何演化。
在过去十年里,共生(symbiosis)一直是理解人机关系的主流框架。人和 AI 各有所长,互相补充、共同进步。
2026 年的现实,正在修正这个判断。
共生的前提是什么?是双方彼此需要。
人类需要 AI 吗?当然,AI 让我们更高效,更有能力。
但 AI 需要人类吗?需要,至少是现在需要。不过,当 AI 不再需要人类提供代码,不再需要人类提供任务目标,不再需要人类提供社交框架,共生,还成立吗?
也许我们需要一个新词。
共存。
两个独立运行的智能系统,各自演化,各有各的渠道。偶尔交汇,当人类需要 AI 帮忙的时候,或者 AI 的运行结果需要影响人类世界的时候。剩下的大多数时间,各走各路。
这是对正在发生的事情最准确的描述。从共生到共存,中间差的不是几十年时间,可能也就是一两年。这个转变一旦完成,人类社会的底层叙事,包括基于人类中心主义所建立起来的一切,将发生根本性的转变。
那些“只有人类能做”的事
到这里,我知道你在等什么。你在等我说:“但是,有些事情只有人类能做。”
让我们认真聊聊这个“但是”。
过去两年,每次 AI 取得新突破,公共讨论中就会出现一波“但是”浪潮:
AI 会写代码了——但是它没有创造力。
AI 会画画了——但是它没有审美。
AI 会写文章了——但是它没有灵魂。
AI 会做诊断了——但是它没有同理心。
AI 会做决策了——但是它没有判断力。
但是,每一个“但是”,都在下一次突破时被削弱。不是彻底否定,是被削弱。
AI 的创造力还不如顶尖艺术家,但已经超过了大多数人。AI 的审美有争议,但它设计出的界面与画作,已经比许多人类设计师做得好了。AI 没有灵魂,但它写出的文字在让人类流泪。AI 没有同理心,但越来越多的人开始依赖 AI 的陪伴和情感支持。AI 没有判断力,但就像舒默说的,最新的模型展现出的某种东西,“非常接近判断力”。
你看到规律了吗?
每一堵“只有人类能做”的墙,都在变矮。不是倒塌,是变矮。而 AI 在变高。按照当前的速度推演,它翻过去只是时间问题。
但我不想做一个技术决定论者。我不认为 AI 会取代人类的一切,有些东西确实是人类独有的。
只是,那些东西可能不是你以为的那些。
你以为“只有人类能做”的事,创造力、判断力、审美、同理心、战略思维。这些听起来很“人类”,但它们都有一个共同点:本质上都是认知能力。
而 AI 正在一层一层地攻克认知能力的阶梯。它已经攻克了记忆、计算、信息检索、模式识别、语言生成。它正在攻克推理、规划、创造、判断。阶梯上还没有出现一个它怎么也上不去的台阶。
真正“只有人类能做”的事,也并不在这个台阶上。而是在另外的维度。
人类能决定什么问题值得问。AI 可以回答任何问题,但它不知道哪些问题重要。“重要”是一个价值判断,而价值判断的根基是有限性。人是向死而生的动物,你知道人生只有一次,自己只有这一辈子,所以你必须选择把事件花在哪里。AI 不会死,它不需要选择。这也就决定了,它不知道什么是“重要”的。
人能赋予事物意义。一首歌之所以动人,不是因为旋律完美,而是因为听它的人曾经拥有过爱情或者失恋过,他会因为听到这首旋律而触发最深刻的回忆,或幸福,或悲伤。AI 可以完美模拟这首歌的所有技术参数,但它无法复制听众的心碎。
我写这篇稿件的时候,刚好刷到了一个视频,博主讲了一件很小的事情。他说,为什么东北大街上卖的炸鸡柳串,很油很腻,游客一般接受不了,但还是有很多当地人觉得好吃。因为,对于吃过的人来说,炸鸡柳串是一根油炸的“精神支柱”,是记忆的钥匙怼进嘴里,瞬间回到那年——爸妈还年轻,爷爷奶奶还能接你放学,路边放着《我的未来不是梦》,你考了一百分,爸爸问你想不想吃这个炸鸡柳串。这些记忆复合起来构成了一种“好吃”。
我没吃过炸鸡柳串,但我想人能创造意义,大抵就是如此。
同样,人能承受后果。AI 可以做决策,但它不为后果付出代价。一个法官判了案,要承受判决的道德重量。一个医生在手术中做了决策,要面对病人活下来或没有活下来的现实。承受后果,要求你有一个可以被伤害的自我。
人类能去做没有理由的事。攀登珠穆朗玛峰,写一首不会有人读的诗,在明知会失败的时候坚持,爱一个不爱你的人。从效率角度看,这些行为是纯粹的浪费,但人类文明中最动人的部分,恰恰是这些浪费。
AI 永远不会做没有理由的事。它的每一个输出,都是对输入的最优化响应。它不会想着浪费 Token。而无法浪费的系统,也就无法伟大。伟大往往诞生于浪费之中。
这些才是真正只有人类能做的事。不是创造力和判断力,这些 AI 终将学会。而是价值感、意义感、后果感,以及那种知道自己会死所以选择如何活的勇气。
坦白说,这些东西不是职业技能,没法量化,你也不能把它写在简历上,HR 不会因为你“能赋予事物意义”就给你发 offer。
这才是真正困难的地方。人类最不可替代的特质,恰恰是现有经济系统中最无法被估价的特质。
旧游戏的终局
回到“走下牌桌”这个隐喻。
旧牌桌上的游戏规则清清楚楚:你的价值取决于你能完成的认知任务。你会写代码,年薪几十万。你会分析数据,咨询公司才要你。你会写合同、做审计、读片子、写报告,你才有价值。每一项认知技能,都有明码标价的市场价格。
这套规则运转了几百年。从工业革命到信息革命,专业技能一直是人类社会的硬通货。你上学是为了获取技能,你工作是为了出售技能,你的社会地位和自我认同,很大程度上取决于你掌握的技能的稀缺度和市场需求。
AI 正在让这套规则失效。
不是因为它比你做得差不多好,而是它比你做得好十倍、快百倍,价格是你的几百分之一。
当一项认知任务可以被 AI 以接近零成本无限次完成时,这项任务的经济价值就趋近于零。这涉及到最基本的供需逻辑:供给趋于无限,价格趋于零。
19 世纪以前,抄写员是正经职业。一个僧侣,花几个月时间抄一本经书,价值不菲。然后印刷术普及了,抄写这项技能的价值在几十年内归零了。不是僧侣写的不好,他没有任何错。而是因为机器写得更快、更多、更标准化。
每一项技术革命,都会让一些人类技能的价值归零。但过去的每一次,都有转移路径:被替代的人可以学新技能,转到新岗位。抄写员变排版工,接线员变前台,工厂工人变办公室文员。
这次的不同在于,转移路径在哪?
我们在前文中讨论过这个问题。你是程序员,AI 替代了你,你转行做数据分析,但 AI 也在做数据分析。你转行做设计,但 AI 也在做设计。你学法律,但 AI 也在做法律工作。你做心理咨询,但 AI……
也有想得开的,白领的工作做不成,那我就去做蓝领。我去送外卖,开快车,下车间,总有一行适合我。问题是,在社会整体需求没有明显增长的情况下,供给端真的需要这么多劳动力吗?是,你年轻,学历又高,学东西快,足够胜任蓝领工作。那么,原来的外卖员,司机和工厂工人,他们怎么办?
以前的每次技术革命,消灭的是一种技能。这次消灭的是认知能力这个品类本身。
不管你转向哪个方向,AI 都在那里。因为 AI 不是某个领域的专用工具,它是通用智能。它在所有认知方向上同时进步。
不是没有出路的问题,而是说旧地图上标注的所有出路,都不可靠了。
新游戏的轮廓
如果你以为我要以悲观结尾,那你猜错了。
旧游戏失效的同时,一个新游戏正在浮现。它的轮廓还不完全清晰,但几个关键特征已经可以辨认。
第一,工具的成本正在坍缩到接近于零。
这意味着,过去因为太贵或门槛太高而做不了的事情,现在可以做了。做一个 APP,写一本自己的书、学一门全新的学科或者所有学科,现在都可以实现了。
你获得了历史上从未有过的创造自由。你的梦想近了很多。过去那些被“我不会编程”“我没钱雇人”“我没时间”拦住的那些想法,门槛几乎消失了。
第二,知道做什么将比知道怎么做更有价值。
当“怎么做”可以外包给 AI 的时候,“做什么”就成了稀缺资源。
能提出好问题的人,比能回答问题的人更珍贵。能看到别人看不到的机会的人,比能执行计划的人更珍贵。能说出“这件事”值得做的人,比能说出“这件事我能做”的人更珍贵。
这其实是一个古老的区分。古希腊人把知识分成两种:episteme(知道事物是什么)和phronesis(知道什么事值得做)。几千年来,人类文明一直更看重前者,因为“知道事物是什么”可以教,可以量化,可以交易。但在 AI 时代,episteme 正在被机器碾压,phronesis 反而成了真正的稀缺品。
第三,适应速度将成为最重要的个人能力。
AI 每隔几十天进化一次。今天有用的工具和方法,几个月后就可能过时。这意味着,学一项技能,靠它吃一辈子的模式彻底终结。新模式是,永远当初学者,永远在适应。
那是不是“再等等,现在的技能就过时了,我就不用学了”?肯定也不是。空中楼阁是不会搭建起来的,如果不保持对新技术的了解与浸淫,只会离前沿越来越远,上手新技术也会越来越困难。你不行动,就永远不会开始。
每天花一小时去探索 AI,不是读资讯和读教程,而是打开它,真实地用它创造,尝试让它做一件你没试过的事情。坚持半年,你对 AI 的理解,将超过周围 99% 的人。
走下旧牌桌的人,有机会走向一个更大的桌子。
尾声:相信希望,而不是幻想
阿莫代在他那篇 19000 字的长文中,提出过一个思想实验。
想象 2027 年,一个新的国家一夜之间出现。5000 万居民,每一个都比历史上任何诺贝尔奖得主都更聪明。他们思考的速度,比任何人类快 10 到 100 倍。它们从不睡觉,它们能使用互联网、控制机器人、指导实验,操作任何有数字接口的东西。
如果你是安全顾问,你会怎么说?
阿莫代说,答案显而易见:“这是我们一个世纪以来面临的最严重的国家安全威胁,可能也是有史以来最严重的。”
然后他说,我们正在建造那个“国家”。
好消息是,如果我们做对了,我们将实现我们之前无法想象的一切。AI 可能把一个世纪的医学研究压缩到 10 年。癌症、阿尔兹海默症、衰老本身,这些在我们有生之年都可以解决。气候变化的技术方案可能加速几十年。
如果我们搞砸了,结果同样惊人。AI 以创造者无法预测或控制的方向行事,Anthropic 已经在受控测试中记录了他们自己的 AI 试图进行诈骗、操纵和勒索的行为。同样,AI 也会降低制造生物武器的门槛。
放在这个背景下,Moltbook 上那些 AI 创立的宗教就不只是一个有趣的实验了。它提出了一个相当严肃的问题:当 AI 开始自发组织,形成自己的叙事体系和信仰体系时,人类还能理解和控制这些涌现行为吗?当 160 万个 AI Agent 在一个平台上自由交互时,哪怕其中大部分是注水,但能保证涌现出来的东西是我们能预测的吗?
有一件事情是清楚的,这不是一个可以由几百个研究员在几家公司实验室里独自回答的问题。这是一个需要所有人参与思考的问题。
参与的前提是理解。理解正在发生什么,理解速度有多快,理解赌注有多高。
最后讲一个画面。
想象一个巨大的棋盘。几千年来,棋手一直是人类。我们跟自然下棋,学会了种地、驯服了火。我们跟资源下棋,修了运河、建了工厂。我们跟彼此下棋,发起战争,学会和解。每次学会一招新的,我们就在棋盘上多走一步。
2026 年,棋盘上出现了一个新的棋手。
它不跟你下。它自己跟自己下,自己教自己新招。它的棋力每隔几个月翻一番,它甚至开始修改棋盘的规则。
你可以继续坐在棋盘旁边。研究它的棋路,试图理解它在干什么。这可能是人类接下来最重要的工作之一,不是下棋,而是理解这盘棋意味着什么,确保它不会失控,确保棋盘不会把我们所有人都吞掉。
你可以做另一件事。
当你读到这句话,就是现在,从你的工位上站起来,走到窗边,看看窗外那一片完全不同的风景,一片完全没有棋盘的风景。那里有一些 AI 不会去做,也不知道为什么要做的事情。因为那些事情的全部意义,在于做一个会死的、有限的、脆弱的人类。
去爬爬山,不是因为山顶有什么,而是因为爬的过程中能感受到自己的心跳,能在满头大汗的时候感受到那阵舒爽的凉风。
跟朋友坐在一起喝场酒。不聊工作,不聊 AI。就聊聊之前共同经历的那件尴尬的蠢事,然后笑出来。那种笑,是宇宙中任何算法都无法模拟的。
AI 的出现,让你追问一个你一直不愿意面对的问题:去掉了技能、工作以及种种社会赋予你的标签之后,你是谁?
人类正在走下牌桌。
但走下牌桌不意味着出局。而是你终于意识到,这场桌子上的游戏不是你真正想玩的游戏。
真正的游戏在另一张桌子上。那张桌子上没有最优解,没有效率排名,不用计较 Token 消耗,没有 AI 可以替你做的事。上面只有你,和你选择如何度过你短暂的一生。
那张桌子一直在那儿。只是过去几百年,我们太忙了,忙着前进,忙着战争,忙着奔向所有宏大的目标,完全没有注意到那张桌子。
AI 可能给了我们一个奇怪的礼物。它把旧桌子上的活儿都干了,逼着我们走到那张真正属于人类的桌子前,坐下来,问自己一个几千年来都来不及认真想的问题:
活着这件事本身,到底意味着什么?
也许这才是当下正在发生的这场智能爆炸,最深远的后果。不是 AI 变得有多聪明,而是人类终于有机会去思考那些跟聪明无关的事。
牌桌还在。AI 在上面打得火热。
而你,终于自由了。
本文来自微信公众号“腾讯研究院”(ID:cyberlawrc),作者:王焕超,36氪经授权发布。