LeCun团队新论文:模仿人类智能搞AI,照猫画虎死胡同
AI圈追逐多年的通用人工智能(AGI),可能从一开始就走偏了。
图灵奖得主Yann LeCun在最新论文中提出,未来AI的发展方向不应该是模仿人类,而是另一条路线——
超人类适应性智能(Superhuman Adaptable Intelligence, SAI)。
在这个框架里,AI的发展目标发生了三个关键变化:
不再以人类为参照系。
拥抱专业化,在具体领域实现超人类能力。
衡量智能的核心指标,从“会多少技能”变成“学习新技能的速度”。
换句话说,SAI不再追求“像人一样聪明”,而是关注一件更底层的事情:
系统适应新任务的速度。
值得一提的是,LeCun在论文中还提出了一个颇为有趣的观点:人类本身其实也并不“通用”。
我们所谓的“通用能力”,很大程度上只是生物进化的结果——
人类在漫长的进化过程中,逐渐获得了一套适者生存的能力组合。
迈向超人类适应性智能 (SAI)
按照论文中的定义:超人类适应性智能(Superhuman Adaptable Intelligence, SAI)指的是一种系统:
能够通过快速适应,在人类能完成的任务上超越人类,同时也能解决大量人类从未涉足的任务领域。
这里有一个关键转变。过去AI的发展逻辑是:把人类当作智能的标尺。
只要机器能做到“人类水平”,就算成功,比如图灵测试。
但LeCun团队认为,这种思路本身就存在问题,论文中有一句非常直接的话:
将智能锚定在人类基准线上,与通往超人类能力的路径是正交的。
换句话说:如果目标只是“达到人类水平”,反而可能限制AI的发展。
从这个视角来看,真正值得优化的,并不是模型完成某个固定任务的能力,而是:
系统适应新任务的速度。
因为一旦把“模仿人类”当作目标,AI的任务空间其实就被人为限制了——
人类能做什么,AI就学什么,但人类能力本身只是生物进化的结果,并不代表智能的全部可能。
更合理的路径是让AI围绕明确目标不断优化,并通过自我博弈、进化搜索和大规模仿真持续提升能力。
而这一观点,也与Richard S. Sutton在《The Bitter Lesson》中提出的观点相呼应——
真正推动AI进步的,往往不是模仿人类的技巧,而是规模化计算与通用学习方法。
在这种框架下,AI并不需要模仿人类,也可以在许多任务上直接超越人类表现。
相反,如果过度关注“人类水平”,不仅会误导研究目标,还会把AI的发展限制在以人类为中心的任务空间里。
为什么AI不该模仿人类?
作为迈向超人类智能的一个重要前提,论文中还有一个非常有意思的观点:人类其实并没有我们想象的那么“通用”。
人脑并不是为了数学、编程或科学研究设计的。它最初的目标只有一个:在原始森林里活下去。
换句话说,人类的智能本质上是进化塑造的一种生存工具。
自然选择和进化优化了我们的能力,让我们擅长视觉感知、行走。
这些能力在我们看来非常“通用”,只是因为它们对生存至关重要,一旦离开这个进化舒适区,我们在其他认知任务上其实表现的并不好。
比如,计算复杂概率、高维优化、大规模逻辑搜索,在这些任务,人类的表现远远不如计算机。
最经典的例子就是国际象棋。顶级棋手在人类中显得极其聪明,但面对计算机时早已没有胜算。
这其实说明了一件事:所谓“AGI”,很大程度上是一种错觉,我们只是无法看见自己的生物学盲区。
而这个问题,就是锯齿的智能,或者所谓的莫拉维克悖论(Moravec’s Paradox)。
简单来说:人类觉得最简单的事情(比如走路、抓东西),对计算机来说反而最难;
而人类觉得困难的事情,比如:下棋、数学计算,对计算机却非常容易。
原因很简单,那些“简单”的能力,其实是人类数百万年进化的结果,它们实际上一点也不简单,只是我们习以为常。
所以论文得出的结论也很直接:
如果未来AI只是复制人类这种“生存型智能工具箱”,那将是一条错误的技术路线。
专业化,才是智能进化的常态
那既然人类的“通用性”本身就是一种盲区,那么真正正确的方向是什么?
Yann LeCun在论文中援引了生物学和机器学习领域的经验,给出的答案是:
专业化,才是智能进化的常态。
从生物学角度来看,专业化本就是常态。在资源有限、环境复杂的情况下,进化会不断推动系统向特定能力方向优化。
AI系统其实也面临同样的压力。
如果某个领域的任务非常重要成本、精度、可靠性,任何达不到要求的模型,都会被更专业的系统取代。
现实世界已经有很多这样的例子。最典型的就是AlphaFold。
这个系统专门针对蛋白质结构预测设计,通过任务特定的架构、数据和训练策略,实现了巨大的突破,直接改变了整个生物学领域。
这也体现了机器学习中的一个基本规律:算法的成功,往往来自于它与问题结构(目标分布)的匹配。
如果一个模型既要:叠衣服、开车、写代码、预测蛋白质结构那么它很可能在所有任务上都只能做到“差不多”。
这也是为什么LeCun在论文中说:
帮我们折叠蛋白质的AI,不应该是帮我们折叠衣服的那个AI!
这在机器学习里有一个经典现象:负迁移(Negative Transfer)。
当多个任务争夺同一套模型容量时,它们的梯度可能互相冲突,反而拖累性能。
因此,从工程和理论角度看:强行追求通用性,往往是一条低效的路线。
LeCun的答案:SSL + 世界模型
那么问题来了。如果不追求AGI,该怎么追求SAI?
LeCun团队给出的技术路线是三个关键词:
自监督学习 + 世界模型 + 模块化系统。
首先是自监督学习(Self-Supervised Learning)。这种方法不依赖人类标注,而是从大量真实世界数据中学习底层结构。
其次是世界模型(World Models)。也就是让AI在内部构建一个“世界的模拟器”,像人类一样:预测未来、进行规划、在脑中模拟行动结果。
这样系统就可以在没有明确训练的情况下完成新任务。
最后是模块化架构。论文明确反对一种观点:不存在一个“统治一切”的模型架构,尤其是自回归范式的下一个token预测。
未来AI更可能是一系列相互协作的系统,而不是一个万能模型。
作者介绍
这篇论文的第一作者是来自哥伦比亚大学的博士生Judah Goldfeder,师从Hod Lipson教授。
此前,他曾在谷歌、推特、Meta等机构实习,研究兴趣主要集中在强化学习、算法博弈论、多智能体人工智能、无监督表征学习、多任务学习以及几何学习等方向。
论文的其他作者还包括Philippe Wyder,同样师从Hod Lipson教授,以及图灵奖得主Yann LeCun。
此外,作者团队中还有来自纽约大学数据科学中心的助理教授兼Faculty Fellow的Ravid Shwartz-Ziv。
他主要从事人工智能前沿研究,重点关注大语言模型(LLMs)及其应用。
参考链接
[1]https://x.com/rohanpaul_ai/status/2029533545161740321
[2]https://arxiv.org/abs/2602.23643
本文来自微信公众号“量子位”,作者:关注前沿科技,36氪经授权发布。