首页文章详情

2025,中国大模型不信“大力出奇迹”?

36氪的朋友们2025-12-19 19:00
大模型架构创新的大年,三条脉络交织演进

生成式AI狂奔三年,2025迎来架构创新的大年,三条脉络交织演进,伴随着Scaling law(规模定律)遇到天花板的争议,开始定义AI进化的新范式。

第一条脉络是认知的深化:从“直觉”走向“逻辑”。2025 年一线模型的共识性演进,是通过强化学习(RL)配合更长的中间推理,让模型从近似 System 1(快思考)的快速模式匹配,逐步过渡到更接近 System 2 (慢思考)的多步推理。

第二条是维度的突破:从“语言”到“物理空间”。 李飞飞强调的“空间智能”(Spatial Intelligence)让AI的演进逻辑从“理解描述世界的符号(语言)”开始进化到“理解世界本身(物理)”。

第三条是效率的重构:从“暴力美学”到“性价比”。 在产业落地层面,技术的演进逻辑最终回归到极致的算力效能比。为了支撑深度推理和空间理解,模型架构必须变“轻”。

以MoE(混合专家模型)和稀疏注意力(Sparse Attention)为代表的架构革新,成为解决无限上下文(Infinite Context)算力崩塌问题的关键。

2025年12月,在腾讯科技HiTechDay上,以《模型再进化:2025,智能重新定义世界》为主题的圆桌论坛,正是围绕大模型进化的深度、维度、效率三条线索展开。

华中师范大学人工智能教育学部助理教授熊宇轩为嘉宾主持,三位嘉宾北京智源人工智能研究院院长王仲远、面壁智能联合创始人、首席科学家刘知远、峰瑞资本投资合伙人陈石分别从各自的领域,解读2025对于大模型进化的深入观察。

王仲远指出,大模型的进化正在经历“从Learning from Text到Learning from Video”的质变。视频数据中蕴含了丰富的时空信息与动态交互线索,为模型学习物理世界动态演变规律提供了关键的数据来源,同时也是当前最容易规模化获取的一类多模态数据,是AI“从数字世界迈向物理世界”的关键桥梁,也为具身智能(Embodied AI)的爆发提供了构建“世界模型”的底座。

刘知远提出的“密度法则”(Densing Law)认为,如同芯片摩尔定律,AI的未来在于不断提升单位参数内的“智能密度”。他大胆预言,未来的算力格局将是“云端负责规划,端侧负责做事(执行)”,到2030年,我们甚至有望在端侧设备上承载GPT-5级别的能力,这正是中国AI在算力受限环境下实现突围的核心路径。

回归到大模型公司落地的现实,陈石认为,中美、开源与闭源形成的“双核驱动”格局已定,商业化的“护城河”已演变为“算力、能力、生态”的三层金字塔。在ToB与ToC的夹缝中,“ToP(ToProfessional的专业型用户)”将率先跑通商业闭环。

对于创业者而言,机会不再浮于表面,而在于“在大模型难以触及的行业深处”,努力建立一个能够跨越模型迭代周期的商业结构。

以下为圆桌实录,不改变原意的情况下有删减调整:

01 2025年大模型进化的三大关键词

熊宇轩:首先请各位嘉宾用最简单的语言总结一下,2025年让您印象最深刻的模型能力进化的关键词、关键技术,以及大模型产品。

王仲远:我认为2025年很重要的变化是大语言模型进入到相对成熟的阶段,开始进行效能优化和商业化落地。同时,多模态技术进入到了一个突破变革的新阶段,人工智能正在加速从数字世界迈向物理世界。

刘知远:大家看到的是智能体、深度思考,以及大模型在数学、代码等专科上变得越来越强。我想它背后的关键词应该是强化学习。

陈石:我从另一个角度观察,觉得有一个关键词叫“双核驱动”。这是两层意思:第一,开源大模型和闭源大模型双核驱动。第二,中国和美国两个国家的企业和人才的双核驱动。特别是2025年,中国的大模型迎来了破局之年,这是让我们最激动的。

02 Scaling Law见顶了吗?模型迭代的新范式

熊宇轩:最近OpenAI和Google的SOTA模型之间的竞争非常白热化,一个趋势是单纯堆算力、堆参数的边际效益在递减。

第一个问题给到王院长,您认为在2025年,所谓Scaling Law是否触及到了天花板?如果参数不再是唯一的标准,智源目前在训练范式上有哪些核心的新红利?

王仲远:我认为Scaling Law是否见顶要分模型类别来看。在大语言模型上,因为互联网文本数据的枯竭,它的性能提升速度不像原来那么快了。但另一方面,近期像Gemini 3 Pro以及智源发布的悟界·Emu3.5,都是在多模态上发现了新的提升点。

我认为大模型的提升,会从原来仅从文本中学习(Learning From Text)进化到从视频中学习(Learning From Video)。视频数据的量级是互联网文本数据的百倍、千倍乃至万倍,这些数据还没有被非常有效地用来做多模态模型的训练,这是未来大模型新的发展机会。

熊宇轩:下一个问题请问刘教授,面壁一直主张提升模型“能力密度”。我们过去的惯性思维是小模型意味着智商缩水,但面壁发布的MiniCPM系列模型完成了一些越级挑战。

您认为小模型变聪明的物理极限上限在哪里?未来是否会出现云端负责规划、端侧负责执行的格局?

刘知远:它一定有一个物理上限。我们提出的“密度法则”发现了一个类似于芯片摩尔定律的大模型发展规律,即我们可以做到每100天,就让模型的密度变得更高。正如芯片的摩尔定律是通过技术创新实现的,我们也需要通过更精细的技术创新,把更多知识压缩到更小的空间里去。

从动态的眼光看,这个密度会持续提升。它的物理极限是什么,还需要我们对人工智能的技术理论有更好的建构。此外,端云协同也一定会是未来。我们不需要一个AI的杨振宁来服务每个人的生活,但我们需要在云上有非常多方面的专家,端和云一定要有分工。

熊宇轩:下一个问题请问陈总,在投资人眼里,2025年大模型公司的“护城河”是否发生了改变?以前我们总说算力、数据为王,现在是否变成了能力、应用或生态为王?

陈石:大模型是一个赢家通吃的行业,全球留不下几家。它的“护城河”是多元化的,我理解是三层结构。

最底层是算力的获取、组织和有效利用。第二层是模型的能力,这关乎模型的上限,如果不能一直维持在SOTA(State-of-the-art)的领域,就会慢慢落伍。第三层最重要的是生态,包括是否能通过应用触达用户、是否有合作伙伴共同触达用户、以及能否通过前两者源源不断地获得数据反馈。所以基础是算力,中间是能力,上面是生态。

03 从玩具到工具:智能体的商业化瓶颈

熊宇轩:2025年被称为“智能体的商业化元年”,但用户普遍反馈DEMO很丰满,实战很骨感。想请问王院长,您认为目前智能体从玩具变成工具,最卡脖子的技术点是什么?

王仲远:我认为有三方面原因。

第一,基础模型的能力仍有欠缺,尤其在最核心的推理能力上还有提升空间。

第二,当模型进入各行各业解决领域问题时,需要根据领域数据做进一步训练/对齐,但现在经常会出现“翘翘板效应”,即某方面能力增强时,其他能力又减弱。

第三,模型的记忆和遗忘机制存在问题。人类学会开车后不会突然忘记炒菜,但模型在这方面还有很多问题需要解决。

熊宇轩:下一个问题想请问刘教授,面壁在端侧智能体上做了一些探索,您认为端侧和云端做智能体最大的区别是什么?如何解决手机算力有限的情况下,智能体既要反应快又要想得深的矛盾?

刘知远:端侧是智能体落地非常重要的方面,包括具身机器人、车、PC和手机。终端是距离用户最近的地方,能满足隐私、实时、稳定的需求。但挑战在于端侧算力有限,这需要我们用更高的“密度”让模型具备更强的能力。

端侧智能体距离用户最近,需要对全模态数据有很好的感知理解能力,对用户有很好的个性化服务能力,并对外有很好的行动指令生成能力。这和主要处于数字世界的云端智能体是比较大的区别。

熊宇轩:陈总,您认为2025年最能赚到钱的Agent是什么样的?是B端替代初级员工的员工,还是C端的个人生活伴侣?

陈石:我去年曾提出一个观点:在 ToB 和 ToC 之间,其实存在一个ToP(To Professional)的高价值地带,也就是面向‘超级用户’或‘专家型用户’的市场。

纵观中美,目前 AI 行业变现效率最高的正是 ToP。无论是火热的 AI Coding,还是创作者经济中的付费工具,逻辑都是如此。即便 ChatGPT 拥有海量周活,绝大多数也只是‘打酱油’的免费用户,真正贡献商业价值的还是付费的专业人士。

关于未来演进,我有三个看法:

1.ToB(企业侧)是‘攻坚战’:它正逐渐渗透,但门槛很高。企业对流程和合规极其敏感,所以目前落地最好的是‘流程型 Agent’——比如保险银行的合规审查、客服或营销助手,嵌入特定环节实现自动化。但在中国,ToB 的全面爆发依然很难。

2.ToC(消费侧)还很遥远:为什么 ToC 现在挣不到钱?一是因为能力不够,现在的 AI 体验并没有显著超越移动 App,无法独立存在;二是因为载体缺失,手机和 PC 已是存量,没有新硬件带来新的流量红利。

3.商业模式存在悖论:互联网沿用的是‘羊毛出在猪身上’的广告模式(注意力经济)。但这在 AI 时代不成立——除非依靠端侧模型,否则云端模型的 Token 成本远高于广告带来的 ECPM 收益,这一账算不过来。所以 ToC 还需要经历漫长的迭代。”

04 奔向物理世界,具身智能的挑战

熊宇轩:我们知道具身智能是下一波浪潮中非常重要的一环。

第一个问题给到王院长,智源今年发布的具身智能大模型RoboBrain对于促进具身智能的落地有什么作用?

王仲远:具身智能产业还处在非常早期,需要有足够的耐心。智源在这方面布局较早,我们发布的“悟界”系列大模型,承载了智源的预判:人工智能正从数字世界迈向物理世界。其中,世界模型和具身大脑与具身智能的关系最为密切。

我们10月底发布的多模态世界模型Emu3.5,它从视频中学习时空、因果、意图等信息,致力于预测下一个时空状态(Next-State Prediction),而不仅是生成视频。在具身大脑方面,我们发布的RoboBrain系列模型,包含了对外界的感知、规划、决策能力,用大脑模型监督小脑模型的学习,使其具备更强的泛化性。目前RoboBrain已和国内30多家机器人企业开展合作,进行适配和落地。

熊宇轩:请问刘教授,机器人对实时性要求很高,在您的构想中,未来机器人应该有多少“脑容量”留在本地?

刘知远:未来具身机器人应该也会有“大小脑”之分。离行动和感知越近的,越需要留在本地;需要长时间深度思考的,可以放在“大脑”部分,甚至利用云端资源。至于边界在哪,现在还很难准确判断,因为软硬件都在快速迭代。

但根据主流芯片厂商的规划,我们可以保守估计,到2030年,一个类似手机的端侧芯片可以承载一个接近600亿参数的模型。如果我们沿用“密度法则”,届时在机器人、PC、手机上,至少能加载GPT-5以上级别的模型能力。

熊宇轩:接下来问到陈总。站在2025年的时间节点,如果您有一大笔钱,您是投给做极致灵巧手的硬件公司,还是投给做通用机器人大脑的软件公司?

陈石:如果二选一,无疑智能是最重要的。今天的大模型AI要走向物理世界,物理智能是代表智能跃迁的未来。但反过来说,硬件也可以反哺软件,特别是在中国这个环境里,硬件比重可能会更重一点。

最理想的应该是软硬结合,就像iOS一样。所以我们投资的公司,原先做硬件的也会做软件,做软件的也会做硬件。

05 开源生态与中国AI的突围之路

熊宇轩:最后想请问王院长,您认为智源的开源生态,是否能够成为对抗封闭生态的关键一极?

王仲远:智源从成立之初就坚持开源、开放的精神。我们这样做不是为了对抗谁,而是因为人工智能行业过去几十年的快速发展,离不开开源开放的生态。

无论是学者第一时间公开研究成果,还是企业基于开源项目做优化,都推动了技术的进步。未来几十年,我们依然需要坚持这种精神,才能推动技术的普惠和产业化落地。

熊宇轩:请问刘教授,您认为端侧的高效模型,会不会是中国AI弯道超车的重大机会?

刘知远:我认为不只是端侧。我们提出的“密度法则”不仅适用于端侧,也适用于云侧。通过技术创新提升模型密度,可以降低云上模型的训练和使用成本。这对于在算力上存在短板的中国具有非常重要的意义。过去两年,我们并没有因为算力被“卡脖子”而妨碍AI的快速发展。以DeepSeek和面壁智能为代表的国内许多团队,都高度重视高效大模型技术,这是我们取得这场科技革命竞争优势的独特技术路径。

熊宇轩:最后一个问题给到陈总,展望2026年,您能给创业者一句最关键的建议吗?

陈石:我特别赞同前面两位老师说的,开源大模型可能是中国一个国运级的机会。我们集全国的力量支持几个好的开源模型,在这个基础上拼应用、拼生态,是很好的路径。

至于给创业者的建议,就一句话:上半句是“在大模型难以触及的行业深处去寻找创业机会”,下半句是“你要努力建立一个能够跨越模型迭代周期的商业结构”。通俗点说,就是不要做太通用的东西,要建立一个能充分享受模型红利、而又不会被模型迭代所淘汰的商业模式。

熊宇轩:中国AI的突围之路,既需要开源生态的包容,也需要端侧创新的精准发力,更需要资本和科研之间的同频共振。

希望今天圆桌论坛的思维碰撞能给大家带来启发,谢谢三位嘉宾非常精彩的分享,谢谢大家!

本文来自微信公众号“腾讯科技”,作者:郭晓静,编辑:徐青阳,36氪经授权发布。