首页文章详情

全栈即王道?百度AI的入口战略拆解

晓曦2026-02-05 17:50
全栈布局的意义,不在于赢得每一场战役,而在于始终有牌可打。

01

迎接AI大战,BAT启动“创始人模式”

36氪独家获悉,近日,百度CEO李彦宏在2026开年做了一次重要的内部分享。

在本次内部分享中,李彦宏再次强调了应用在Al时代的重要性,定调“AI时代的应用就是智能体”,并首次明确了百度相关的四类智能体:搜索智能体(百度AI应用的主航道)、数字人智能体(慧播星)、代码智能体(秒哒)和演化智能体(伐谋)。

此外,在分享中,李彦宏强调了百度“芯(昆仑芯)—云(智能云)—模(文心大模型)—体(智能体)”全栈布局的优势。明确表示“拥有优秀全栈能力的公司,会在未来的AI竞争中处在一个非常有利的位置。”值得关注的是,其调整了过去百度四层架构的描述,2026年,云被单独拎出来,变成了全新的“芯云模体”。

与此同时,公司层面首次理清了百度搜索和文心助手的关系。传统搜索形态是1个query+10个蓝色链接,而AI时代的搜索就是一个基于大模型的智能体。这方面百度在做两种尝试:一种是百看(就是目前在百度搜索结果中看到的头图+大模型生成的答案);另一种是文心助手(就是点击百度APP下方中央button进入的chatbot)。

近十年来,百度、阿里、字节、腾讯创始人的首次全线回归并亲自下场,标志着2026年AI的决战时刻正式来临。

阿里巴巴创始人马云回归,将AI黄金三角作为核心的AI叙事逻辑,并亲自命名为“通云哥”(通义实验室、阿里云和平头哥),试图通过大模型、云计算和芯片的三位一体强化护城河。同时,千问App取代夸克成为阿里巴巴争夺超级入口的核心角色。

腾讯创始人马化腾重拾“红包战法”,元宝以10亿元现金红包激励与全新的AI社交功能“元宝派”积极迎战,试图重现2015年微信红包的高光时刻。

字节跳动联合创始人梁汝波也在开年全员会上立下“勇攀高峰”的军令状。集中火力推动豆包、Dola(海外版AI助手)的渗透。

至此,大厂们都在2026年春节这一关键窗口,锁定了AI入口这一主战场。春节的红包,早已不只是节日礼金,而成了通往下一个十年的“船票”。

在所有人都试图通过“造新船”来抢占滩头时,百度选择了另一套“登船”逻辑。

02

AI入口之争,怎么打?

差异化竞争的背后,源于过去两年对“入口混战”的深刻洞察。

回顾2024年,以kimi为代表的新势力初露锋芒,通过疯狂投流及产品创新,在AI超级入口的舞台上崭露头角。

2025年春节,DeepSeek大杀四方,掀翻牌桌重划起跑线。及至年底,豆包成为中国首个日活破亿的AI产品;而几乎同时,阿里启动C计划,All in AI入口“千问”,并宣称月活过亿;1月20日,据《华尔街日报》报道,文心助手月活数已突破2亿。

至此,AI入口的争夺战,正式进入豆包、文心、千问的“三足鼎立”时代。

站在2026年春节的关口,巨头们的AI入口焦虑具象化为一场60亿的“红包大战”。这既是路径依赖下的选择,也是巨头们最熟悉且沉重的赌注。

过去二十年,“烧钱-抢用户-圈地-变现”,是中国互联网屡试不爽的成功公式。从千团大战到共享单车,再到去年即时零售的混战,同一剧本在不同领域反复上演,形成了典型的路径依赖。

进入AI时代,巨头的“肌肉记忆”继续生效——先靠红包圈住用户,再谈后续。毕竟谁都不敢在技术范式更迭的真空期,离开用户的视野半步。

在这场红包大战中,百度文心助手选择了另一条路径——它不打算说服用户下载独立应用,而是致力于消除“下载”这个动作本身,让用户需要用AI时,可以丝滑上车,原地切换。

为了实现这一目标,百度把主战场锚定在月活超7亿的百度App内部。2026新年文心品牌升级的核心目标是:不让用户寻找AI,而是让AI在用户原有的搜索场景中自然浮现。用户无需经历“下载-注册-使用”的复杂链条,只需在底栏轻点,即可实现从“问百度”到“问文心”的丝滑转场。

省略“下载”的意义,不仅仅在于缩短转化链条,更是在潜移默化中实现用户的“习惯平移”,从根本上改变了留存逻辑。

这套打法并不新鲜。Gemini快速崛起背后正是基于这种方法。相比ChatGPT需用户主动访问或下载,谷歌则直接将Gemini嵌入Gmail及Android系统,以实现内生性增长。数据显示,通过系统内嵌使用Gemini的安卓用户数量,已是独立App用户的两倍。当新功能深度耦合于高频应用时,迁移成本趋近于零,这种“无感迁移”无疑更有利于新技术、新产品的快速普及。

当然,这背后有一个必要前提,就是需要拥有一个足够庞大且场景契合的“旧入口”。百度App的7亿月活,以及其“搜索”场景,构成了智能体最天然的孵化器。这并非一条谁都能走的路,这是百度搜索基因使然,从搜索框到智能体,是同一个入口的自然演进,也是“肉烂在同一口锅里”的逻辑。

百度要实现这样的目标,需要资源聚焦,将此前分散的“多入口并进”收敛于百度App上的文心助手,就是集中优势兵力于主航道的体现,是一次“结束混乱,定义秩序”的关键行动,将7亿月活用户的庞大流量,通过最短路径转化为AI种子用户,以近乎零的边际成本,完成市场教育和AI技术的全民普及。

除了搜索基因以外,能快速形成战略一盘棋,同样离不开百度更轻、更灵活的身量优势。这让百度得以实现灵活转身,将7亿存量用户直接送上了AI的快车。

03

百度几分赢面?

新年伊始,OpenClaw等原生应用炸场。OpenClaw的创始人Peter Steinberger,抛出暴论:“你手机里80%的APP,实际上已经死了,只是你还不知道。”

这一论断揭示了一个残酷真相:当下的巨头入口之争,很大程度上仍带着FOMO(恐惧错过)的肌肉记忆。如果AI注定是一场马拉松,那么喧嚣的“红包大战”只不过是中场战事。当流量的潮水退去,真正的较量才刚刚开始。

AI竞赛的终局,比拼的是谁能以更低的成本、更快的响应、更强的智能完成商业闭环,这背后是基于综合实力的较量。在开年第一讲中,李彦宏将这种综合实力归结为百度的“芯-云-模-体”全栈能力。他认为:“要做好这些智能体,就需要有全栈能力,这是百度持续在做的,也是行业共识。拥有优秀全栈能力的公司在未来的AI竞争中会处于有利地位。”

在芯片层面,1月1日,昆仑芯正式向港交所提交主板独立上市申请。作为第一家将芯片业务独立分拆的大厂,百度的“全栈AI”基础设施架构更加清晰。李彦宏在内部分享中定调:训练的目的是推理。当全行业还在死磕算力规模时,百度已率先转向“推理效率”的代际竞争。

据长桥证券测算,按昆仑芯主力产品P800均价6万/张计算,2025年出货约6万张;包括百度在内的大客户订单超20万张,尚有14万张待交付,主要受三星产能制约。若产能释放、订单全额交付,仅存量订单即可支撑昆仑芯84亿收入,同比增长140%。

在智能云层面,今年三季报中,百度首次披露AI业务收入,其中百度AI云收入42亿元,同比增长33%,其中AI高性能计算基础设施的订阅收入同比增长128%。就在最近,百度智能云将2026年AI相关收入目标增速从100%上调至200%,在AI云市场全力抢第一。

在模型层面,百度通过组织架构的调整,实现了定位差异:其中,BMU(基础模型部)死磕SOTA(全球最高水平),确保技术代际不落后;AMU(应用模型部)则侧重于模型小型化、响应提速与极致降本。

这种更清晰的组织定位优势,在1月22日发布的文心5.0正式版中得以集中体现。文心5.0正式版,模型参数达2.4万亿,采用原生全模态统一建模技术,具备全模态理解与生成能力,支持文本、图像、音频、视频等多种信息的输入与输出。在40余项权威基准的综合评测中,文心5.0正式版的语言与多模态理解能力超越Gemini-2.5-Pro、GPT-5-High等模型,稳居国际第一梯队。图像与视频生成能力与垂直领域专精模型相当,整体处于全球领先水平。高性能模型的自研能力,成为支撑C端大规模并发、处理复杂全模态任务的底座。

作为国内少数拥有“芯-云-模-体”全栈布局的公司,全栈自研给百度带来的直接优势在于极致的成本效率和稳定的供应链韧性。

一方面,传统的AI应用是“租别人的地,种自己的粮”,导致算法与硬件之间存在“适配鸿沟”,造成算力浪费。而全栈自研下,百度可以根据文心大模型的算法特征在昆仑芯底层制定指令集,并在智能云侧利用“伐谋”调度系统,将芯片、云算力、模型推理深度耦合,优化推理效率,降低推理成本。

另一方面,在全球地缘政治复杂化、算力资源紧缺的大背景下,全栈自研使百度实现了芯片+智能云的算力自主可控,而昆仑芯带来的算力保障、智能云的毫秒级分发以及文心5.0大模型的技术优势,让上层的文心助手有底气承接2亿用户的推理需求。

从某个层面来看,百度坚持全栈闭环,不是在ChatGPT时代才做的选择,而是基于多年积累后达到统一汇合的节点。当行业竞争进入白热化、友商重新聚焦底层模型技术时,百度却仍然坚持全栈路线,同时强调降本增效。

在互联网时代,单点能力或许能赢得市场,但在AI时代,底层技术、中层工程能力以及应用能力的闭环,缺一不可。这也是大厂都在大力投资,力争成为全能选手背后最重要的底层逻辑。

全栈就能全赢?这是外界的疑问。但对百度而言,却是应对不确定性的终极铠甲。

在容易陷入AI入口争夺的FOMO焦虑的当下,百度用“芯-云-模-体”纵深布局,构筑了一道综合防线。入口之争或许会过时,模型排名可能会更迭,但让技术能够持续转化为用户价值的系统,终将成为穿越周期的稳定核心。

全栈的意义,不在于赢得每一场战役,而在于始终有牌可打,拥有最终定义游戏规则的资格。