StartseiteArtikel

一年烧掉 1850 亿美元、Google 要做智能体时代的「企业 Windows」

极客公园2026-04-23 18:25
​智能体时代的操作系统要来了?

4 月 22 号,拉斯维加斯,Google Cloud Next 2026 正在如火如荼地举行。

了解 Google 每年产品发布节奏的人都知道,I/O 是讲手机、讲安卓、讲各种新产品如何改变人类世界。而 Next 的画风完全不同,它一上来就直奔企业客户,聚焦在云基础设施怎么搭,AI 怎么落到生产环境里去。

而如果把过去四年的 Next 大会串在一起,你会看到 AI 时代 Google Cloud 有着一条愈发清晰的进化曲线:

2023 年,Google Cloud 端上来的是 PaLM 2 和 Duet AI,主题是「把大模型能力嵌入云服务」;2024 年,Gemini 1.5 Pro 登场,Vertex AI 开始向 Agent Builder 方向进化,主题变成了「给开发者搭建 AI 应用的平台」;2025 年,ADK 和 A2A 协议发布,Agentspace 上线,Google Cloud 开始铺智能体之间互相协作的基础设施。

而到了今年,所有这些散落在不同年份、不同产品线上的碎片,被收拢进了同一个产品——Gemini Enterprise。

四年下来,Next 的主题从「大模型进入企业」到「Agent 开发工具」再到「Agent 生态构建」,而进入 2026 年这些过去的积累正在通向一个更大的野心:定义什么是智能体时代的操作系统。

Google Cloud CEO Thomas Kurian 在台上把这个野心拆成了一句判断:「你无法通过拼凑碎片化的芯片和脱节的模型来创造真正的价值。你需要一种架构,其中芯片是为模型设计的,模型基于你的数据,智能体和应用用模型构建,并由基础设施提供安全保障。」

这就是我们在这次 Next 大会上看到的,Google Cloud 不止是在发布一组新产品,而是在重新定义企业 AI 技术架构:在一个人类员工和数十倍数字员工共同协作的 Agentic 时代,谁掌握了企业管理智能体的控制面板,谁就拿到了这个时代的操作系统。

Gemini Enterprise:从智能助手到智能体操作系统

要理解这次 Next 大会的核心发布,首先要把一个容易混淆的问题理清楚——今天的 Gemini Enterprise 和去年秋天发布的那个 Gemini Enterprise,已经不是同一个东西了。

去年 10 月,Google Cloud 推出 Gemini Enterprise 时,定位是「把 Google AI 最好的能力带给企业的每一个员工」。说白了,当时它是一个企业版的 AI 应用入口,员工可以在里面聊天、问问题、生成内容,本质上还是一个 chatbot。

而这次 Next 大会上发布的 Gemini Enterprise Agent Platform,性质发生了根本变化。它不再只是一个给人用的工具,而是一个用来构建、部署、编排、治理和监控智能体的完整管理平台。

这其实也是过去几个月里,在 OpenClaw、Hermes 等产品爆火以后,我们反复讨论的行业议题:当企业从「试点一两个 AI 项目」走到「在生产环境中运行无数个智能体和 AI 项目」,需要的不再是一个聊天窗口,而是一套企业级的控制系统。在这其中,谁有权创建智能体、智能体能访问哪些数据、它做了什么决策、出了问题怎么追溯、多个智能体之间怎么协作分工都是新的机会。

Gemini Enterprise Agent Platform 正是为了回答这些问题而搭建的。它的核心组件包括:

Agent Studio,让业务人员用自然语言定义智能体的行为逻辑,不需要写代码;

Agent Registry,为全公司的智能体提供统一的索引和发现入口,相当于智能体的「组织目录」;

Agent Gateway,扮演类似空中交管员的角色,统一执行安全策略,监控每一次智能体与数据的交互;

Agent Identity,给每个智能体分配唯一加密身份和可审计的授权策略;

Agent Observability,提供完整的执行路径可视化和细粒度遥测,让管理者能看到智能体到底做了什么、花了多长时间、调用了哪些工具。

从产品逻辑上看,这套平台的设计思路和企业 IT 管理团队过去管理人类员工的方式高度对齐,像是入职(创建)、分配权限(身份与策略)、日常管理、绩效评估……区别只在于,被管理的对象从人变成了智能体。

这件事为什么重要?因为它重新定义了企业服务的「卖点」。在过去很长一段时间里,云厂商的叙事框架几乎没变过:底层拼算力,中层卖开发环境,上层打包 SaaS 工具。即使 AI 浪潮来了,大多数厂商还是在这套三层框架里做增量。

但 Google Cloud 这次跳出了这个框架,它用一个新的问题来锚定产品价值:你能不能让企业放心地把核心业务流程交给成千上万个智能体?

这个问题背后,是企业采购逻辑的根本变化。过去企业 IT 采购的核心问题是「这个软件能不能解决我的问题」,现在变成了「这个智能体能不能自主完成我的任务,而且我能不能信任它、管理它、审计它」。信任、管理、审计,这些要素正在成为智能体时代企业服务新的核心竞争力。模型会商品化,算力会平价化,但谁能帮企业管住数字员工,谁就握住了客户。

这一点已经在Google Cloud 的客户端得到了验证。沃尔玛在 Next 大会上分享了他们的案例,他们把 Gemini Enterprise 推广到门店负责人,配合 Pixel Fold 设备,让领导们能在几秒钟内获得原本需要几小时才能整理的运营数据。沃尔玛的逻辑很朴素,门店经理的价值不在于整理库存报表,而在于和顾客交流、激励团队。AI 接管了前者,人才能专注后者。

德国保险公司 Signal Iduna 则在数周内实现了 80% 的 AI 采用率,11000 名员工正在构建各自领域的专业智能体,其中健康保险智能体能根据一个世纪以来的复杂保单数据自动验证保险范围,答案提供速度加快了 37%。KPMG 在首月就实现了 90% 的员工采纳率,构建了超过一百个智能体。

这些数字背后的共同模式是:Gemini Enterprise 不是替代人,而是让人回到更有价值的工作上。但让这件事能规模化发生的前提,是企业拥有一套可信赖的智能体管理系统。这正是 Gemini Enterprise Agent Platform 要解决的核心问题。

五层架构:Google Cloud 为智能体时代搭建的操作系统「底层」

如果说 Gemini Enterprise Agent Platform 是这次大会的核心产品,那么支撑这个平台运转的,是 Google Cloud 在台上展示的一套五层技术架构。从底层的芯片到顶层的预置智能体,Google Cloud 试图用一套垂直整合的方案,把企业运行智能体所需的一切能力打包交付。

Kurian 在台上把它拆成了五层架构:AI 超级计算机(AI Hypercomputer)、智能体数据云(Agentic Data Cloud)、智能体安全(Agentic Defense)、智能体平台与模型(Agent ic Platform and Models )、智能体编排小组(Agentic Taskforce)。

第一层:AI 超级计算机(AI Hypercomputer)

AI 时代的基建,算力永远是最重要的,也因此 TPU 的进展无疑是此次大会看点之一。Google Cloud 发布了第八代 TPU,首次分化为训练和推理两个专门平台。训练版 TPU 通过 3D 拓扑结构可扩展到连接 9600 个 TPU,计算性能提升 2.8 倍,单个超级计算单元提供 2PB 内存。据介绍,这个容量足以装下美国国会图书馆数字馆藏 100 次。

推理平台上,Google Cloud 在芯片层面集成专用「加速引擎」,将延迟进一步降低 5 倍。通过新的 4.5 拓扑结构,1152 个 TPU 可组成低延迟集群,以近乎零等待的方式并发响应数百万个智能体的调用请求。

同时,Google Cloud 配套发布 Virgo 网络架构,将连接带宽翻倍,单集群可支持超过 100 万个 TPU 芯片的协同工作。

此外,Google Cloud 宣布成为首批提供 NVIDIA Vera Rubin NBL72 实例的云服务商,针对高交互性与长上下文推理优化,性能效率提升 10 倍。

在模型层面,平台持续支持第三方模型接入,包括 Anthropic Claude Opus 4.7,并将所有 GCP 服务通过模型上下文协议(MCP)开放,让智能体可直接调用云资源。

第二层:智能体数据云(Agentic Data Cloud)

这是 Google Cloud 构建这个整套系统的「大脑」,是智能体的「记忆与常识」搭建的基石所在。它负责将散落在 PDF、视频、第三方云存储中的暗数据,转化为智能体可理解的业务语义。当智能体听到「净收入」或「风险」时,它能理解其在你公司的确切含义。

Google Cloud 主要核心发布两款产品,知识目录(Knowledge Catalog)与 Cross-Cloud Lakehouse

其中,知识目录是作为通用企业上下文引擎,它在文件写入 Google Cloud Storage 的瞬间即由 Gemini 自动介入,提取实体、映射关系并理解业务语义。智能体听到「净收入」或「风险」时,能准确定位其在企业数据模型中的具体定义。

而 Cross-Cloud Lakehouse 则是基于开放 Iceberg 标准,允许 BigQuery 等分析引擎直接对 AWS S3、Azure 中的数据进行查询,无需迁移数据、无出口费用,让智能体能够跨云获取完整的业务上下文。

第三层:智能体安全(Agentic Defense)

比较意外的是 Google Cloud 将安全部分空间开放出来与 Wiz 合作,共同搭建。这一层主要是将安全系统本身转化为自主运行的智能体,核心发布是与 Wiz 整合后形成的 AI 应用保护平台及 Agentic SOC。

其主要的方式,是打造一支红蓝绿安全智能体战队。其中,红队智能体持续扫描暴露面,主动探测认证绕过漏洞;蓝队智能体基于 Mandiant、VirusTotal、Chrome 的全球遥测情报狩猎威胁,外部威胁识别准确率达 98%;绿队智能体在漏洞确认后自动定位具体代码行、生成修复建议,并可将 Pull Request 直接推送给开发团队或交由编码智能体自动修复。

据相关负责人介绍,Google Cloud 内部安全团队过去审查海量非结构化威胁报告需数千小时,智能体自动分类后,威胁缓解时间缩短了 90% 以上。

第四层:智能体平台与模型(Agentic Platform and Models )

这是 Google Cloud 为智能体搭建的一个完整的管理中枢,整合了模型、构建、编排、治理与可观测性,也推出了一系列产品包括:

Agent Studio:低代码构建器,业务人员用自然语言即可定义智能体行为,将 ML 模型与特定业务规则结合。

Agent Registry 与 Skills 注册表:前者为全公司智能体提供统一索引与发现入口;后者将 GCP 与 Workspace 的每项服务封装为模块化技能,并通过 MCP 协议连接第三方系统(如 Atlassian、Salesforce),智能体可动态调用。

编排框架:支持确定性流程,像是合规审批,确保结果可预测等等。还有生成委托,也就是主智能体自主将子任务分派给其他专业智能体两种模式。

智能体身份与可观测性:每个智能体拥有唯一加密 ID 与可审计的授权策略,所有行动通过 Agent Gateway 统一执行策略管控。细粒度遥测可可视化智能体的完整执行路径、耗时与工具调用记录。

在模型层面,Google Cloud 同步发布了针对复杂工作流编排优化的 Gemini 3.1 Pro、高保真视觉资产生成的 Gemini 3.1 Flash Image、高容量视频应用的 Veo 3.1 Light 及专业级音频模型 Lyria 3 Pro。

第五层:智能体专项小组(Agentic Taskforce)

这是五层架构的最顶层,也是智能体直接交付业务价值的「数字员工」层。Google Cloud 预构建了一批面向特定场景的专业智能体,覆盖客户服务、营销、代码开发与安全运维等核心业务领域。

在客户体验方向,购物导购智能体已在百思买落地,用于向消费者解释复杂的产品规格;家得宝则将其包装为「魔法围裙」助手,在店内与线上同时提供寻路与选品支持。食品订购智能体帮助棒约翰记住每位顾客的偏好,实现超个性化点餐体验。YouTube TV 上线的全渠道语音客服智能体上线即覆盖全部用户,支持实时中英文切换,将复杂的产品逻辑转化为自然对话。

在行业定制方向,财富管理机构 Citywealth 推出了 CitiSky,定位为团队中「始终在线的 AI 成员」,以多语言实时响应全球客户的查询请求。NASA 则将 Gemini Enterprise 智能体用于飞行准备流程,保障 RMS2 任务中宇航员的安全,该任务至今保持着人类太空飞行离地球最远的记录。

Google Cloud 内部同样是这套系统的深度用户。智能体编排小组参与完成了一次复杂代码迁移,整体速度较一年前提升了 6 倍;营销团队则借助模型生成了数千种创意资产变体,使活动周转速度加快 70%,转化率提升 20%。

其实从这五层框架可以清晰地看出两条并行的主线。一方面,Google 正在围绕这套新的产业框架全面重组自己的产品线与业务边界,比如说 TPU 不再只是算力商品,而是按训练与推理分化;数据云不再只是关注存储与查询,而是为智能体注入上下文;安全也开始是一套自主运行的智能体系统。很显然,每一层都在为「智能体规模化落地」这个终极目标重新对齐。

另一方面,这也说明未来企业不再需要自己从芯片、存储、网络、模型、安全、应用这一长串链条中逐一组装零件,因为过去衡量云厂商能力的是机柜数量与产品目录厚度,今后衡量的将是它能帮助企业调度多少智能体、完成多少任务、产出多少业务结果。

AI 时代,企业服务的玩法要彻底改变。

Next,AI 企业市场将会如何改变?

会议结束的时候,我听到有人讨论道:「Google Cloud 向整个企业服务行业开枪了。」

这个判断不算夸张,从这次的发布来看,Google Cloud 不再满足于在 IaaS、PaaS、SaaS 的既有框架里做增量,而是直接用「智能体能否自主完成任务」这条新标尺,重新丈量整个企业技术栈的价值。

为了支持这种方式转变,Google 在过去几年不断加大技术和基础设施投入。Pichai 在台上披露了过去几年 Google 的投资规模增长:2022 年Google 的资本支出是 320 亿美元,今年计划投入 1750 亿至 1850 亿美元,四年内增长近六倍,其中预计超过一半的机器学习计算资源将用于云业务。

对于那些专注于某个细分环节的创业公司来说,这场发布是一个不容忽视的信号。过去两年,围绕通用模型做工程化封装的公司,模型路由工具、AI 协作看板、垂直行业的智能体构建器,它们各自在局部建立了不错的产品。

但当 Gemini Enterprise 同时兼容 Gemini、Claude 等多种先进模型,原生集成数据治理与零信任安全,支持低延迟直连 AWS 与 Azure 数据且无需迁移,还提供低代码构建器、身份管理、编排框架与可观测性工具等等。当这些能力被整合进同一个控制面板时,仅提供单一或少数几项功能的创业公司,将很难在这个新体系下维持独立价值。这不是功能优劣的竞争,而是「一套生产线」对「单个零件」的替代。

Kurian 在结尾部分着力强调了 Google Cloud 的「开放性」,比如说,支持第三方模型、支持跨云数据访问、MCP 协议开放所有 GCP 服务、合作伙伴生态涵盖 BCG、德勤、麦肯锡等。这种开放姿态与微软 Copilot 生态的相对封闭形成了对比。

但仔细看会发现,所谓的「开放」是有策略的:模型选择是开放的,数据连接是开放的,但管理平面,那个决定智能体如何被构建、如何被编排、如何被监控的控制层,已经牢牢握在 Google Cloud 手里。

这是一个经典的「用开放换锁定」策略:入口宽阔、出口狭窄,一旦企业在 Gemini Enterprise 上构建了数百个智能体、配置了完整的权限策略和审计流,迁移成本就会变得极高。

同时值得关注的信号来自生态联盟。Google Cloud 与苹果的合作被摆在了聚光灯下。Google Cloud 作为苹果首选的云服务提供商,正在基于 Gemini 技术合作开发下一代苹果基础模型,这些模型将直接注入未来的 Apple Intelligence 功能。

当全球最大的消费级 AI 入口之一与 Google Cloud 的基础设施深度绑定,Google Cloud 获得的不仅是算力订单,更是对终端用户 AI 体验底层标准的定义权。这起合作也在向行业传递一个信息。在 Agentic 时代,云厂商的角色正在从「资源供应商」升级为「生产力操作系统的设计者」。

回过头来看,这次 Next 大会最重要的信号也许不在于任何一个具体产品,而在于它所代表的竞争维度的转换。

过去两年,行业的竞争焦点是模型——谁的参数大、谁的 benchmark 高、谁的上下文窗口长。但 Google 在 Next 上释放的信息是:模型战争的窗口期正在关闭。

接下来的竞争焦点是「控制面板」,谁定义了企业管理智能体的那个面板,谁就拿到了下一个时代的操作系统地位。

Kurian 在台上说:「试点时代结束了,智能体时代已经到来。真正的力量源自它如何改变你的工作流程。」

这句话翻译过来,其实是一封战书:Google Cloud 不是在发布一堆新产品,而是在宣告在未来企业的「生产力底座」争夺战中,Google Cloud 要当规则制定者。而规则一旦被市场接受,计费方式、生态边界、技术选型的话语权,都将围绕新的中心重新排列。

这场重构,才刚刚拉开帷幕。

本文来自微信公众号“极客公园”(ID:geekpark),作者:徐珊,编辑:郑玄,36氪经授权发布。