云计算一哥AWS的新战事:10分钟发布25款新品,全面押注智能体
12月3日,拉斯维加斯。AWS CEO 马特·加曼(Matt Garman)在他的首场 re:Invent 年度演讲中,在10分钟内发布25款新品,全场两小时发布的新品更是近40个。包括全新一代自研芯片、前沿基础模型及企业级模型定制框架在内的一系列重磅产品,集中展示AWS在算力层、模型层和应用层的突破。
作为年化收入高达1320 亿美元的全球云计算一哥,AWS此刻正站在一个关键十字路口:AI热潮已经持续两年,但许多企业仍困在“高投入、低回报”的焦虑中,他们开始追问巨额投入什么时候才能转化为真实的业务回报。
AWS在此次re:Invent大会上给出的答案是:AI必须从陪聊的助手(Assistant),进化到能真正干活的智能体(Agent)。
为了接住这个从模型驱动向智能体驱动转移的机会,AWS选择了一条非常重的路:向下造芯,死磕性价比;中间做厚模型,打破微调的天花板;向上立规矩,解决 Agent落地最核心的失控风险。
整场发布会看下来,AWS的战略重心已从专注技术突破转向更侧重企业级价值落地,推动AI真正为企业客户创造价值。
在此次大会密集的发布和两万字实录中,我们梳理了AWS在算力、模型、应用三个维度的核心进展。
在算力层:
AWS的策略变得更加务实且激进:一方面用自研芯片大幅压低成本,另一方面打破公有云的物理边界,去适应那些不想上云的大客户。
AWS 发布了 Trainium 3 UltraServers,相比前代,Trn3 的推理能效提升了 5 倍。更激进的是,AWS 还罕见地提前预告了正在设计中的 Trainium 4,承诺性能将再提升 6 倍。向市场传递了一个清晰信号:在超大规模模型训练上,AWS 决意摆脱对外部算力的绝对依赖。
为了解决金融和政企客户对数据主权极其敏感的顾虑,AWS 推出了 AWS AI Factories。相当于把 AWS 的算力基础直接建在客户自己的数据中心里。
当然AWS 依然是英伟达最铁的盟友。Trn3未来将兼容英伟达NVlink Fusion技术,此外,新发布的 P6e 实例首批搭载了英伟达最新的GB300 NVL72 系统,专为那些最极端的 AI 负载准备。
在模型层:
AWS 终于补齐了 Amazon Nova 自研模型家族,一口气发布了 Amazon Nova 2 系列。其中,Nova 2 Omni 是业界首个支持文本、图、音、视四种输入并能多模态输出的模型;而 Nova 2 Pro 则在复杂的指令遵循上表现激进,AWS 称其在基准测试中优于 GPT-5.1。
企业用大模型最大的痛点是微调太浅,而且容易让模型变笨,比如遗忘核心能力。AWS 推出的 Amazon Nova Forge 引入了“开放训练模型”概念,允许企业在模型预训练的最后阶段注入专有数据。
索尼集团已作为早期客户宣布采用Nova Forge和AgentCore,旨在将其合规审查效率提升100 倍。
在应用层:
Agent(智能体)是未来的核心,但其不可控的特点让很多企业不敢用。AWS 试图用一套严密的规则体系,让 Agent变成可信的生产力工具。
马特·加曼打了一个比方:管理 AI Agent 就像管教青春期的孩子——既要给自由,又要有底线。为此,AWS 推出了AgentCore Policy。不同于以往的模糊提示词,这是一套基于 Cedar 语言的确定性控制系统,能实时拦截 Agent 的违规操作,比如阻止超过 1000 美元的自动退款,解决了企业对 AI 行为失控的根本恐惧。
针对开发者,AWS 发布了 Frontier Agents 系列,这不仅仅是代码助手,而是能独立干活的数字员工。例如 Kiro Autonomous Agent 可以自主修复 Bug,Security Agent 能在代码提交前自动扫描漏洞,而 DevOps Agent 甚至能在半夜报警时自动诊断根因并给出修复建议。这意味着软件工程的生命周期,正在被 AI 全面接管。
以下为AWS第十四届re:Invent大会实录:
1、AWS业务概况
欢迎大家来到第十四届年度re:Invent 大会。能来到现场真是太棒了,此刻现场有超过 60,000 人与我们要共聚一堂,线上观众接近 200 万,其中还包括首次通过《堡垒之夜》(Fortnite)观看直播的朋友们。欢迎大家,感谢各位的到来。
走在拉斯维加斯的走廊里,我能感受到一种难以置信的能量,这与我过去几个月与大家交流时的感受不谋而合。这确实是不可思议的一年。AWS 已成长为一家年化收入达 1320 亿美元的企业,年增长率达到 20%。为了让大家对这个数字有更直观的概念:仅在过去一年,我们的收入就增长了约 220 亿美元。这 12 个月的绝对增长额,已经超过了半数《财富》500 强公司的全年收入。
这种增长源于我们业务的方方面面:
Amazon S3:持续增长,客户存储的对象数量已超过500 万亿个,数据量达数百艾字节(Exabytes),平均每秒处理超过 2 亿次请求。
计算能力:连续第三年,AWS 新增的 CPU 容量中有一半以上来自自研的 Graviton 芯片。
AI 与数据:数百万客户正在使用我们的数据库服务;Amazon Bedrock 目前正在支持超过 10 万个 AI 推理应用。
今年,我们推出了首批构建模块,通过Bedrock AgentCore 帮助企业在规模化环境中安全地部署和运行高能力的Agent。AgentCore 展现出了极其强劲的发展势头,自发布仅几个月以来,其 SDK 下载量已超过 200 万次。此外,我们还发布了首款量子计算芯片原型 Ocelot。Ocelot 是量子计算领域的突破,它不仅降低了实施成本,还提升了 90% 以上的量子纠错能力。
这一切都始于安全、可用且具有弹性的全球基础设施,在这个领域我们依然无可匹敌。AWS 拥有迄今为止规模最大、覆盖最广的 AI 云基础设施。我们的全球数据中心网络覆盖 38 个区域、120 个可用区,并已宣布计划新增三个区域。仅在过去一年,我们就新增了 3.8 吉瓦(GW)的数据中心容量,这一数字领先全球。同时,我们拥有世界上最大的私有网络,在过去 12 个月内规模增长了 50%,目前拥有的陆地和海底电缆总长超过 900 万公里,这一长度足以往返地球与月球 11 次以上。
在Amazon,一切始于客户。今天,数以百万计的客户在我们的平台上运行着各种各样的用例。全球各行各业的大型企业、金融服务、医疗保健、媒体娱乐、通信行业,乃至各国政府机构,都在 AWS 上运营业务并实现转型。
对于AWS 而言,安全是重中之重,是一切的基础。正因如此,美国情报界十多年来一直选择 AWS 作为首选云服务商;纳斯达克将交易市场迁移至 AWS;辉瑞公司(Pfizer)也选择 AWS 作为其数字化转型的核心。
我们也深知合作伙伴对客户成功的重要性。我们要感谢庞大的合作伙伴网络,包括本周到场的众多SaaS 提供商、系统集成商和解决方案提供商,没有你们,我们无法服务如此广泛的全球客户。
我个人对初创公司情有独钟。在AWS 上构建的“独角兽”企业数量远超其他任何平台。如今,越来越多的初创公司,尤其是 AI 初创公司,正涌向 AWS。福特 2025 年 AI 50 榜单中 85% 的企业,以及 CNBC Disruptor 50 榜单中 85% 的企业都运行在 AWS 上。这些创始人创造的成果令人惊叹。
(以下为AudioShake 团队分享内容)
AudioShake 是去年 re:Invent “Unicorn Tank” 路演比赛的冠军。试想一下,如果我们能从一段热带雨林、游乐场或街头音乐的录音中,将音乐、车声或背景对话单独提取出来,会发生什么?
在AudioShake,我们将声音分离,以便人类和机器能以全新的方式访问和理解它。我们的多说话者分离器是全球首个能将不同说话者的声音高分辨率分离到不同流中的技术。这可以应用于呼叫中心将个别声音隔离,也广泛应用于媒体和娱乐领域。
更重要的是,我们在听力和语言障碍领域看到了巨大潜力。我们与一些关注ALS(肌萎缩侧索硬化)的非营利组织合作,利用患者发病前的旧录音,分离出他们原本的声音进行克隆,让患者能用自己原本的声音交流。
创业之初我们只有三个人。如果没有AWS,我们根本无法获得将模型交付给真实客户所需的基础设施。我们在 AWS 上运行整个生产流水线,从推理、存储到作业编排及整个生产环境。我们正迈入一个声音更加可定制化的世界,这不仅能帮助听力障碍者以想要的方式聆听世界,也能帮助机器更深入地理解现实世界。
感谢AudioShake 团队的精彩分享。AWS 的一切工作都离不开构建者,尤其是开发者。本次大会一直以来都是一个以此为核心的学习型会议。我要感谢全球数以百万计的 AWS 开发者,特别是在座的 AWS Heroes,以及遍布全球 129 个国家、拥有超过 100 万成员的用户组社区。
我们为什么要这样做?是什么激励着我们?为什么我们在20 年后的今天,依然保持着与 AWS 创立之初同样的热情?
驱动我们每天前进的动力,是赋予你们完全的发明自由。从创立AWS 的那一刻起,这就是我们的愿景:我们要让每一位开发者或发明家,无论是在宿舍还是车库,都能获得所需的技术基础设施和能力,去构建他们想象中的任何东西。
20 年前,这是不可能的。开发者无法在不投入大量资金和时间的情况下获得服务器或算力。大家把太多时间花在采购服务器和管理基础设施上,而不是构建产品。我们在 Amazon 内部也曾切身体会到这一点——我们拥有充满绝妙创意的构建者,但受限于基础设施,无法快速行动。
于是我们问自己:“为什么不呢?(Why not?)” 为什么开发者不能专注于构建?为什么不能将实验的时间和成本降为零?为什么不让每一个想法都成为可能?
过去二十年,我们一直在为实现这些目标而创新。如今,我们正见证人工智能领域的爆发式发明。每一家公司、每一个行业都在被重塑。虽然技术迭代速度前所未有,但我们仍处于AI 变革的早期阶段。
但我知道,许多客户尚未看到与AI 承诺相匹配的回报,AI 的真正价值尚未完全释放。这一情况正在快速改变。我们看到“AI 助手(Assistants)”正开始让位于“AI Agent”。Agent不仅能回答问题,更能为你执行任务并实现自动化。这正是 AI 投资开始产生实质性商业回报的地方。
我相信,Agent的出现将把我们带到人工智能发展的一个拐点。AI 正在从一种技术奇迹转变为能够带来真正价值的生产力工具。这一变化对业务的影响将堪比互联网或云计算的诞生。
未来,每一家公司的内部和各个领域都将涌现出数十亿个Agent。我们已经看到Agent在加速药物发现、提升客户服务、提高工资处理效率等方面的应用。在某些情况下,Agent将人类的影响力扩展了 10 倍,让人们有更多时间去创新。
如果每个人都能获得这种程度的影响力,岂不是太棒了?我们也是这么认为的。这就是为什么我们再次问自己:“为什么不呢?”
要迈向拥有数十亿Agent的未来,让每一个组织都能从 AI 中获得真实的商业成果,要求我们必须打破基础设施的可行性极限。我们需要为具有Agent能力的系统和应用发明新的构建模块,我们需要重新构想每一个流程以及大家的工作方式。
在AWS,我们一直在堆栈的各个层面进行创新,以赋予你们发明未来的全部自由。要交付真正带来价值的Agent,一切都始于拥有最具扩展性和最强大的 AI 基础设施。你需要一个高度可扩展且安全的云平台,为 AI 工作负载提供绝对的最佳性能。同时,你希望在模型训练、定制化以及推理的全过程中,以尽可能低的成本实现这一目标。
说起来容易做起来难,这需要对硬件和软件的每一层进行深度优化。事实证明,这没有捷径,而这正是AWS 能够做到的。
2、AI 基础设施
当我们思考AI 基础设施时,首先想到的就是 GPU。在AWS 上运行 NVIDIA GPU 无疑是最佳选择。我们是最早提供云端NVIDIA GPU 的服务商之一,与 NVIDIA 的合作已超过 15 年,这意味着我们已经掌握了大规模运行 GPU 的技术。如果你询问任何在其他供应商处运行过大型 GPU 集群的人,他们会告诉你,AWS 在运行 GPU 集群方面是最稳定的。我们在避免节点故障方面表现出色,并提供最佳的可靠性。
这源于我们对细节的精益求精。即使是调试BIOS 以防止 GPU 重启这类细微的工作,我们也会投入精力。在其他地方,人们可能会接受现状,认为“这就是运作方式”。但我们不同,我们会调查并找出每一个问题的根本原因,然后与合作伙伴 NVIDIA 合作,确保持续改进。对我们而言,没有小到不值得关注的问题。正是这些细节至关重要,使我们在 GPU 可靠性方面引领行业。这需要艰苦的努力和真正的工程技术才能实现,而我们在每一代产品上都在这些新的维度上进行改进。
今年,我们推出了第六代P6 EC2 Instances,包括采用 NVIDIA Blackwell 处理器 GB200 的 P6E Ultra 服务器,其计算能力比我们之前的 P5n 提升了超过 20 倍。这些Instances非常适合正在使用超大型 AI 模型的客户。
今天,我们很高兴地宣布推出全新的P6E GB300,由 NVIDIA 最新的 GB300 NVL72 提供支持。我们持续为最苛刻的AI 工作负载提供同类最佳的计算能力。我们对硬件和软件采取了全栈方法,再加上严谨的运维,确保了全球最大规模的组织能够获得绝对最佳的性能和可靠性。
世界上最大规模的组织,包括NVIDIA 自身(通过 Project Saba on AWS)和 OpenAI 等众多公司,今天都在 AWS 上积极运行大规模通用生成式 AI 集群。他们正在使用由数十万 GB200(很快将升级为 GB300)芯片构成的 EC2 Ultra 服务器集群。这些集群具有可扩展能力,能够扩展到数千万个 CPU 以上,用于管理他们的智能Agent工作流,支持其 ChatGPT 应用以及下一代模型的训练。
另一个合作案例是沙特阿拉伯新成立的公司Humane,他们致力于推动该地区的 AI 创新。我们最近宣布与 Humane 合作开发沙特阿拉伯王国的 AI 区。这项合作将为客户提供高性能基础设施、模型以及 SageMaker 和 Bedrock 等 AI 服务,同时帮助满足沙特王国对安全、隐私和负责任 AI 的严格标准。
这类项目引起了大型政府机构和公共部门对类似概念的兴趣。于是我们思考:能否将这种类型的AI 区域交付给更广泛的客户,甚至可能利用客户现有的数据中心方案?
这就是我们今天很高兴宣布推出AWS AI Factories的原因。通过此项发布,客户能够在他们自己的数据中心部署专用的AWS AI 基础设施和服务,仅供他们专用。AWS AI 工厂的运作方式类似于私有的 AWS 区域,客户可以利用他们已购置的数据中心空间和电力容量,并获得 AWS 领先的 AI 基础设施和服务,包括最新的 Trainium Ultra 服务器或 NVIDIA GPU,以及对 SageMaker 和 Bedrock 等服务的访问。这些 AI 工厂专门为每个客户独立运行,有助于实现隔离,同时保持 AWS 的安全性和可靠性,并满足严格的合规性和主权要求。我们非常期待这些 AI 工厂能为客户带来的巨大可能性。
谈到AWS 的 AI,我们始终强调选择自由。如果你想拥有顶级的AI 基础设施,你需要具备用于 AI 训练和推理的最优算力。AWS 迄今为止以最广泛的选项领先一步,其中就包括我们开创性的专用 AI 处理器。
AWS Trainium 是我们定制的 AI 芯片,旨在为 AI 工作负载提供最佳的性价比。客户喜欢 Trainium 在训练工作负载方面所能达成的成果。但我们也要自我批评:AWS 的产品命名常常令人头疼,Trainium 也不例外。我们将其命名为 Trainium,因为它旨在为 AI 训练提供出色的体验。然而,事实证明,Trainium 2 目前实际上是世界上用于推理的最佳系统。
许多客户可能已经在不知不觉中使用Trainium。今天,在 Amazon Bedrock 上运行的大部分推理工作负载实际上都由 Trainium 提供支持。Trainium 的性能优势非常明显。如果你在 Bedrock 中使用 Claude 的最新一代模型,所有这些流量都运行在 Trainium 上,它提供了比任何其他主要供应商更优的端到端响应时间。
这也是我们迄今为止已部署超过100 万枚 Trainium 芯片的部分原因。我们以创纪录的速度达到了百万芯片的规模,因为我们掌控整个流程和技术栈,能够端到端优化部署方式,从而实现更快地推进。事实上,Trainium 2 在数据中心的大规模部署速度,比我们之前见过的下一款最快芯片快四倍。它是我们有史以来大规模投产的最强 AI 芯片,并且正在以我们能制造的最快速度售出。Trainium 今天已经代表了一项数十亿美元级别的业务,并且仍在快速增长。
当所有这些在一个围绕Trainium 专门构建的系统中汇聚时,会是怎样一番景象?
以前有人说“数据中心就是新的计算机”,而现在,在训练下一代模型时,数据中心园区就是新的计算机。Anthropic 的 Claude 是当今世界上最好的模型之一,它由 Trainium 在 Project Rainer 中实现。
现在我们宣布Trainium 3 UltraServers已全面可用。Trainium 3 芯片在单一纵向扩展域中协同工作,通过定制的 Neuron 交换机互联,提供了巨大的 362 FP8 PetaFLOPS 的计算能力和超过每秒 700 TB 的总带宽,且全部在一个计算Instances中。此外,我们定制构建的 EFA 网络支持将这些扩展到数十万芯片的集群。
没有其他任何人能为你提供这种能力。这需要将所有这些系统级组件协同设计:需要多种类型的定制硅芯片,需要纵向扩展和横向扩展的网络,需要详尽且集成的软件栈,当然还需要业内领先的数据中心。
在一个关于性能提升的真实世界示例中,我们针对一个流行的开源GPT(GPT-OSS)12B 模型进行了推理基准测试,分别在 Trainium 2 和 Trainium 3 上运行。结果显示,Trainium 3 相比 Trainium 2 获得了显著的效率提升:每兆瓦输出的Token 数提高了超过五倍,同时每位用户保持了相同的感知延迟(我们称之为交互性)。我们在多个不同模型上运行时也看到了类似的结果。我们非常期待Trainium 3 将为客户带来的创新,并且我们不会止步于此,正在全力开发 Trainium 4。
未来,计算速度和过程的安全性将比以往任何时候都更重要。AWS 在这方面的组合是世界上最优秀的。其对人类的意义在于,能够构建一种新型的、具有可扩展性的科学思维和基础设施,让这种思维开始运转,去发现治疗方法、新能源技术、新材料等等,共同将更好的未来带入当下。
3、Amazon Bedrock:生成式 AI 平台
基础设施层面的发明令人难以置信,但基础设施只是故事的一部分。我们看到世界上每一个应用都正在被AI 重新定义。我们正迈向一个推理(Inference)的未来,推理是每个开发者构建的应用中不可或缺的一部分。要在那个未来取得成功,你需要一个安全、可扩展、功能丰富的推理平台。
这就是我们开发Amazon Bedrock 的原因。Bedrock 是一个全面的平台,旨在帮助你在从原型过渡到生产环境的过程中,加速生成式 AI 应用的开发。
使用Bedrock,你可以选择各种最新模型并进行自定义。我们提供开放权重模型和专有模型,通用型或专用型,大型或小型模型。在过去一年里,我们将 Bedrock 中提供的模型数量增加了近一倍。今天,我们很高兴地宣布将推出一整批新的开源权重模型。
这些模型包括Google 的 Gemma、Miniaix M2 和 NVIDIA 的 Neotron。同时,今天还有几款全新模型首次向全球发布:
Mistral Large:这是对他们Large 2 模型的巨大飞跃,上下文窗口大小翻倍,模型参数数量增加了超过五倍。
Mistral 3:包含三款模型组合,提供了灵活的部署选项,适用于超高效的边缘设备、单GPU 部署或高级本地运行。
除了Bedrock 上提供的众多第三方模型之外,AWS 去年发布了 Amazon Nova,这是亚马逊的基础模型家族,为许多工作负载提供业内最佳性价比。在过去一年里,Nova 家族已扩展以支持更多用例,包括语音到语音的用例,例如 Amazon Sonic。我们最近发布了业内性能最好的新一代模型Amazon Nova 2:
Nova 2 Lite:将成为真正的主力模型,提供行业领先或更优的性价比,适用于各种场景。
Nova 2 Pro:是我们最智能的推理模型,非常适合处理那些复杂的Agent工作负载。在遵循指令和自主工具使用等关键领域,Nova 2 Pro 表现出色。在这些领域的人工分析基准上,Nova 2 Pro 的绝对结果优于 GPT-5.1、Gemini 3 Pro 和 Claude 4.5 Sonnet 等领先模型。
Nova 2 Sonic:适用于需要语音功能的应用程序,在出色的性价比下提供行业领先的对话质量,具有更低的延迟和更高的可扩展性,并显著扩展了语言支持。
Nova 2 Omni:是一种全新的多模态模型,具备独特的能力,能够处理图像、视频和音频输入,并支持文本和图像生成输出的推理。
这是为Amazon Nova 家族推出的四个新的行业领先模型,但这仅仅是一个开始。
接下来,我们来看看Gradial 正在如何利用 Nova 和 Bedrock 构建优秀的能力。在营销中,最大的瓶颈不是创意本身,而是创意实现之后发生的一切。Gradial 致力于实现内容的快速交付。
如今,内容运营领域高度依赖人工。将创意简报发布到网站上,可能需要四到六周,涉及设计师、工程师、文案撰稿人以及网站策略师等20 个不同的步骤。Gradial 所做的是将所有不同的系统连接在一起,从而能够将创意想法快速转化为网站内容。
Gradial 利用 Bedrock 实现这些功能令人惊叹。随着这些模型被用于驱动越来越多的关键任务业务线应用和Agent工作流,AI 对贵公司数据的理解变得至关重要。
4、Amazon Nova Forge:开放训练模型
目前企业最常用且成功的技术,是将专有数据与大型模型结合的方式,包括利用RAG(检索增强生成)或向量数据,从而在模型推理时提供上下文。这些方法非常有效,能够帮助模型更高效地处理庞大的数据集并返回相关结果。
然而,我们通常发现,这种做法的能力是有限的。几乎所有客户都希望模型能真正理解他们的数据,特别是深厚的领域知识和专业经验。他们希望模型在做出决策时能够充分运用这些专业知识。
以一家硬件公司为例,假设他们希望加速新产品的研发。理想情况下,他们需要一个能理解公司过去产品、制造偏好、历史成功率、失败率以及可能存在的任何流程约束的模型。他们希望有一种机制,能将所有这些因素整合起来,为设计工程师提供智能指导。
事实证明,无论企业身处哪个行业,都拥有庞大的知识产权和数据语料库。将这些专有知识集成到所使用的模型中,将产生巨大价值。
自然地,有人会问:为什么不直接训练一个定制模型?如今,只有两种主要的实现方式。
第一,你可以从头构建自己的模型,并将自己的数据包含进去。但这种方式成本极其高昂。而且,企业内部很可能不具备预训练前沿模型所需的全部数据和专业知识。因此,对大多数公司来说,这并非一个实际的选择。
第二,大多数人通常会从一个开放权重模型开始,然后对其进行修改和定制。这其中有很大的自定义空间,可以使用微调等技术来调整权重,或者采用强化学习,以构建专注于特定用例的模型。
然而,这种方法的有效性也存在限制。想要让模型理解它在预训练阶段从未涉及的新领域,非常困难。更重要的是,对模型进行越多的定制,在后训练中添加越多的数据,这些模型就越容易“遗忘”它们早期学到的一些核心内容,尤其是推理能力。
这有点像人类学习新语言:在儿童时期学习相对容易,但成年后学习则要困难得多。模型训练也有类似的特性。
因此,尽管在模型可调性方面已经取得了一些进展,但这种路径毕竟是有限的。到今天为止,还没有一个完美的方法,能让企业在获得最前沿模型的同时,又使其对企业的专有数据和领域知识有深刻理解。
如果能在一个前沿模型训练的关键时刻,将企业的专有数据融入其中,并创建一个仅供该企业使用的模型,会怎么样?我们认为这正是客户真正需要的。
今天,我们非常高兴地宣布推出Amazon Nova Forge。
Nova Forge是一项全新的服务,它引入了开放训练模型的概念。通过Nova Forge,您可以独家访问各种Nova训练检查点。然后,您可以将自己的专有数据融合进来,配合Amazon精心整理的训练数据集,在模型训练的各个阶段进行。这使得您能够生成一个对企业信息有深刻理解的模型,同时保留了模型在基础训练阶段获得的核心能力。
我们将这些生成的模型称为Novellas。您可以轻松地将您的Novella上传到Amazon Bedrock并运行推理。
假设您是刚才提到的那个硬件制造商,拥有数百GB、数十亿个tokens的专有数据,涉及过去的设计、失败模式和评审记录等。
您可以选择从一个已完成80%预训练的Nova 2 Light检查点开始。使用我们提供的工具集,您将自己的所有数据与Amazon整理的训练数据集融合。然后,您运行提供的预训练“配方”来完成模型的预训练,这次包含了您的所有专有数据。这在模型中植入了您的领域特定知识,同时不会损失其原有的推理等重要基础能力。
Nova Forge还支持使用远程奖励函数和强化微调来进一步改进模型,让您能够将真实世界的环境反馈接入到训练循环中。由于您的基线模型已经理解您的业务,这些后训练技术会更加有效。
模型准备就绪后,您可以将这个Novella模型导入Bedrock,并像对待任何其他Bedrock模型一样运行推理。现在,您的工程师可以直接提问,例如:“设计A对比设计B有什么优点和缺点?”模型将根据贵公司的历史业绩、制造约束和客户偏好,给出针对性的响应。
我们已与一些客户合作测试Nova Forge,他们从定制化的Nova开放训练模型中获得了变革性的成果。
以Reddit为例,他们使用生成式AI在聊天和搜索中对内容进行审核,涉及多个不同的安全维度。最初,对现有模型进行微调无法满足他们所需的性能要求。尝试使用多个模型处理不同的安全维度又太过复杂。最终,他们仍难以达到社区特定需求所需的准确度。
然而,借助Nova Forge,Reddit能够在预训练阶段整合他们自己的专有领域数据,使得模型发展出一种综合的表示,将通用语言理解和他们社区特定的知识自然地整合在一起。这是他们第一次能够生成一个既满足准确性要求和成本效率目标,同时部署和运维也更为简单的模型。
我们相信,开放训练模型的理念将彻底改变企业利用AI进行创新的方式。
5、Amazon Bedrock AgentCore:智能Agent平台
事实证明,采用云技术能让企业更快速地前进,并适应各种突如其来的变化。现在,最有可能改变企业业务的最大机遇之一就是Agent。
Agent之所以令人兴奋,是因为它们可以采取行动并完成任务。它们可以进行动态推理,并创建工作流以最佳方式解决一项工作,而无需预先编程。这些Agent以非确定性方式工作,这也是它们如此强大的部分原因。但这同时也意味着,我们过去用于构建传统软件的基础和工具,未必适用于Agent。
这就是我们推出Amazon Bedrock AgentCore 的原因,它提供最先进的智能Agent平台,便于企业在大规模下安全地构建、部署和运行Agent。我们在设计AgentCore时,注重全面性与模块化。
AgentCore具有一个安全的无服务器运行时,确保Agent可以在完全会话隔离中运行。AgentCore内存使得Agent能够保持上下文,处理短期和长期记忆,使其能够随着时间学习并变得更好。我们提供一个AgentCore网关,使Agent可以轻松且安全地发现并连接到工具、数据以及其他Agent。AgentCore身份(Identity)提供了一种安全认证的方式,让您可以控制Agent可以访问的工具和数据。AgentCore可观测性为您提供已部署Agent工作流的实时可见性。
我们还提供了多种基础工具,允许您的Agent以安全的方式执行真实世界的工作流。例如,代码解释器(Code Interpreter)功能可让您访问一个安全的执行环境。
AgentCore正迅速被各行各业的客户采纳,作为其智能Agent应用程序的基础。我们在监管行业如Visa、National Australia Bank或Rio Tinto等公司中,以及在ISV(如Palumi、ADP)和初创公司(如Coher Health、Snorkel AI)中都看到了强劲的势头。
纳斯达克(Nasdaq)的首席执行官Dina Freeman和她的团队正在快速构建能够在他们业务核心领域真正工作的Agent。她认为AgentCore至关重要,因为它提供了他们所需的安全性和隔离性。
另一个例子是Bristol Myers Squibb,他们发现Agent使用AgentCore运行时,具备无缝、动态扩展规模的能力,并能保持其敏感数据安全且隔离。
我们看到像Workday这样的ISV正在基于AgentCore构建未来的软件。AgentCore的代码解释器准确地交付了他们所需的核心功能、安全要求和数据保护。
6、引入 AgentCore Policy
管理AI Agent就像抚养一个十几岁的青少年。我的家中就有两个出色的青少年。随着孩子长大,你必须开始赋予他们更多的自主权和自由,让他们学习并实现“成年化”。然而,你也需要设定一些基本规则,以避免出现重大问题。想想孩子刚开始开车的时候:他们突然拥有了所有自主权,可以自己做很多事情。但你仍需要设置“护栏”,比如规定他们必须在某个时间前回家,或者不能超速行驶。
建立对Agent信任的一种方式是确保它们拥有正确的权限来访问你的工具和数据。AgentCore Identity 提供了一种很好的实现方式。然而,仅仅设置Agent可访问的工具权限只是一个良好的开端。你真正想要控制的是,Agent可以使用这些工具执行或不执行哪些具体的操作。例如,“Agent将如何使用这些工具?为谁使用?”这些问题是目前客户面临的难题。客户可以将Policy嵌入到Agent代码中,但由于Agent会即时生成并执行自己的代码,这些安全保障措施只是“尽力而为”,提供的保证很弱,并且难以进行审计。
在实际应用中,这意味着你无法确定地控制Agent可执行或不可执行的内容,同时又希望赋予其自主权来完成工作流程。因此,大多数客户在将Agent部署到最具价值的关键用例时会感到受阻。
正是基于这个原因,今天我们宣布在AgentCore 中引入Policy功能。Policy能提供实时的确定性设置,用于控制你的Agent如何与企业工具和数据进行交互。你可以设置这些Policy,定义Agent可以访问哪些工具、哪些数据、以及在什么条件下如何访问。这包括 API、Lambda 函数、MCP 服务器,以及 Salesforce 或 Slack 等流行的第三方服务。此外,你还可以定义Agent在何种条件下可以执行哪些操作。
AgentCore 在授予Agent访问工具或数据之前,会根据这项Policy对每个Agent动作进行评估。我们通过一个简单的退款示例来解释。假设你在 AgentCore Policy 中使用自然语言定义了一条Policy,比如:“我希望阻止所有报销金额超过 1,000 美元的退款请求。”在底层,你的自然语言提示会被转换成 Cedar 语言。Cedar 是一种流行的开源语言,它支持我们在授权方面的自动化推理工作,也是我们在 AWS 内部可验证系统的基础。Policy建立后,会被部署到 AgentCore Gateway,并在毫秒级进行评估。这确保了你的所有操作都能得到即时且一致的检查,从而保持Agent工作流的快速响应。
这种部署位置的设计至关重要,因为Policy执行是在Agent应用程序代码之外进行的。Policy评估实际上位于你的Agent与所有数据、API 和工具之间。因此,你可以可预测地控制它们的行为。回到我们的退款政策示例,如果每个Agent操作在访问工具之前都经过Policy检查,那么当退款金额超过设定的限额时,Agent就会被阻止发起该退款。有了这些明确的Policy,组织就能对其构建和部署的Agent产生更深的信任,因为他们知道Agent会保持在设定的边界内。
当然,你不仅希望Agent遵循明确定义的规则,你更需要知道它们的行为是正确的。“信任,但要验证(Trust, but verify)”是亚马逊内部一种管理规模化的思维模型。在 AWS,我们给予团队极大的自主权,我信任他们为客户进行创新并执行使命。但同时,我也有一些机制,让我在一切顺利时也能深入探查和检视。我想确认我们确定的战略举措,是否正按预期的方式被执行。
这就像是我的青少年子女。我通常相信他们会遵守规则,但我仍可以查看Ring 摄像头,确认他们是否按时到家。我可以随时查看实时 360 应用的状态,以确保他们的行为在我设定的边界和期望之内。同样的原则也适用于Agent。为了建立信心,你需要看到它们的实际行为情况。
目前,客户非常满意AgentCore Observability(可观测性)带来的体验。你可以实时查看所有运营指标的可见性,包括Agent的响应时间、计算资源使用情况、错误率以及哪些工具和功能被访问。这些都很好。然而,除了Agent在运营层面的表现,还有其他你想要知道的事情。
7、引入 AgentCore Evaluation
你想要知道:Agent是否正在做出正确的决策?它们是否为任务使用了最合适的工具?它们的回答是否正确、适当,甚至是否符合品牌定位?这些是今天极难衡量的事情。通常,你需要一个数据科学家来构建复杂的数据管道,选择一个模型来尝试判断Agent的输出结果。他们必须构建基础设施来提供这些评估,然后管理配额和限流。每当你部署一个新的Agent,或想升级到正在使用的模型的新版本时,你都必须把所有这些工作重做一遍。与传统软件不同,预先进行测试和调试仍然非常困难。你只能在Agent于现实世界中运行时,才知道它们将如何反应和回应。这意味着你必须持续实时监控并评估Agent的行为,并在发现不当行为时快速做出反应。
我们认为可以做得更好。今天,我很高兴宣布推出AgentCore Evaluation。Evaluation是一个新的 AgentCore 服务,可以帮助开发者基于Agent的真实世界行为,持续检查其质量。评估可以帮助你根据特定标准分析Agent的行为,例如我提到的正确性、可用性和有害性。它附带 13 个预构建的评估器,用于常见的质量维度。当然,你也可以随时使用自己偏好的提示和模型来构建系统,创建自己的自定义评分。
在测试阶段,你可以轻松评估Agent,在广泛部署之前纠正任何问题。例如,如果你打算升级到更高版本的模型,你可以运行评估来确认Agent是否保持了与当前版本相同水平的有用性。你也可以在生产环境中使用Evaluation,快速捕捉那些难以发现的质量下降。
8、Adobe 在 AWS 上的 AI 应用实践(Shantanu Narayen发言)
Adobe 一直处于这场革命的前沿。从桌面出版的发明到数字文档的起源,再到开创性的图像和视频进步,我们不断推动可能性的边界。十多年前,我们向基于云的订阅模式的转型,标志着我们与 AWS 关系的开始。正是亚马逊的 EC2 和 S3 等服务,为 Adobe 的创新提供了可扩展且安全的基础。
当我们过渡到AI 时代时,AWS 正在帮助我们更快地创新。它提供了我们所需的核心服务,正如 Matt 所说,用于训练模型和部署Agent。这使我们能够专注于 Adobe 最擅长的事情:在我们面向企业的各类数字体验中释放创意,这些体验涵盖商务专业人士、消费者、创作者、创意专业人士,以及营销和 IT 专业人士。
在与创造力相关的AI 方面,我们正在为各种技能水平的人重新构想流程的每个阶段。我们知道,超过 90% 的创作者现在都在积极使用以创意为中心的生成式 AI。为支持他们,我们将 AI 融入 Adobe Firefly——我们的全能创意平台。它用于驱动我们旗舰 Creative Cloud 应用(如 Photoshop)中的 AI 创意工作流程,以及 Adobe Express(一款用于快速轻松创建合规品牌内容的应用程序)。例如,Adobe Firefly 模型驱动的“文本到图像”、“文本到视频”、“生成填充”和“生成重着色”等功能,都是在 P5 和 P6 Instances上进行训练和使用的。
Acrobat Studio 使用 Amazon SageMaker 和 Amazon Bedrock 来访问我们自己的和第三方模型,帮助数百万用户更快地进行研究、制定Policy、分析和协作。新的 Adobe PDF 产品也是一个对话式知识中心,由个性化 AI 助手支持,帮助消费者和商业专业人士实现协作。
最后,在AI 时代,营销人员的角色已经演变为协调者,旨在为消费者和客户提供引人入胜的客户体验。为支持他们,我们正在统一客户参与的关键要素、内容供应链以及品牌可见性。Adobe Experience Platform 是推动此类客户参与的核心基础,它将 AI 驱动的应用和Agent汇聚在一起,以提高参与度和忠诚度。
该平台的规模非常大,每天进行超过35 万亿次片段评估和超过 700 亿次档案激活。Experience Platform 使用 AWS 构建模块以及创新的蜂窝架构运行。我们的共同客户现在可以将 Redshift 等来源的数据摄取到 Adobe Experience Platform 中,创建客户档案,并利用这些受众在 Adobe 的实时客户数据平台中注入数据。
我认为,与客户互动的关键在于创建符合品牌的内容,并在正确的时间、通过正确的渠道、在恰到好处的时刻传递。由于营销人员预计未来两年内对内容的需求将增长五倍,因此每个企业都需要一个内容供应链来管理这一切。无论是在数据层——我们在此训练领先
行业的Adobe Firefly 基础模型,正如 Matt 所说,确保我们在 AI 模型方面提供选择,以便我们能在创造性领域持续创新,并通过Agent编排来增强这一生态系统。最后,将 AI 集成到我们所有的应用中,使客户能够轻松实现价值,让各种类型的组织在他们今天开展工作的地方采用并实现。站在人与计算机交互的这个交汇点上,我相信 Adobe 和 AWS 共同推动的 AI 变革,将重新定义为世界上数十亿人服务的数字体验。我们非常期待与大家携手合作。
9、AWS 原生智能Agent解决方案
太棒了,Shantanu。非常感谢。看到 Adobe 在数字体验方面的开创性工作,全部运行在 AWS 之上,真是令人振奋。
现在,借助我们提供的工具和服务,我们知道我们的客户和合作伙伴将会构建大量极具影响力的Agent。但也可以预期,一些最强大、最具能力的智能Agent解决方案将直接来自 AWS。现在让我们来深入探讨其中的几项。
当我们思考应该构建哪些Agent以及可以重新构想哪些体验时,我们专注于那些我们认为可以为客户带来差异化专长的领域。例如,亚马逊拥有一个庞大且异构的全球劳动力,我们理解将企业所有数据和系统串联起来以赋能员工的重要性,以及其中坦率的复杂性。
做出优秀决策所需的所有数据,我们将其提供给一套功能强大的智能Agent。你可以快速获得一套强大的 BI 功能,让任何人都能轻松发现洞见,涵盖所有结构化和非结构化的数据来源。我个人最喜欢的功能之一是它快速进行调查的能力。它可以调查复杂的主题,然后从你的内部数据存储库以及互联网上的外部数据来源中提取信息,汇聚出有深度的见解和详细研究报告,并附有来源引用,让你确切知道信息来自何处。此外,你还可以创建快速流程,创建为你个人自动化日常重复任务的小型个人Agent,推动效率。
10、Adobe 在 AWS 上的 AI 应用实践(May Habib发言)
如果全球最大的消费品公司之一玛氏(Mars),能够在短短几秒内对每一张广告图片运行合规性检查,节省数千小时的人工核查时间,因为检查是即时完成的,那会怎样?如果阿斯利康(AstraZeneca),这家创新药物的制造商,能够自动化在全球范围内获得治疗批准所需的文书工作,节省数月艰苦的人工流程,并能更快地将救命疗法送到患者手中,那会怎样?如果全球科技先驱高通(Qualcomm),能够实时发现营销支出的最高效点,在节省数百万成本的同时,显著提升活动表现,那会怎样?
这不仅仅是人工智能(AI)的承诺。这一切都在今天、此刻,由 Writer 的Agent AI(Agentic AI)实现。
我是May Habib,Writer 的联合创始人兼首席执行官。在过去的五年里,我们一直与全球大型企业合作,在监管最严格的行业中,构建一个用于智能Agent工作的平台。
在早期,我们发现大型语言模型(LLMs)所能实现的惊人成果,与满足企业所需的可靠性、安全性和可控性之间存在着差距。为此,我们做出了一个大胆的决定——成为一个全栈平台,具备企业所要求的精确性和合规性。这一平台由我们自有的企业级 Palmyra 大语言模型驱动,并交付能够处理最艰巨企业工作流程的Agent(Agents)。
要真正实现全栈愿景的规模化,我们需要一个弹性强、安全、并为企业级设计的基础设施提供商。财富500 强中的大多数企业都在 AWS 上运行,其中也包括我们众多的客户。因此,与 AWS 合作是一个显而易见的选择。
AWS 作为云服务提供商,具有独特的优势,它既支持我们训练前沿模型,又能够安全地将我们的整个平台部署给我们的企业客户。
我们与AWS 的合作始于两年前,从模型层开始。我们刚刚发布了最新的 Palmyra 大语言模型,并在排行榜上名列前茅。但随着模型的规模变得更大,训练和推理所需的计算能力也在不断增长。AWS 技术栈的深度因此成为了我们的战略优势。
我们的基础设施建立在SageMaker HyperPod 之上,这项服务为大规模模型训练提供了强大的支持。我们使用P5 Instances(并很快将升级至 P6 Instances)来处理繁重的 GPU 工作负载,它们通过 Elastic Fabric Adapter (EFA) 相互连接。EFA 是实现高速通信的关键,它提供了更大的节点间带宽,确保了我们训练运行的快速和同步。
我们还将HyperPod 与 Amazon FSx for Lustre 结合使用,这使我们能够以模型所需的速度获取数据,同时将成本保持在可控范围内。
这些努力带来了巨大的成效:我们将运行时间缩短了三分之二,从六周缩短到了两周。我们的训练流水线可靠性提高了百分之九十。所有这些工作为我们构建最新的前沿模型Palmyra X5 提供了力量和稳定性,该模型正是直接在HyperPod 上训练的。
Palmyra X5 提供了卓越的自适应推理能力、高达一百万令牌的巨大上下文窗口,以及从最复杂的海量数据中提取业务洞察的近乎完美的准确性。
它以惊人的速度提供了这些能力:在仅22 秒内处理一百万令牌的提示,并在 300 毫秒内完成多轮函数调用,而其成本却低于其他最前沿模型的四分之一。
我们与AWS 的合作从来不只是为了打造快速而强大的模型,它始终致力于构建一个能够变革企业运营方式的突破性 AI 平台。以 Palmyra X5 为引擎,我们正在实现这一愿景。
通过Writer 平台,像玛氏、阿斯利康和高通这样的企业团队,能够将Agent与数据、上下文和业务专有知识相连接,从而更高效地工作,这将转变企业的关键流程,而这一切都无需业务用户编写一行代码。
Playbooks(可执行手册)对Writer 来说至关重要。它们允许团队一次性记录流程,将工具、数据和他们所依赖的系统连接起来,并将其转化为可重复的智能Agent。一个可执行手册变成了一个动态的、活生生的蓝图,指导着出色工作的完成。由于这些手册可以在团队之间共享,影响最大的手册可以瞬间在整个组织内扩展。
在AWS 的帮助下,Writer 将很快推出下一代自我进化的(Self-Evolving)大语言模型。它们能够学习组织的运作方式并即时预测请求。它们将成为世界上首批使用越多、性能就越能提升的智能Agent。
然而,所有这一切之上存在一个问题:对于那些负责安全与合规的领导者来说,当出现问题时,他们如何才能在确保安全和保障的前提下,赋能业务团队进行创新?
Writer 首先必须是一个可互操作的平台,一个能够在规模上观察、控制并连接你的Agent,并配备你已经信任的相应工具与保障措施。今天,我们正式将这一范式引入 Writer,推出了一套专为企业量身打造的强大监管工具。
我们为组织在Agent生命周期的各个阶段提供了完全的可见性和控制。每个会话都被追踪,每个输出都符合合规要求,每个数据连接器都实时受到治理。
真正的互操作性意味着连接到你信任的系统。因此,我们的平台可以与您已在使用的可观测性、保护栏和系统协同工作。
从今天开始,我们非常高兴地宣布Amazon Bedrock 的保护栏(Guardrails)现在可以直接与我们的平台集成。这意味着如果你已经在Bedrock 中设置了Policy和安全规则,你可以将完全相同的保护措施应用到 Writer 上。你无需重建任何东西,就能获得一个一致且合规的、覆盖整个 AI 堆栈的控制层。
模型选择对企业来说也非常重要。所以从今天开始,来自Amazon Bedrock 的模型可以直接在Writer 平台内使用。现在,AWS 和 Writer 的客户可以使用模型目录在 Writer 上构建Agent,模型涵盖了我们自己的 Palmyra 系列、今天发布的令人惊叹的 Nova 模型以及更多模型,所有这些都在单一且受治理的环境中。这是在不牺牲安全性的前提下实现的终极灵活性。
对于像Vanguard 这样的组织——他们是长期使用 Writer 和 AWS 的客户,并且对信任有着零妥协要求——Writer 和 Bedrock 的集成,为他们提供了在大规模上负责任地创新所需的控制能力。
信任是公司从零散的个人电脑使用,走向真正受治理的全企业范围内、具有实质影响的AI 战略的关键。你无法扩展你不信任的事物。
在Writer,我们的愿景是赋能人们实现变革性的工作,我们很自豪能与 AWS 一起完成这项工作。谢谢。
11、AWS 开发者 AI 的优势
非常感谢May。我们非常高兴能帮助像 Writer 这样的客户,让 AI 和智能Agent为他们的客户变得切实可行。
一个我们较少提及的最终用户群体是开发者。而事实证明,这正是AWS 的一个优势领域,亚马逊在这方面拥有深厚的专业知识。
我们知道,对于那些试图快速现代化其应用程序的开发团队来说,最大的痛点之一是处理技术债务。埃森哲(Accenture)估计,仅在美国,技术债务每年就使公司总计损失 2.4 万亿美元。高德纳(Gartner)表示,如今百分之七十的 IT 预算被用于维护遗留系统。我们知道这是 AI 可以发挥作用的领域。这就是我们构建 AWS Transform 的原因,它旨在帮助客户摆脱他们的传统平台。
12、AWS Transform Custom 发布
就在昨天,我们发布了AWS Transform Custom,它允许你创建自定义代码转换Agent,从而实现任何代码、API、框架、运行时或语言翻译的现代化,甚至是只在你们公司内部使用的编程语言或框架。客户已经纷纷涌向它。
我们已经看到客户进行从Angular 到 React 的迁移,将嵌入在 Excel 表格中的 VBA 脚本转换为 Python,将Bash shell 脚本转换为 Rust。一个很好的客户案例是QAD,一家提供基于云的 ERP 解决方案和供应链服务的供应商。他们的客户在将定制化的 Progress Software 专有高级业务语言旧版本,迁移到他们的QAD 自适应 ERP 平台时遇到了困难。QAD 转向了 AWS Transform,原本至少需要两周时间才能完成的现代化任务,突然间在不到三天内就完成了。我们非常期待看到你们能够改造的所有遗留代码。
进行所有这些改造的重大好处之一是,它为开发者腾出了更多时间去创造发明,这正是让我们感到兴奋的地方。事实证明,如今开发者的构建速度比以往任何时候都快。过去一年里,AI 软件工具经历了迅速变化,我们已经从执行内联制表符补全之类的功能中进化出来了。
我们认为你们都会喜欢Kiro 将如何改变你们的开发工作。我很高兴今天宣布,对于任何符合条件的创业公司,如果在一个月内申请,我们将免费提供一年的Kiro 服务,最多可达100 个席位。
我们对Kiro 在改善开发者生活方面所产生的影响感到非常兴奋。坦白说,我对这种开发速度所带来的影响感到惊讶,我们在亚马逊内部已经看到了这种影响。事实上,我们非常震撼,上周整个亚马逊决定在内部将 Kiro 标准化为我们的官方AI 开发环境。
13、Frontier Agents 发布
人们在第一代AI 编码工具中看到的只是效率提升,而现在这是数量级更高的效率提升。
我总会被问到,他们是怎么做到的?起初,团队花了一点时间去完全理解如何最好地利用Agentic工具。他们很快就开始看到一些效率提升,但这些更多是逐步改进而非颠覆性改变。几周后,他们有了一个顿悟时刻。他们意识到,要最大化利用这些Agent,就必须改变他们的工作流程,充分发挥Agent的优势。他们不得不质疑一直以来关于如何编写软件的一些固有假设。团队在此过程中学到了大量经验,并发现了一整系列新的机会,关于Agent如何能够让团队更快交付。
他们得到的第一个经验是他们与这些Kiro Agent交互的方式。一开始,他们会向这些工具输入小型任务以确保得到可靠的结果,最终团队发现随着他们向外扩展,他们自己反而成了瓶颈,他们不得不断为Agent解决阻塞,因为Agent需要人工干预。
我们今天发布的是Frontier Agents,它们建立在三个关键要求之上:
自主性(Autonomous):你向它们指明一个目标,它们会自己想办法去实现。
大规模可扩展性(Scalable):单个Agent可以同时执行多个并发任务,但你必须能够进行分发,跨多个Instances、多种类型的Agent进行协作。
长期运行(Long-Running):它们可能会工作数小时甚至数天,以追求雄心勃勃的目标(有时坦率地说是模糊不清的目标),而无需人工干预或指示。
让我介绍一下我们今天将发布的第一个Frontier Agent,那就是 Kiro Autonomous Agent。
Kiro Autonomous Agent是一种能够变革开发者和团队构建软件方式的Agent,极大地提高了你们开发团队的创新能力。Kiro 自主Agent在你的工作流程中并行运行,维护上下文并自动化开发任务,以便你的团队始终保持动力。你只需从待办事项中分配复杂任务给它,它就会独立地找出完成这些工作的方式。
Kiro 现在可以自主运行,处理开发者所需的一整套事项,从交付新功能,到分拣错误,再到提高代码覆盖率。它能够在会话之间维护状态。让我们来看看这在新的Kiro 自主Agent中是什么样子。
首先,你将在Kiro.dev 上开始,并启动与您的GitHub 仓库相关的任务。你会描述你要解决的问题,然后Agent会使用该描述,并利用来自以往实现的所有推理和知识。在尝试规划任务时,它会提出它不理解的澄清性问题。凭借对你整个代码库的深度了解,它会快速识别出需要在所有选定仓库中进行更新的位置,以及需要更新的库。该Agent会识别出你拥有的每一个受影响的仓库。
当它在处理PR(Pull Request)的错误处理时,它会把对前 14 个错误的学习应用进去。当它遇到类似的架构时,它会引用你之前做过的工作。你不需要每次都重新解释你的代码库。它已经知道你的工作方式,并且随着它所执行的每一个任务都会变得更好。我们认为这将帮助你更快地前进,并彻底改变开发工作。
我们重申一遍,安全始终是AWS 的首要任务。近二十年来,我们一直与客户合作,帮助你们在云端保护自己的产品。因此,我们自然而然地思考:一个安全frontier agent会是什么样子。我们知道每个客户都希望产品是安全的,但这存在权衡。你把时间花在哪里?你是优先考虑改进现有功能的安全性,还是优先考虑在新功能发布时投入时间 ?在亚马逊和 AWS,安全性深入融入我们所有的开发文化和实践中。我们进行代码审查,对系统架构进行安全审查。我们与由内部和外部专家组成的大型团队进行大量渗透测试,以寻找漏洞。所有这些工作都在任何代码进入生产环境之前完成。
然而,大多数客户无法持续承担这种做法。结果是,你可能不会一直做这些事情,或者一年只做几次。随着AI 大幅加速开发进程 ,这可能意味着多个版本发布正在推出,但你的代码没有经过严格的安全风险评估。我们坚信,为了实现安全,你必须从头开始将其融入你所做的每件事中。
因此,我非常高兴地宣布推出AWS Security Agent。这个Agent 将帮助你从一开始就构建安全的应用程序。AWS Security Agent 帮助你更有信心地交付产品。它将安全专业知识向上游嵌入,使你能够更频繁地保护系统。它主动审查你的设计文档,并扫描你的代码以查找漏洞。由于 Security Agent 直接与 GitHub Pull Request 集成 ,它将反馈直接提供给开发者的工作流中。
Security Agent 还可帮助进行渗透测试。它将渗透测试从一种缓慢且昂贵的实践 ,变成了一种按需进行的实践。它可以让你持续验证应用程序的安全态势。
让我快速演示它的工作原理。假设你的公司有一套获批的存储和处理信用卡信息的方法。如果一个开发者无意中采用了错误的方法,这可能意味着大量的返工,甚至在开发过程的后期放弃数月的工作。然而,AWS Security Agent 可以及早发现这些问题。它甚至可以在你写一行代码之前,从你的设计文档中发现这些问题,因为它会始终检查以确保你遵循团队的最佳实践。
当真正到了提交代码的时刻,AWS Security Agent 会针对相同的要求审查你的 Pull Request 并标记任何问题。对于它发现的任何问题,它会为你提供简明的修复步骤。当你的代码完成时,你只需发起一次渗透测试 ,该代理会立即着手处理,实时向你展示其进展情况。完成时,你会得到经过验证的结果,并附有建议的修复代码以解决它发现的任何问题。不再需要等待资源,也不再需要聘请昂贵的外部顾问。
假设你有多个准备好部署到生产环境的应用。你可以并行启动多个安全代理。这样你就可以获取并测试所有应用,而不会成为瓶颈。现在你写代码更快了,并且你部署得一样快,因为你知道它是安全的。
当然,接下来是运行代码。我们都知道,随着系统的增长,你需要操作的范围也会随之扩大,这意味着需要增加DevOps 工作。这是我们在亚马逊内部团队拥有大量经验的领域。在亚马逊,我们始终坚信创造出色客户体验的最佳方式,是让开发人员自己运行他们的代码。我们多年来一直在实践 DevOps。我们学到的是,随着你的服务扩展,运营会吞噬你越来越多的时间。我们认为这是另一个可以将我们的专业知识交到你手中的领域。
AWS DevOps Agent是一个frontier agent,能够解析并主动预防事件 ,持续提升你的可靠性和性能。AWS DevOps Agent 调查事件并识别可改进的运维措施,就像经验丰富的 DevOps 工程师所做的那样。它从你的资源及其关系中学习 ,包括你现有的服务器可观测性解决方案、运行手册、代码仓库和 CI/CD 管道。然后,它会将所有这些来源的遥测、代码和部署数据进行关联 ,并能够理解应用资源之间的关系 ,包括多云和混合环境中的应用。
让我向你展示这如何改变事件响应。假设发生了一个事件,警报响起。在你的值班工程师甚至来得及签到之前,AWS DevOps Agent 会立即响应。在诊断中,它发现试图连接到数据库的 Lambda 函数的身份验证错误率有所提升。它利用对你的应用拓扑结构和不同组件之间关系的了解 ,来独立地从告警往回追溯,以找到问题的根本原因。
在这个例子中,假设你使用Dynatrace 作为你的可观察性解决方案。AWS DevOps Agent 使用与 Dynatrace 的内置集成,以提供有关该事件的更多背景信息。它了解你所有的依赖关系,并且知道创建每一个资源的部署堆栈。当发现问题时,比如在这个案例中是对你的 Lambda 函数所做的 IAM 策略更改 ,它会告诉你是什么引入了该更改。事实证明,这是你在 CDK 代码部署中的一个简单错误。
在你的值班工程师登录时,DevOps 前沿代理已经找到了问题、建议了更改 ,并已准备好让值班人员审查该更改并批准修复。更棒的是,它还能让你防止此类事件在未来发生。它通过建议在这些策略更改部署之前用 CI/CD 护栏加以拦截。
DevOps Agent 始终待命,快速且准确 ,让事件响应与运营工作变得轻松。共同,这三种前沿代理——Hero 自主代理、AWS Security Agent 和 AWS DevOps Agent ——将彻底改变你的团队构建、保护和运维软件的方式。让我们快速看看这里的未来可能是什么样子。
14、核心 AWS 服务发布
本周Re:Invent 上,无论是人工智能还是代理化服务,都涌现出大量新创新。此外,还有一系列让 AWS 非常兴奋的发布。因为 AWS 范围如此广泛 ,我知道你们中很多人都希望听到关于我们核心非人工智能产品和服务的出色新增功能。
我将在我们的核心AWS 服务中发布 25 项令人振奋的新产品。我打算只用 10 分钟来完成介绍。
先从我们的计算产品说起。我们知道你们都很喜欢AWS 持续提供最广泛的Instances选择 ,因此您始终能为您的应用获得最合适的Instances。
现在,很多人运行内存密集型工作负载,比如SAP HANA、SQL Server 或 EDA 等高强度应用。因此,今天我很高兴地宣布我们下一代X系列大内存Instances。它们由定制的 Intel Xeon 6 处理器提供动力。这些Instances可提供多达 50% 的额外内存。
我也很高兴地宣布下一代AMD EPYC Memory Pro 处理器 ,同样地,为你提供3 TB的内存。
你们中很多人也运行用于安全或网络应用的EC2 Instances。这些应用需要大量计算能力和超高速网络。对于那些场景,我们宣布推出我们的C8ine Instances。这些Instances由定制的 Intel Xeon 6 处理器 驱动 、使用最新 Nitro v6 卡。它们每个 vCPU 提供 2.5 倍更高的分组性能。
那些需要超高速单线程频率计算的应用怎么办?这个也有。介绍一下我们的M8azn Instances ,它拥有云端可用的绝对最快的 CPU 时钟频率。这些Instances非常适合多人游戏、高频交易和实时数据分析等应用场景。
今天,AWS 仍然是唯一一家提供基于 Apple Mac 的Instances ,而且它们非常受欢迎。因此,今天我很高兴宣布两款由最新 Apple 硬件驱动的新Instances。现在发布EC2 M3 Ultra Mac 和 EC2 M4 Max Mac Instances。开发者现在可以使用最新的Apple 硬件在 AWS 中构建、测试并签署 Apple 应用。
好了,客户喜欢使用Lambda 快速构建函数并在大规模运行代码。Lambda 在你想要快速执行代码时表现出色 ,但有时你会遇到这样的用例:你的 Lambda 函数需要等待响应 ,就像等待在后台运行的代理(agent)数小时,甚至几天。我们希望让你更容易编程 ,将权重直接传入你的 Lambda 函数。所以今天我们宣布推出Lambda Durable Functions。耐久函数使您能够轻松管理状态,构建长期运行的工作负载。它们具有内置的错误处理和自动化恢复功能。
好吧,我们进展如何?八次发布,差不多三分钟左右。好吧,我最好加快点。存储产品发布
好吧,我们继续讲存储。我们知道你们爱用S3。我之前提到过,S3 存储了超过 500 万亿个对象,数百艾字节的数据。那是非常多的数据。
当我们在2006 年推出 S3 时,单个对象最大为 5 GB。几年后,我们将其增加到 5 TB。在过去十年里,这个容量一直足够大。但在过去几年里,数据规模增长了很多。所以我们问自己,什么样的对象大小才能满足你们今天的所有需求?
我很高兴今天宣布我们将S3 的最大对象大小提高 10 倍 ,达到 50 TB。但不仅仅是更大。我们知道你们也希望让 S3 在批处理操作上更快。因此,从今天开始,我们正在提升大型批处理作业的批处理操作的性能 ,现在运行速度提升了 10 倍。
在去年的re:Invent 上,我宣布了 S3 Tables,这是一种为 Iceberg 表优化的新桶类型。它变得非常受欢迎。但随着表格数据量开始快速增长 ,你们都在寻求我们能帮助你们省钱的方法。
所以今天,我们宣布为S3 Tables推出智能分层。这可以为您节省高达80% ,自动降低存储在S3 Tables存储桶中的数据的存储成本。你们还要求我们让复制这些表在不同区域之间变得更容易 ,这样你们就能获得一致的查询性能。截止到今天 ,你现在可以自动将你的S3 Tables跨 AWS 区域和账户复制。
今年早些时候,我们为FSx for OpenZFS 推出了 S3 访问点。这使您可以访问 ZFS 文件系统的信息 ,就像它是 S3 中的数据一样。今天,我们正在让你能够访问更多的文件数据,通过将S3 访问点扩展到 FSx,以支持 NetApp ONTAP。现在,ONTAP 客户也可以无缝访问他们的数据,就像数据在 S3 中一样。
现在,你们拥有的增长最快的数据类型之一是向量嵌入,它们用于让你的AI 模型更高效地工作 ,搜索并理解您的数据。今年早些时候,我们宣布了 S3 Vectors (S3 向量) 的预览 ,这是首个原生支持存储和查询向量的云对象存储。
今天,我很高兴地宣布S3 Vectors 正式上线 (GA)。你现在可以存储万亿级的向量在单个S3 存储桶中 ,并将存储和查询的成本降低 90%。
我预计你们中的许多人会使用S3 Vectors 协同工作,配备高性能向量数据库。今天,实现低延迟搜索向量嵌入最流行的方法是在 Amazon OpenSearch 中使用索引。但你们中的许多人问过我们,有没有办法加快这个过程 :创建我的所有数据的索引?
所以,今天我们很高兴宣布在Amazon OpenSearch 中为向量索引提供 GPU 加速。通过使用GPUs 来为这些数据建立索引 ,你现在可以为数据建立索引快 10 倍 ,成本仅为四分之一。
好了,大家跟得上吗?还有4 分钟。太棒了。好了,已经发布 15 次,只剩几分钟了。我们继续。
让我们继续讲到EMR,这也是我们流行的大数据处理服务。我们发布的 EMR Serverless 四年前发布,深受客户喜爱 ,因为它大大减少了运行 PB 级规模处理的复杂泥潭。但事实证明今天还不是完全无杂物的。客户仍然必须配置和管理他们的 EMR 存储,但现在不再需要了。从今天起,我们正在消除您必须进行配置本地存储的需要用于您的EMR Serverless 集群。
好的,我们继续讲安全。今天,成千上万的客户依赖GuardDuty 来监控和保护他们的账户、应用程序和数据免受威胁。在刚过去的这个夏天,我们将 GuardDuty 的扩展威胁检测添加到了 Amazon EKS。我们对看到的势头感到满意。所以,当然,我们并没有止步于此。
今天,我们将这一功能扩展到ECS。现在,您可以将AWS 最先进的威胁检测能力用于您所有的容器和您的所有 EC2 Instances。这项功能对所有 GuardDuty 客户均已启用,且无需额外费用。
每位客户都希望快速发现并修复安全问题,越快越好,越简单越好。这就是我们推出Security Hub 的原因 ,它汇总来自 AWS 和第三方来源的安全数据 ,帮助你识别潜在的安全问题。今年早些时候,我们预览了增强版 Security Hub。今天,我很高兴地宣布Security Hub 已进入 GA。
今天,我们还宣布了若干新功能,包括近乎实时风险分析、一个趋势仪表盘,以及一个新的简化定价模型。运维团队的生死取决于他们的日志数据。但那份日志数据无处不在。它们在CloudTrail 日志和 VPC 流日志和 WFT 日志 ,以及来自像 Okta 和 CrowdStrike 等第三方的日志。我们认为我们可以把这做得更好。
所以今天,我们宣布在CloudWatch 中推出一个新的统一数据存储。这个存储用于您的所有运营、安全与合规数据。它会自动从AWS 和第三方收集日志数据 ,并将其存储在 S3 对象或S3 Tables中 ,以便更轻松、更快速地发现问题并解锁新的洞察。
好了,大家跟紧我。我们快到了,我们就在冲刺阶段。我们现在来谈谈数据库。我知道你们中还有许多人仍在维护一些遗留的SQL Server 和 Oracle 数据库。迁移走它们很难,但至少 AWS 让管理变得更容易。不用担心,我们会提供帮助。我从你们许多人那里听到的一件事是,你们的传统数据库规模随着时间增长得非常大 ,它们实际上比我们在 RDS 中支持的容量更大。
所以我很高兴宣布我们正在增加RDS 的存储容量 适用于 SQL Server 和 Oracle。容量从 64 TB 增加到 256 TB。这也带来了 4 倍的 IOPS 和 IO 带宽提升。这将大大简化将现有工作负载从本地迁移,以便在AWS 上对它们进行扩展的过程。
我们也希望为你提供更多控制,以帮助你优化你的SQL Server 许可证并管理你的成本。所以,从今天开始我们推出几项举措。
您现在可以为SQL Server 数据库Instances指定启用的 vCPU 数量。这有助于降低来自 Microsoft 的按 CPU 计费许可成本。
今天我们还增加了对SQL Server 开发者版本的支持 ,这样你就可以构建和测试你的应用程序无需许可费用。
哦,战利品音乐要响起来了。好吧,那就意味着我只剩下几秒钟了。但我还有最后一件事,我想你们所有人都会喜欢。几年前,我们推出了Compute Savings Plans (计算节省计划) ,作为一种简化方式,在我们整套计算产品上进行承诺。自那天起,我经常被问到 ,我什么时候能获得针对数据库的统一节省计划 ?就在这里。
从今天起,我们推出数据库节省计划。这些计划可为您在我们数据库服务的所有使用上节省最多35%。
好了,搞定。在不到10 分钟内 ,为你们带来整整第二场主题演讲价值的新功能。现在你们有整整四天的时间去外出学习 ,深入细节并开始创新发明。感谢大家来参加 re:Invent。尽情享受。
本文来自微信公众号“划重点KeyPoints”,作者:林易,36氪经授权发布。