首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >313| Google AI 代理平台:从硅到智能的未来之路

313| Google AI 代理平台:从硅到智能的未来之路

作者头像
数据存储前沿技术
发布2026-04-29 13:19:06
发布2026-04-29 13:19:06
1150
举报

阅读收获

  1. 理解 AI 代理的演进路径:文章详细阐述了 AI 从传统问答到行动式代理的转变,以及 Google 如何通过其“智能系统”和“代理系统”来支撑这一变革,为存储从业者提供了 AI 架构演进的宏观视角。
  2. 洞察 Google 的全栈策略:分析了 Google 在芯片(TPU 8)、数据平台(Knowledge Catalog)和前沿模型方面的整合优势,以及这种全栈能力如何成为其在 AI 代理平台竞争中的核心竞争力,对行业分析师理解巨头布局具有参考价值。
  3. 认识企业级数字孪生的构建逻辑:文章通过数据平台成熟度的五个阶段和确定性与认知数字孪生的概念,揭示了企业如何逐步构建实时、可信赖的数字孪生,为研究人员提供了深入探讨企业智能化转型的理论框架。
  4. 关注 AI 代理落地的挑战与机遇:探讨了 AI 代理在治理、身份、内存管理和数据行动空间统一等方面的挑战,以及 Google 如何通过其平台化策略解决这些问题,为技术决策者提供了实际的落地考量。

全文概览

在人工智能浪潮席卷全球的今天,我们正经历一场从“问答式AI”向“行动式AI”的深刻变革。企业不再满足于AI仅仅提供信息,而是渴望它能真正执行任务、采取行动,甚至自主学习和决策。这不仅是对AI技术本身的巨大挑战,更是对现有基础设施和软件架构的颠覆性重构。Google Cloud 首席执行官 Thomas Kurian 强调,要实现这一飞跃,需要一个从底层芯片到上层应用的紧密集成生态系统。那么,Google 在这场变革中扮演了怎样的角色?它如何通过其独特的“全栈”优势,构建一个能够感知、推理、决策、行动和学习的智能代理平台?这篇深度分析将带你一探究竟,揭示 Google 如何将 TPU 8、数据平台和前沿模型整合,为企业级智能代理的未来铺平道路。

👉 划线高亮 观点批注


由 Dave Vellante 和 George Gilbert[1] 撰写的深度分析

企业正在迅速从回答问题和生成内容的人工智能转向执行任务和采取行动的人工智能。Google Cloud 首席执行官 Thomas Kurian 表示,这种转变需要一种截然不同的基础设施和软件方法。Google 认为,只有紧密集成的产品组合——涵盖从芯片到应用程序以及其间的一切——才能有效支持这一转型。

这一转型的关键是新兴的数据和 AI 平台,我们称之为智能系统,Google 最初将其称为知识目录。这种能力最终抽象并协调了分析和操作应用程序。此外,我们看到一个不断发展的代理系统——Google 称之为行动系统,它由知识目录和代理平台组成。

我们认为可衡量的商业价值将建立在此基础设施之上,而这正是真正的战线所在。具体来说,我们看到包括 Google 在内的前沿模型供应商正在迅速构建将成为未来软件基础的能力——我们预测这将是软件行业历史上最大的变革。

在此深度分析中,我们使用 George Gilbert 架构的、我们三年来一直在迭代的框架,对 Google Cloud Next 2026 的公告和新闻进行情境化。

开场设置:TPU 8、数据基础以及从聊天到行动的转变

本周的开场是 Google 重磅发布的 TPU 8 公告[2]——8t 和 8i——由 Acquired 团队主持[3]。它被定位为 Google 芯片路线图的下一个重要步骤,也是 Google 希望被视为唯一拥有前沿模型、差异化数据堆栈和大规模交付代理的可信路径的超大规模厂商的更广泛信息的一部分。关于张量处理单元是否是专用集成电路,也存在一些语义上的争议——Google 表示 "它不是 ASIC",而是一种更通用的芯片。

无论你如何称呼它——它都是为高效运行现代 AI 而构建的专用芯片,它也是 Google 论点(即经济性和性能将比以往任何时候都更重要)的核心。在 TPU 预发布时,令我们惊讶的是,虽然有大量的“2 倍、3 倍、9.8 倍”的说法,但几乎没有提及每瓦性能的指标,这可以说是能源受限运营商最重要的衡量标准。

TPU 既令人印象深刻又对 Google 的战略至关重要。然而,我们认为,无论其内部芯片如何努力,Nvidia 公司仍然是 Google(以及其他超大规模厂商)的关键合作伙伴。换句话说,我们不认为 TPU 直接与 Nvidia 竞争,而是认为它是一种能力,通过其紧密集成硬件和软件的能力,为 Google 带来差异化优势。它还允许 Google 更好地管理加速器需求和供应之间的差距。无论如何,访问 Nvidia 的 CUDA 生态系统对于为开发人员提供选择以及能够提供对全球最大、最重要的 AI 生态系统的访问至关重要。

本次深度分析的更大背景是,Google 多年来一直在数据平台层进行艰苦的工作。它不仅仅是 BigQuery。它是其上的元数据层,以及与操作数据库 Spanner 的集成。在我们看来,Google 是唯一一家在数据平台方面与 Snowflake 和 Databricks 具有有意义竞争力的超大规模厂商——这项工作是为现在出现的代理平台故事而进行的长期建设。

这就是对话开始变得真正有趣的地方。几十年来,行业建立了孤岛——分析数据孤岛和操作应用程序孤岛。如果代理是孤立的,那么能够感知、推理、决策、行动和学习的业务转型代理就不会释放太多价值。你最终会实现自动化,但你不会改变业务的运作方式。

这就是 Kurian 本周提出的前提的背景。行业已经超越了基于检索增强生成(RAG)的聊天机器人——请求并接收答案——进入了一个代理和代理团队代表人类采取行动的世界。这种转变将一套新的基础设施要求拉入了关键路径。它必须是集成的。

Google 的定位是,它相信自己是唯一能够将所有组件——芯片、基础设施、数据、模型、应用程序和服务——整合到一个连贯的代理工作负载系统中的“全栈”超大规模厂商。与此同时,许多前沿模型供应商没有云平台,这为 Google 创造了结构性优势,因为它试图将模型能力转化为企业部署。Kurian(和其他高管)在整个会议期间展示了下面的堆栈幻灯片(和变体),以强调这一点。

要点:TPU 8 是头条新闻,但更重要的故事是 Google 试图将其芯片、数据平台和前沿模型姿态连接到集成代理平台叙事中。

软件即服务:为什么代理迫使整个企业重新架构

在本节中,我们回顾了我们关于软件行业如何变化的框架。在本研究报告的后面,我们将映射 Google 的模型,并尝试调和它如何适应我们对未来的愿景。

下图的核心思想是,在我们的研究中,我们认为整个软件行业模式正在发生变化,从软件即服务转向 "服务即软件"。当行业从本地部署转向 SaaS 时,一切都发生了变化——技术模型、商业模型和运营模型。供应商停止交付软件,开始运营软件。价值交付变得持续——组织必须围绕这一现实进行构建。

现在正在发生的转变更为广泛。SaaS 重构主要改变了软件公司和使用它们的 IT 职能。服务即软件改变了整个企业。任何公司都可以通过将智能嵌入工作流并通过软件交付成果来减少劳动力并实现规模化。随着时间的推移,这会推动更多企业走向平台经济——奖励平台的市场往往是赢家通吃,具有软件般边际经济效益的公司在 AI 领域具有竞争优势。

代理是催化剂。如果代理生活在孤岛中,它们就不会释放太多价值。当它们端到端地改变业务成果时,它们会增加真正的价值。这就是上面幻灯片中间部分——智能系统 (SoI) 的重点。Google 推出了其 知识目录,它开始解锁我们 之前描述[4] 的 SoI 的一些功能。然而,更广泛的观点是,这一层将代理连接到企业的运营和分析现实,以便它们可以在整个业务中(而不是在单个部门内)感知、推理、决策、行动和学习。

我们试图解决的主要限制显示在幻灯片的底部。60 年来,企业建立了孤岛——分析数据孤岛、操作应用程序孤岛,然后是围绕它们形成的组织孤岛。每个部门最终都有自己的应用程序和自己的数据存储。这种结构并非为需要跨职能上下文和权限的代理而设计,这些代理需要推动诸如“压缩招聘到入职周期”、“减少报价到现金摩擦”或“缩短事件响应时间”等成果——并使用人类语言提示重新构想整个工作流,而不是通过自动化现有流程来“铺设牛道”。

主要收获
  • SaaS 改变了软件供应商和 IT——服务即软件改变了整个企业,因为它们以更少的劳动力进行扩展并通过软件交付成果;
  • 代理在跨孤岛操作时创造价值——而不是在自动化孤立任务时;
  • SoI 成为企业“智能层”——一个知识/目录式的控制点,位于记录系统和部门数据/应用程序堆栈之上。

数据平台成熟度的五个阶段:通往数字孪生的入口

下图是数据平台从部门报告到开始类似于企业数字孪生(组织的实时数字表示)的成熟路径。当我们讨论这个概念时,我们经常指出,在数据业务中,我们历史上以数据库理解的“字符串”来思考。在这里,我们以不同的方式思考——以人类理解的概念来思考,例如人、地点、事物和活动(例如,流程)。

我们相信这代表了软件的深刻转变。智能系统是一个新兴的层,也许是新兴 AI 软件堆栈中最有价值的部分。它不能建立在一堆不连贯的指标和仪表板——商业智能基础设施之上。相反,它需要一个以代理可以理解的方式建模业务的底层——具有足够的上下文、及时性和一致性——以推动可信赖且可大规模重复的决策和行动。

在图表的左侧,一级是大多数公司开始的地方——针对孤立的操作应用程序运行报告。它主要是手动的,主要是部门级的,并且很少有自助服务。二级是现代数据平台故事开始的地方——BigQuery、Snowflake 或 Databricks 式的方法,团队标准化关键指标和维度,以从不同应用程序中提取“立方体”。这改善了自助服务,但实际上组织仍然像拥有自己的数据和真相视图的部门一样运作。

三级是迈向业务建模而不是仅仅报告业务的第一个真正步骤。实时事件开始从操作系统流入数据平台,数据平台反过来丰富这些事件。实体和事件开始相互加强,这就是“上下文”成为你可以实际计算而不仅仅是描述的东西的地方。

四级五级进入行为建模和预测。这就是 Salesforce Data Cloud 或 SAP 的数据云等产品的方向——从其应用程序足迹中派生出的流程模型,具有更丰富的行为模式和预测信号。重要的细微之处在于这些不必成为围墙花园。将它们视为在当今数据平台之上增加价值的层,并提高保真度和可操作性。

北极星是数字孪生——企业的实时数字表示,它捕获人、地点、事物和活动/流程。这是在之上叠加智能系统并期望代理做更多事情而不仅仅是自动化小任务的先决条件。

主要收获
  • 一级到二级是从报告到自助服务分析——但仍然主要是部门级的;
  • 三级增加了实时事件和更丰富的业务建模——实体和事件相互丰富;
  • 四级和五级引入了行为洞察和预测——作为叠加/增值层,不一定是围墙花园;
  • 最终状态是企业的数字孪生——智能系统和成果级代理所需的底层。

连接非确定性与确定性:代理缺失的步骤

现在我们转向代理要自信地采取行动必须发生的交接。生成层赋予你创造力——例如,令牌、语言、合成、探索。但企业行动需要确定性——规则、护栏和可审计的轨迹,说明发生了什么、为什么发生以及系统接下来应该做什么(以及被允许做什么)。在我们看来,这是顶部非确定性智能与底部确定性执行之间的核心桥梁——它们紧密结合,足以让你信任结果。

最简单的思考方式是目标和护栏。代理有目标——它们试图完成什么——和护栏——它们必须做什么以及它们必须遵守的规则。这些后续阶段是确定性层,将“智能”转化为“安全且可操作”(如下)。

在此幻灯片中,四个阶段将成熟度模型从“分析辅助人类”转变为“系统协调工作”:

  • 六级——企业知识图谱:这是关系图——我们有时称之为企业的 4D 地图。这里使用的例子是金融服务——债券发行人、他们发行的债券以及购买它们的投资者。重点不是债券示例。重点是企业需要一流的对象和关系,以便代理可以遍历现实,而不是电子表格。
  • 七级——语义行动层:这是行动建模的地方。护栏变得更丰富,因为你从“世界即关系”转向“世界即带约束的行动”。这是企业开始表达可以做什么——在什么条件下——以及在行动之前和之后必须满足什么条件。
  • 八级——实时数字孪生:六级和七级仍然是叠加层——它们引用底层的分析状态和操作系统。八级是模型成为事实来源的地方。这是传统系统开始被拔掉插头的时候。数字孪生不再是报告层——它是操作的核心
  • 九级——自主操作平台:这是模型的远端。工作流逻辑本身作为数据存储,这意味着系统可以学习、优化和持续改进。此时,组织不仅仅是运行工作流——它还在完善和优化它们。

在我们看来,这如此重要的一个原因是它回答了不断出现的“你如何实现?”问题。具体来说,当我们第一次认真地提出服务即软件时,Geoffrey Moore 的反馈是——这个想法很有吸引力,但企业需要具体的步骤才能从 A 点到 B 点。最后两张幻灯片——数据平台成熟度的五个阶段和这四个确定性阶段——是填补这座桥梁的工作。这也是为什么,坦率地说,这是迭代的。我们认为模型在 1 月份就“完成了”——然后它变得更深入,因为确定性层是难题所在。

底线:代理在孤岛中不会显著加速价值。当它们能够导航企业状态、在规则下采取行动并留下审计跟踪时,它们会复合价值。这是我们看到的生成输出和受控执行之间的桥梁。

全栈数字孪生:将规则转化为专业知识

下图是确定性层之后的下一步。底部堆栈——映射加规则——是使代理安全的部分。它定义了允许什么、必须满足什么条件以及如何在不破坏业务的情况下执行操作。但这只涵盖了公司实际运作方式的一小部分。更大的一部分是默会知识——人们称之为“部落知识”的东西——当规则冲突、数据不完整以及情况模糊时,专家会做什么。

这就是为什么上图将确定性数字孪生(橙色/金色“脚手架”)与认知数字孪生(蓝色“结晶”)分开。确定性层是受控的骨干。认知层是组织如何捕获决策背后的“为什么”并随着时间的推移进行学习。

去年年底在风险投资和供应商社区中引起病毒式传播的“上下文图”讨论[5],本质上就是关于这个问题。当确定性逻辑失效时,上下文就是你所寻求的。逻辑工作流是:

  • 代理在规则和映射中运行,直到遇到异常;
  • 异常转交给人类——人类参与其中;
  • 系统从人类的推理轨迹中学习——强化学习将这些轨迹转化为随着时间推移改进的性能;
  • 系统因错误行动而受到惩罚,因正确行动而获得奖励,这会产生飞轮效应,其中规模法则开始发挥作用,成果可以投入运营。

重要的细微之处在于,你不能仅凭确定性规则来覆盖整个企业。在上面提出的观点中,规则是必要的,但它们并非全部。公司的大部分运作都存在于判断、冲突解决、优先级排序和经验中。这是 90% 的问题。

这里引用的“黄金标准”示例是一家名为 Mercor Inc[6] 的公司。这个概念是,即使实施困难,专家也会教授他们的思维过程,教授如何评估推理过程,甚至教授错误的推理是什么样的。这种“教学和评估”循环是捕获专家判断背后“为什么”的唯一可靠方法。其他方法试图以更低的成本实现,因为对专家的负担较小,但它们会失去保真度。

解释机制的一种简单方法是惩罚和奖励:如果代理说一加一等于三,它就会受到惩罚;如果它说一加一等于二,它就会得到奖励。随着时间的推移,你会获得复合的行为改进。这就是飞轮。

与早期幻灯片的关键联系是,确定性规则使默会知识捕获更容易。当规则明确时,你缩小了模糊性的范围。人类不必解释所有事情,只需解释异常——系统可以更快地学习,因为它确切地知道规则何时不再足够。

这与 Google 相关,因为代理平台对话开始显示出更高的成熟度。它仍然处于早期阶段,但步骤变得越来越清晰——本周在 Google Cloud Next 2026 上的深入探讨强化了前进的道路不仅仅是更强大的模型。这很重要,但确定性脚手架与系统地捕获和完善专家判断相结合,代表了当今的最新技术。

底线:确定性孪生使代理安全。认知孪生使其大规模有用。复合效应来自于将两者紧密集成,从而使异常成为训练数据,专业知识转化为资产。

将 Google 的数据+AI 公告映射到智能系统和代理系统

我们认为解码 Google 的数据和 AI 公告最有效的方法是剥离产品名称——“知识目录”和“代理平台”——并将底层功能映射到我们之前在本研究中描述的层。Google 的术语与我们的术语略有不同。Google 倾向于将“智能系统”称为现代数据堆栈,将“代理系统”称为新的代理层。我们的观点不同——智能系统是协调层,它使行动安全且可重复,并且它最终为代理系统提供支持。

理解不同的语言并将 Google 的说法映射到我们的功能层面有助于突出进展和差距。

智能系统:Google 拥有什么,以及仍然缺少什么

一级——映射层(实体和血缘) Google 正在进行实际工作,提取数据库管理系统技术元数据和血缘。它还将非结构化、面向文档的默会知识提取到知识图谱中——我们承认这很先进。不足之处在于统一。Google 可以提取实体,但尚未将这些实体跨系统统一为单一的权威参考。“客户”出现在许多地方。解决所有这些系统中的“客户”仍然是困难的部分。至少这是我们目前对 Google 现状的理解。

正如我们之前所说,一种实际的说法是,数据库存储字符串——知识图谱希望用人们理解的事物来表达。从字符串到事物——然后从事物到活动和流程——是实现巨大价值的地方,也是工作变得困难的地方。

二级——规则层(从维度语义到应用语义) Google 的目录捕获数据质量规则、BI 指标和业务词汇表内容——维度语义。这很有用,但它未能完全实现应用语义——那些纠缠并埋藏在传统应用孤岛中的业务流程规则。这一层是 Palantir Technologies Inc. 经常作为我们工作的参考点——不是因为它涵盖了所有内容,而是因为它展示了当你深入研究时,“作为数据的流程规则”是什么样子。我们相信 Google 希望覆盖比 Palantir 在其速度和受限领域内所能覆盖的更广泛的范围——但这并不能使这一步变得更容易。这也不意味着 Palantir 及其首席执行官 Alex Karp 没有扩大其范围的雄心。

三级——机构记忆(如何与为何) Google 拥有捕获代理推理并存储它的基础。统一的跟踪查看器(Google Cloud Trace 中的 Trace Explorer)是一个真正的进步,因为它显示了代理如何达到结果。这与捕获人类专家推理——即“为什么”——不同,后者驱动判断和信心。这是一个细微的差距,但它是重播路径与学习可以信任的决策系统之间的区别。

四级——决策指导(上下文合成,信心仍然薄弱) Google 可以合成上下文并实现复杂的多重检索。这允许代理检索更多相关材料并做出判断。缺少的部分是智能系统本身自信的、有评分的指导——能够说“这是要做的事情,这是我们的信心分数”,并以人类级别的“为什么”库和流程感知语义为基础。如果没有“为什么”,系统可能会感觉更接近静态机构记忆,而不是决策指导。

代理系统:学习循环是关键

在代理系统方面,关键要求是学习循环——每一层都需要反馈。代理工作、获得评分、得到强化,然后你加速价值。这就是 Google 的代理评估和优化工作的重要性所在。

  • 代理评估是多轮评分——评估整个链条,而不仅仅是单个请求/响应。这更接近实际工作发生的方式;
  • 代理优化器查看失败集群并提出改进建议。这很突出,因为这是它第一次开始感觉像“代理运营”,而不仅仅是代理演示。Databricks 去年展示了类似的东西,它留下了深刻的印象,因为它将失败转化为改进路线图。
为什么这种映射在现场是相关的

我们从客户那里听到了一个一致的主题,那就是存在真正的兴奋,但对于大多数客户来说,当你超越 Kurian 的主题演讲叙述时,仍然处于早期阶段——“在过去的一年里,我们不仅看到了采用,还看到了转型。” 熟练的员工正在被重新部署到构建、部署和管理代理的工作中——这是许多近期“生产力提升”的来源。换句话说,生产力故事越来越多地来自于创建代理能力的工作,而不仅仅是消费它。因此,从这个意义上说,Kurian 的宣言是站得住脚的。但对于绝大多数企业来说,这仍然是一个难以捉摸的现实。

这也解释了为什么 Palantir 在这些对话中不断出现。Palantir 的前线部署工程师 (FDE) 实际上为客户完成了这项工作——构建确定性基础(映射加规则/本体),然后在其之上叠加行动。这种确定性基础是使行动安全的原因。悬而未决的问题是,更广泛的市场如何在不需要大量专家的情况下快速构建该基础——以及 Google 如何快速将“为什么”而不仅仅是“如何”工业化,以便代理能够自信地采取行动。

底线——Google 正在棋盘上放置可信的棋子——例如,血缘 + 元数据提取,面向图谱的非结构化知识方法,多轮代理评估以及通过优化器进行故障聚类。但仍然存在差距——统一跨系统的实体,从维度语义转向真正的流程语义,以及捕获人类的“为什么”,以便决策指导变得自信、有评分且可重复。

这项工作仍在继续。

编码代理作为通用代理的入口以及 Google 的平台推动

代理平台讨论一直围绕着编码展开。市场正在趋于一个日益明显的事实,即要构建一个通用知识工作代理,你首先要从编码代理开始,因为代理与世界交互的方式是通过工具——而工具使用越来越多地意味着编写代码来调用这些工具。这就是 Anthropic 率先投入编码的原因,也是编码堆栈现在成为前沿模型供应商之间战场的原因。

我们看到竞争压力出现在许多地方。Anthropic 的 Claude Code 正在获得巨大的关注,OpenAI 正在推动 Codex,Grok 必须拥有可信的编码代理能力才能作为前沿模型具有竞争力(最近已经600亿美金收购 Cursor 补充其在编码领域的工程底座),而 Google 正在采取不同的路线,构建一个企业代理平台,试图将“harness”扩展为更广泛的东西。围绕 SpaceX 公司所有者埃隆·马斯克有可能收购 Cursor 的新闻[7]强调了这一点:如果你没有一流的编码代理故事,你很快就会落后。

最简单地说,上面幻灯片中的进展是:

  • 从编码harness开始——正确地构建编码代理;
  • 发展为基于 MCP 构建的代理操作系统/平台——具有专有扩展(内存、可观察性、开发人员控制);
  • 扩展为企业代理平台——其中治理、身份、内存和工具/行动策略成为一流公民。

Anthropic 的早期优势在于,“编码优先”路径是进入通用代理行为的最快方式。harness为开发人员提供了一个高控制环境——用户界面/命令行界面、编排、工具使用、上下文管理——它成为后来演变为更广泛知识工作代理的训练场。他们的 Conway 工作是合乎逻辑的下一步——试图在 MCP 之上组装一个更完整的平台,具有超越纯编码的专有扩展和企业功能。

Google 的推动是不同的。它试图为代理构建企业控制平面——它拥有一些前沿实验室无法轻易独立提供的东西,至少目前还没有,即使前沿实验室将平台体验的一部分剥离并存在于企业堆栈中。

我们注意到三个实际差异:

  • 治理和代理身份——身份曾经是“代理充当用户”。当代理独立工作时——以及当代理代表其他代理工作时——这还不够。安全模型必须从纯粹基于资源的控制(你可以接触什么数据)演变为基于意图的控制(在此上下文中,允许什么行动)。企业需要可在运行时强制执行的策略,而不仅仅是在登录时检查。
  • 不会成为新孤岛的内存——如果企业允许内存被困在供应商的专有堆栈中,切换成本就会飙升,组织就会重新创建孤岛——只是现在孤岛是代理形状的。内存模型必须是共享的、受控的、协调的。一些个人偏好可以保留在本地,但过程内存——工作如何完成——必须在代理和人员之间可访问,否则协调就会崩溃。
  • 统一数据和行动空间——工具和行动在一侧,内存和数据在另一侧——当它们统一时,结果就成为一个语义协调的知识图谱。我们认为这是通往企业数字孪生的路径——一个企业数字表示,代理可以自信地在其上采取行动。

总而言之,我们相信前沿实验室将继续大力推动编码代理,因为它是实现可信工具使用的最快路径。Google 的优势在于将其转化为企业级平台层——治理、代理身份、基于意图的策略和共享内存——这样客户就不会最终得到新一代的孤岛和伪装成“代理进步”的锁定。Google 和其他公司仍有工作要做,但方向正变得越来越清晰。

Google Cloud Next 2026:领先地位、新战场和 OEM 问题

Google 正在全力押注一个集成堆栈——TPU、前沿模型、数据平台、代理平台和应用程序作为一个有凝聚力的系统。这是 Google 的差异化优势。在我们看来,这是方向正确的,它也将 Google 拉入了一个新领域,在这个领域中,赢家将由采用、运营杠杆以及在不破坏安全边界的情况下将“上下文”转化为“行动”的能力来决定。我们认为 Google 在这方面拥有强大的技术故事,但其对企业的愿景声明可以用更多“钱包”而非技术术语来表达。

这给 Snowflake 和 Databricks 等公司带来了有趣的问题。这两家公司正在从读取路径“向上”攀升——从数据平台获取上下文——然后扩展到更丰富的上下文。问题是:一旦它们读取和推理完毕,会发生什么,以及它们如何将代理做出的决策投入运营?这就是行动成为差异化因素的地方,也是为什么编码能力作为代理成熟的起点如此重要。如果代理无法可靠地执行,那么所有这些上下文都只是分析剧场。

Google 正在朝着正确的方向前进——但它也正在进入 Palantir 和 Celonis SE,甚至 Salesforce Inc. 的 MuleSoft 等供应商帮助定义的集成层所占据的领域。我们认为这是困难的部分。具体来说,是跨操作系统、数据系统和工作流的协调——以及企业级的治理。我们认为,这就是我们的“智能系统”必须作为一个真正的产品层出现的地方——无论 Google 如何称呼它。

以下是一些要点:

  • 集成堆栈是 Google 的优势——也是限制。 Google 可以提供比大多数参与者更多的功能。但一旦客户要求跨应用程序协调,竞争选项就会迅速扩大——Palantir、Celonis、Salesforce、ServiceNow Inc. 等公司都对这一层有设计。Google 将与这些公司合作,但下一条很重要。
  • “SaaS 何去何从”取决于 OEM 机制和信任边界。 前沿模型参与者将与 SaaS 公司合作——悬而未决的问题是谁的模型成为首选的"OEM"选项。Gemini 在 Google 的足迹中具有定位优势。问题是当 SaaS OEM 不在 Google Cloud 上运行时会发生什么。如果数据必须离开 SaaS 供应商的安全边界才能使用 Gemini,因为 Gemini 在 Google 中运行,那么这就会成为一个摩擦点——我们已经看到企业对这一边界有多敏感。
  • 编码harness优先——因为行动是新标准。 市场告诉我们,编码是代理可信度的入口——Claude Code 和 Codex 已经证明了这一点。Google 的方法是将编码嵌入到整个平台中,而不是将其视为一个独立的产品。我们同意这是一种可行的架构——但重点是它必须完全集成到代理平台中才能最有效。如果harness是相邻的而不是原生的,它就会成为竞争对手可以利用的漏洞。
  • 生态系统飞轮正在转变——Google 正在受益。 亚马逊网络服务公司通过吸引初创公司和以技术为中心的组织进入创新飞轮,赢得了早期的云时代。我们看到 AI 领域正在出现类似的动态——希望在 AI 方面做到最好的团队正在转向 Google,这种生态系统迁移至关重要。微软公司仍然无处不在,AWS 将努力奋斗,但 AI 原生群体是 Google 的真正顺风。
  • TPU 容量是战略优势——即使 Nvidia 仍然是参考模型。 Google 是少数在定制加速方面拥有真正深度的参与者之一。这使其在供应和成本方面具有杠杆作用。但我们仍然希望认真的客户将 Nvidia 纳入其中——因为生态系统和低成本曲线仍然在那里设定。我们将在下一页添加一个关于此主题的额外幻灯片。

底线:Google 似乎在代理平台对话中占据了领先地位,因为它能够提供完整的堆栈,并且其数据平台多年来一直在进行艰苦的工作。剩下的工作是困难的部分——将“读取上下文”转化为“采取行动”,以企业规模构建协调层,并解决 OEM/边界问题,以便 Gemini 可以在数据所在的地方使用,而不仅仅是在 Google 运行的地方。

TPU 8 和“GPU 丰富”优势

我们以相同的主题开始和结束:TPU。最后一点改变了整个一周的基调——Google 的 TPU 容量使其在 AI 计算方面具有结构性优势,并将体现在产品速度上。

下面 Epoch AI 关于“H100 等效”容量的图表表明,Google 拥有比任何其他云更多的 AI 计算能力,这主要得益于 TPU——与 Nvidia 相比,这是一种蛮力方法,但它让 Google 能够控制自己的供应和部署命运。

这与 Latent Space 播客上提出的一个概念有关:“GPU 丰富”与“GPU 贫乏”。Google 看起来“GPU 丰富”,这有助于解释为什么生成式 AI 和代理广泛出现在其产品线中。相比之下,微软在此幻灯片中看起来“GPU 贫乏”——这有助于解释优先级决策(Office 优先)、其 Azure 服务中生成式 AI 启用不均衡的推出,以及它在堆栈其他地方造成的下游压力。

需要指出另一点:这都不是“TPU 正在侵蚀 Nvidia 的护城河”。对加速计算的需求如此之大,以至于高质量的加速器将畅销,很大程度上是因为 Nvidia 无法满足所有需求。Google 将主要使用 TPU 来为其自身服务提供动力——而不是作为商业芯片供应商。不得不敬佩 Dave 在任何场合都在看好英伟达 以下是一些要点,以巩固此分析:

  • TPU 容量应转化为功能速度——Google 可以“将代理无处不在”,因为它拥有计算余量来做到这一点;
  • 微软的 AI 姿态受益于 OpenAI 关系和 Nvidia 分配,但权衡体现在产品优先级和云服务节奏上;
  • 亚马逊的地位看起来不同——Trainium(以及将 Inferentia 整合到该路线图中)是真实的,但 Google 似乎正在以其年度节奏和平台一致性脱颖而出。
  • Nvidia 仍然是销量领导者,CUDA 仍然是主导的开发环境——“捆绑”策略(CPU+GPU+网络+系统级架构)提高了所有人的门槛。

总而言之,我们认为 Google 的 TPU 优势与其说是声称“Nvidia 替代品”,不如说是为了让 Google 自己的堆栈更快地发展——尤其是在软件层,容量成为选择性启用和普遍代理推出之间的区别。

CIO、CTO 和 AI 架构师的行动项

在接下来的 30 到 60 天内,与 Google、AWS 和 Microsoft Azure 进行一次结构化的“代理平台烘焙测试”。将其强制纳入一个跨多个系统的合成生产工作流(而不是演示)。选择一个高价值的端到端流程,将其与您的实际数据和策略绑定,将 Apache Iceberg 纳入其中,并根据安全性/可审计性、跨系统的语义一致性、价值实现时间以及保持其运行的操作要求等指标进行评分。

您的目标应该是通过证据回答以下问题:Google 的集成堆栈(数据平台代理平台+控制平面)能否成为您的代理运行的受控层,还是它仍然是一组强大的组件,仍然需要太多的定制粘合剂? 如果它通过了这一障碍,我们建议更深入地与 Google 合作;如果不能,则将其视为战术能力。无论如何,目前,请保持您的控制平面策略供应商中立,直到业务价值清晰度大大超过锁定风险。

图片:theCUBE Research/ChatGPT

原文标题:Google’s AI agent platform takes pole position but work remains

---【本文完】---


  1. https://siliconangle.com/author/guestauthor/ ↩
  2. https://siliconangle.com/2026/04/22/google-unveils-new-tpus-power-next-wave-ai-training-inference/ ↩
  3. https://www.youtube.com/watch?v=PJQPMv8TLA ↩
  4. https://thecuberesearch.com/systems-of-intelligence-the-next-generation-of-enterprise-applications-built-on-big-data/ ↩
  5. https://www.forbes.com/sites/josipamajic/2026/04/03/vcs-say-context-graphs-might-be-the-next-big-thing-in-ai/ ↩
  6. https://www.mercor.com/ ↩
  7. https://siliconangle.com/2026/04/22/spacex-partners-cursor-ai-training-floats-potential-60b-acquisition/ ↩
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-04-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 王知鱼 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 开场设置:TPU 8、数据基础以及从聊天到行动的转变
  • 软件即服务:为什么代理迫使整个企业重新架构
    • 主要收获
  • 数据平台成熟度的五个阶段:通往数字孪生的入口
    • 主要收获
  • 连接非确定性与确定性:代理缺失的步骤
  • 全栈数字孪生:将规则转化为专业知识
  • 将 Google 的数据+AI 公告映射到智能系统和代理系统
    • 智能系统:Google 拥有什么,以及仍然缺少什么
    • 代理系统:学习循环是关键
    • 为什么这种映射在现场是相关的
  • 编码代理作为通用代理的入口以及 Google 的平台推动
  • Google Cloud Next 2026:领先地位、新战场和 OEM 问题
  • TPU 8 和“GPU 丰富”优势
  • CIO、CTO 和 AI 架构师的行动项
    • 图片:theCUBE Research/ChatGPT
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档