首页
学习
活动
专区
圈层
工具
发布

Agent 暴论:你不是造物主,是保姆

如果之前写的《深度解析:Harness Engineering》、《AI 操作系统:从指令到意图》、《Agent 趋势浅思:原生化 & CLI 化》没看太明白,可以读读本篇大白话。我今天有感而发写了一段话,让 AI 扩充了一些细节,整理成文:

我个人感觉 harness 只是工程化概念,核心还是意图驱动系统为 agent 服务,其实是 human 在“学习/探索”怎么伺候 agent,而不是教 agent 做事。

我们把方向搞反了。

这几年围绕 agent 的所有努力——prompt engineering、harness engineering、RAG、workflow、memory、evaluation——表面上看,是人类在驯化一种新型工具。但仔细想想,驯化的方向其实不太对。驯化意味着让对方变得像你,服从你的逻辑,适应你的节奏。可我们实际在做的事情,恰恰是反过来的:我们在改造自己的知识结构、表达习惯和工作流程,去适配一个概率性系统的认知偏好。

我们以为自己在教 agent 做事。实际上,我们是在学习怎么伺候它。

这句话之所以让人不舒服,是因为它戳破了一个默认假设:人类是主体,AI 是客体。这个假设在传统软件时代几乎完全成立。一个数据库不需要你“照顾”它的注意力分配,一个 API 不会因为你的描述不够结构化就误解你的意思,一个函数也不关心你用什么语气调用它。传统软件是死的。死的东西不需要被伺候,只需要被使用。

但 agent 不是死的。

这里说的“不是死的”,不是在暗示它有意识,而是一个更朴素、也更工程化的判断:agent 的行为是涌现的,不是预设的。你给它一个目标,它不是沿着一条预定义的执行路径走到终点,而是在一个概率空间里反复采样、试探、修正。这个过程带来一个非常重要的后果:它的表现高度依赖于它所处的环境。相同的模型、相同的任务,换一种上下文组织方式,换一种工具暴露策略,换一种反馈时机,结果都可能天差地别。

这意味着什么?意味着agent 的能力不是一个固定值,而是一个关于环境的函数。

你以为你在调教模型,其实你在调教环境。你以为 harness engineering 是给 agent 装缰绳,其实它更像是在为 agent 构造一个更适合它运行和存活的生态位。

一旦意识到这一点,很多事情就开始不对劲了。

比如,我们嘴上说“让 AI 为人服务”,但实际工作中花费精力最多的部分,恰恰是把人类的知识重新切割、清洗、结构化,让它变成 agent 能消化的形状。我们重写文档,不是因为文档对人不好用,而是因为它对 agent 不够友好。我们设计 prompt,本质上是在学习一种新的语言——不完全是人类的语言,而是模型更容易稳定接收的语言。我们构建 memory 系统,也不只是为了帮人记住东西,更是在帮 agent 跨时间、跨任务地记住东西。

这些工作的直接受益者到底是谁?

当然,最终受益者还是人,因为 agent 做完事之后,成果会回到人手里。但在过程中,人类扮演的角色已经悄悄从“使用者”滑向了“饲养员”。我们在喂数据,喂上下文,喂结构化的世界模型,喂精心设计的行动空间。我们甚至在喂“情绪”——不是真的情绪,而是通过 prompt 中的语气、结构和强调方式,去影响模型的输出倾向。

海德格尔有一个非常著名的判断:技术的本质不是单纯的工具性,而是一种“座架”(Gestell),它会重新安排人与世界的关系,让一切都朝着“可被征用、可被调用”的方向展开。他担心的是,人也会被技术的座架重新编排。而今天正在发生的事情更诡异:不是人被 AI 强行征用,而是人主动把自己的知识、流程和判断力,重新铸造成 AI 可以征用的形状。没有谁强迫你这么做,市场压力、效率逻辑和竞争结构,自然会把你推到那个位置。

再说 harness engineering 本身。

这个概念当然重要,但它的重要性属于哪一类?我更愿意把它看成一种带有强烈过渡色彩的工程修补术,而不是终局性的答案。Agent 会跑偏,于是加护栏。Agent 会忘事,于是加 memory。Agent 会乱用工具,于是加权限控制。Agent 的输出不稳定,于是加评测、检查和回退机制。每一条都合理,每一条都必要,但它们首先都在处理一个已经暴露出来的问题,而不是直接回答那个更根本的问题:

为什么 agent 需要这么多外部结构,才能相对正常地工作?

答案其实并不复杂,但很深:因为当前模型能力与现实世界的组织方式之间,存在巨大的错配。

不是简单地说模型不行。模型在它被训练的那个分布里,很多时候已经很强。真正麻烦的是,当我们把任务交给它时,顺带交付给它的那个运行环境,往往是碎片化的、断裂的、延迟的、模糊的:知识是散的,边界是糊的,反馈是慢的,状态是断的,意图是欠表达的。Agent 在这样的环境里挣扎,然后我们怪它不够聪明,于是再往它身上绑更多的 harness。

这有点像在一间漏雨的房子里给人加雨衣。雨衣有用吗?当然有用。但问题首先出在屋顶。

所以,今天很多 harness engineering 的真实身份,更像是一门过渡时代的修补术。它修补的未必只是 agent 的缺陷,更是在修补这样一个事实:人类还没有真正学会如何为 agent 构建合格的运行环境。等我们学会了——等知识的组织方式、任务的表达方式、环境的反馈机制,都进化到更原生地适配 agent 的程度——今天这些 harness 中的很大一部分,都会像脚手架一样被拆掉。

但这里还有一个更值得玩味的层面。

如果 harness engineering 只是过渡,那它过渡的终点是什么?“更强的模型不再需要 harness”——这是很多人的直觉。模型足够强,自己就能处理模糊意图,自己就能管理状态,自己就能识别边界,harness 就可以退场。

我不太相信这个叙事。

因为它暗含了一个预设:智能只要足够强,就能脱离环境而独立运转。但这在自然界里几乎从未发生过。人类智能是已知最强的通用智能,但人类从来不是脱离环境运行的。语言是环境,制度是环境,文化是环境,城市是环境。人类智能不是在真空中强大的,它是在极其丰富的环境支撑下才变得强大。离开这些环境,一个智力正常的人连活过一个冬天都费劲。

所以更可能的终点,不是 “agent 不再需要环境”,而是“环境变得如此自然、如此内化,以至于我们不再把它单独看作 harness”。就像今天没有人会把公路系统叫作“汽车的 harness”,但公路系统其实一直在承担 harness 的核心功能:引导方向,限定边界,提供反馈(路标、红绿灯),管理流动状态(车道、匝道),吸收错误(护栏、缓冲区)。它之所以不再被当作一个额外组件,不是因为它不重要,而是因为它已经长进了基础设施本身。

Harness engineering 的终局,大概也是类似的消失——不是因为不需要了,而是因为它已经长进了世界的骨头里。

所以我真正想说的是:

“伺候 agent” 这个说法不是自我贬低,而是一种认知上的诚实。我们正处在一个非常特殊的历史窗口:模型能力已经跨过了“可用”的门槛,但围绕它的世界还停留在“凑合”的阶段。这个落差,就是当下大部分痛苦的来源——agent 不稳定、不可靠、需要大量人工兜底——其根本问题,很多时候不是 agent 本身,而是它所面对的世界还没有被组织好。

而填补这个落差的过程,表面上是工程,骨子里却是一场人类的自我训练。它训练我们把意图从模糊变成精确,把知识从散装变成结构化,把判断从内隐变成外显,把“我觉得差不多了”变成“系统可以验证这件事已经完成了”。

这些能力并不是为了伺候 AI 才重要。它们本来就重要。只是在过去,模糊一点、松散一点、凑合一点,很多事也能办成,所以没有人在意。是 agent 逼着我们开始在意了。

也许这就是 agent 时代最反直觉的一课:它表面上像是一场关于机器智能的革命,到头来,被革命的却是人自己的思维方式。我们以为自己在发明一套伺候 AI 的基础设施,直到某天回头一看,才发现那套基础设施真正重塑的,其实是我们自身——我们理解世界的粒度,表达意图的精度,以及我们对“把事情做好”这五个字的全部定义。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Ou4DIk1JvgWTh0fJWuDOGEWA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券