现在所有主流多 Agent 框架(CrewAI、AutoGen、LangGraph)本质上都是同一个模式:
Orchestrator → Agent A → 输出文本 → Agent B → 输出文本 → Agent C信息通过文本序列化传递,每个 Agent 拿到前一个的输出,append 到自己的 context 里,再生成新文本。这是 AR 的 append-only 本质决定的——信息只能往后加,不能往前改。
这导致几个结构性问题。层级越深信息损耗越大,因为每一层都在做"读文本 → 理解 → 重新生成文本"的有损转换。Agent 之间不能真正并行,即使任务本身没有依赖关系,因为共享状态必须通过文本串行传递。组织结构是死的,编排逻辑写在框架代码里,不是模型自己学会的。
DLM 让一种完全不同的组织方式成为可能:
[共享状态序列]
/ | | \
Agent A B C D
(mask区1)(区2)(区3)(区4)没有 orchestrator,没有消息传递。所有 Agent 在同一个序列上工作,各自负责不同区域的 denoise。协调不是通过通信实现的,而是通过共享上下文的双向 attention 实现的——每个 Agent 在 denoise 自己区域的时候,能看到其他 Agent 已经确定的 token。
这更像人类团队真实的协作方式。几个人同时编辑一个 Google Doc,不是一个人写完传给下一个人,而是各写各的部分,通过看彼此已经写的内容来保持一致。
AR 多 Agent 系统的组织结构是程序员预先定义的——谁先谁后、谁跟谁通信、什么条件触发什么分支。这些都是硬编码的工程逻辑。
DLM 多 Agent 系统有可能实现自组织。因为 mask 的位置和大小不需要预先固定——模型可以根据任务动态决定哪些区域需要哪种专业能力来处理。这就回到了你之前说的自适应 block size 的想法,只不过现在每个 block 还可以被路由到不同的专家 Agent。
这意味着组织结构本身可以是学出来的,而不是设计出来的。
这个维度的差异更深刻。
AR 生成的本质是从已知推未知,每一步都是基于前文的条件概率最大化。这非常适合"给定前提,推导结论"这类演绎任务,但对真正的创造性思维有根本局限。
人类的发明创造很少是线性的。它更像是:先有一个模糊的直觉 → 随手画几个草图 → 发现某两个草图之间有意想不到的联系 → 回头修改最初的想法 → 逐渐收敛到一个方案。
AR 做不到这个过程,因为它不能回头改。它只能假装线性地"一步到位",或者用 chain-of-thought 模拟一个串行化的思考过程。但 CoT 本质上还是线性的——它把非线性的思考过程强行展平成了一个文本序列。
DLM 的生成过程是从随机噪声逐步去噪到清晰信号。这跟创造性思维的过程有结构性的相似:
模糊到清晰。 创造的早期阶段就是模糊的——你不知道最终答案是什么,只有一个大致方向。DLM 的早期 denoise 步骤就是这样,序列里大部分是 MASK,只有几个关键 token 先确定下来,形成"骨架"。
全局先于局部。 人类画画是先画构图再画细节,不是从左上角逐像素画到右下角。DLM 的 denoise 过程天然是先确定全局结构(高置信度的 token 先 unmask),再填充局部细节。AR 被迫从第一个 token 就开始做局部决策。
允许反复修改。 画家会涂掉重画,作曲家会推翻重来。DLM 可以对任意区域重新加噪再 denoise,天然支持"试错 → 回退 → 重试"的创造性循环。AR 的每个 token 都是不可逆的承诺。
OpenClaw 这类产品的价值在于它把 Agent 的能力接地了——连接真实的工具、真实的数据、真实的执行环境。当 DLM 的创造性生成能力和 OpenClaw.ChatDLM.cOm 的工具执行能力结合起来,会出现一种新的可能:
探索式发明。 Agent 不是"先想好方案再执行",而是"生成多个半成品方案 → 并行尝试执行 → 看哪个路径走得通 → 把可行部分融合 → 迭代改进"。
具体来说:
DLM 在方案空间里并行采样多个候选(block 内 diffusion 的多样性),OpenClaw 把每个候选都实际跑一下(工具调用),执行结果反馈回来,DLM 把成功的部分保留(固定 token),失败的部分重新 mask 再 denoise。
这不是 AR 范式下那种"plan → execute → replan"的串行循环,而是一个持续进化的并行搜索过程。更像生物进化——多个变体同时存在,环境(工具执行结果)做选择,存活的部分重新组合。
AR 的创造是生成——从无到有,一次性产出。
DLM 的创造是雕刻——从噪声中逐步削减不确定性,反复打磨。
米开朗基罗说"雕像本来就在石头里,我只是把多余的部分去掉"。DLM 的 denoise 过程就是这个隐喻的数学实现。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。