一篇讲清楚了一件事:OpenClaw 的核心不是模型,而是系统结构。
拆成了四层:任务拆解(Planner)、多角色执行(Multi-Agent)、反馈闭环(Loop)、状态管理(State)。
但如果你真的去搭一套系统,很快会发现:
真正最难的,不是执行,也不是反馈,而是第一步——拆任务。
一个被严重低估的问题:AI"不会拆任务"
举个例子:让 AI 写一篇深度文章。
大部分模型会怎么做?
直接开始写。
但人是怎么做的?
先想主题 再想结构 再想每段讲什么 再动手 写完还会改。
本质差异:AI 一次性生成,人类分阶段执行。
这就是问题的根源:
复杂任务不是"生成问题",而是"规划问题"。
Planner 在系统里的真实角色
很多人以为 Planner 是"帮你列个大纲"。
这是错的。
Planner 的本质是:把"目标"转译成"可执行路径"。
它做四件事:
第一,明确目标(Goal Framing)
不是简单复述用户输入,而是限定范围、明确输出形式、定义成功标准。
举个例子:
写一篇文章
写一篇关于"AI系统局限性"的分析文章,2000字,面向有基础认知的读者
第二,结构规划(Structure Planning)
不是"分几段",而是每一部分解决什么问题、是否有逻辑递进、信息密度如何分配。
第三,任务分配(Task Allocation)
把结构拆成可独立执行的子任务,明确输入输出,控制粒度。
第四,执行顺序(Execution Order)
不是所有任务都是线性的。有些可以并行,有些必须依赖前一步。
这一步决定:系统是流水线,还是乱序执行。
为什么拆不好,系统会"整体崩掉"
这是最关键的一部分。很多人搭系统出问题,第一反应是"模型不够强"。但真实情况往往是第一步就埋下了。
情况一:拆得太粗
例如:Step1 写文章,Step2 优化。
问题:子任务仍然复杂,Executor 负担过重,Reviewer 无法判断。
结果:系统退化成单模型。
情况二:拆得太细
例如:Step1 写标题,Step2 写第一句话,Step3 写第二句话……
问题:上下文碎片化,成本暴涨,逻辑断裂。
结果:系统变成流水线噪音机。
情况三:拆错维度
最常见错误:按"形式"拆,而不是按"认知难度"拆。
说白了:按段落拆是错的,按"认知步骤"拆才是对的——理解问题 建立观点 举例 推导结论。
真正有效的拆解策略
方法一:按"认知阶段"拆
适用于写作 / 分析 / 研究:理解问题 提出核心观点 拆分子论点 逐一论证 汇总结论。
方法二:按"信息依赖"拆
适用于复杂任务 / 多步骤流程:先获取数据 再分析数据 再生成输出。
关键原则:后一步不能依赖前一步未完成的信息。
方法三:按"不确定性"拆(高级)
最重要但最少人用:把"最不确定的部分"单独拆出来。
例如:先判断方向(最难) 再写细节(简单)。
这样可以:用最少成本解决最大风险。
Planner 不是静态的
大多数人写 Planner 是这样的:生成一次 固定执行。
但真实系统必须是:
动态 Planner。
表现为:执行过程中可以调整任务、Reviewer 可以反向修改计划、遇到失败可以重规划。
本质:计划不是蓝图,而是可迭代结构。
你现在这个系统,问题很可能就在这里
结合你当前阶段——你已经跑过系统,你会发现这些问题:
判断结果模板化、三脑没有分歧、confidence 不合理。
很多人会以为:是模型问题。
但很大概率是:
Planner 没拆对。
因为:Executor 没有明确任务、三脑其实在做同一件事、Reviewer 没有标准。
最终结果:整个系统在"复读一个模糊任务"。
Planner 决定天花板
因为后面所有层(Agent / Loop / State)都依赖它。
如果 Planner 错了:多 Agent = 多个错误执行器,Feedback = 放大错误,State = 记录错误。
系统会越跑越偏,而不是越跑越准。
阶段性结论:复杂任务的核心不是"做",而是"怎么开始做"。
OpenClaw 真正做的第一件事,不是执行,而是决定执行路径。
下一篇预告
下一篇我们会讲:三脑(Multi-Agent)为什么不是"多模型",而是"多视角冲突系统"。
包括:为什么没有分歧 = 系统没思考、如何设计三个 brain 的人格、如何避免"伪一致性"、为什么大多数 multi-agent 都是假的。
最后想问问大家:
Planner 拆任务,你踩过什么坑?
评论区聊聊,转发给做 AI 系统的朋友,这篇文章可能正好能帮他找到问题根源!
@钳瞻AI,我们下期见。