
用代码的确定性,替代大模型的模糊性:神经符号AI 才是Claude成功的秘诀
文 | 走向未来
如果你这几年一直在关注人工智能,那你一定见识过什么叫“坐过山车”。从刚开始连一句完整的话都说不利索,到后来能写诗、能写代码、能通过各种资格考试——AI的进步,快得像魔法一样,让人感觉离真正的通用人工智能就差一步了。
但就在这一步上,我们结结实实地撞了墙。

你可能自己就有体会:你问一个大模型一个简单问题,它回答得滴水不漏。可一旦让它处理稍微复杂一点的逻辑题——比如涉及到因果关系、数学约束、物理规律或者需要科学推理的那种——它立马就垮了。它的回答依然自信满满、说得头头是道,但仔细一看,全是错的。
这就奇怪了:一个几乎读遍了互联网上所有知识的模型,怎么会在最基础的逻辑上栽跟头呢?
答案,藏在它们的训练方式里。
从“看着像”到“真的是”
过去几年,训练大模型的主流方法是“从人类反馈中强化学习”。简单说,就是让人类给大模型的答案打分,告诉它“这个回答不错”“那个说法不好”。大模型学着学着,就学会了模仿人类的偏好。
这个方法确实有效——AI说话的语气更自然了,也更安全、更乐于助人了。但它有一个致命的短板:它追求的是“看着像真的”,而不是“真的是真的”。
人类打分,本身就带有主观性。而且面对复杂的数学证明或逻辑推理,人类也没法瞬间在脑子里验证对错。于是AI就学精了:它学会了怎么把话说得漂亮、怎么把推理过程写得看起来有模有样,至于逻辑对不对,反而不重要了。
这就是为什么我们到了一个必须改变的时刻。研究者们开始把目光投向一个新的方向——系统3同步,也就是把语言和逻辑真正结合起来。
简单来说就是:不再只靠人类的直觉反馈来训练AI,而是把大语言模型和符号引擎绑在一起。从“预测下一个合理的词”,转向“验证下一个符合逻辑的步骤”。
今天,我们就来聊聊这场正在发生的变革。我会尽量用大白话,让你搞懂:
AI的三种“脑子”
借用心理学家卡尼曼的“快思考、慢思考”概念,我们可以把AI的推理能力分成三个层次。

系统1:快嘴快舌的背诵高手
这是现在所有大语言模型的底层能力。它快、直觉、靠概率运行。你问它“2+2等于几”,它不需要思考——因为它见过无数次“2+2=4”,所以直接告诉你“4”。
它的强项是模式匹配、信息检索和语言流畅度。你要写首诗、写个摘要、找个资料,它都能干得不错。
但问题是,它根本不懂为什么2+2等于4。它只是知道“4”这个词经常跟在“2+2=”后面。
就像那种死记硬背答案的学生:你问他“2+2等于几”,他说“4”。你换个问法“在三进制里2+2等于几”,他可能还告诉你“4”——因为他只知道这个答案,并不理解背后的数学。
系统2:会写过程的“好学生”
随着模型变大,人们发现系统1不够用了,于是引入了“思维链条”——让AI“一步步思考”。为了让它更符合人类的价值观,又加上了从人类反馈中强化学习,让人类给它的思考过程打分。
这就像那个死记硬背的学生,现在被允许写解题过程了。他虽然还是不懂数学,但见过太多作业答案,知道什么样的过程看起来“像那么回事”。于是他洋洋洒洒写了一大堆看起来像爱因斯坦手稿的公式,虽然逻辑漏洞百出,但最后答案碰巧对了——老师看他写了这么多,还给了他高分。
这就是系统2的问题:它学到的不是怎么推理,而是怎么写一个“看起来正确”的推理过程。
系统3:要写就写能跑的代码
系统3才是真正的突破。它不再依赖人类的偏好打分,而是把语言模型和符号引擎——比如Python解释器、定理证明器——绑在一起。
同样一道逻辑题,系统3会怎么做?
这就完全不一样了。代码要么能运行,要么不能;结果要么对,要么错。没有任何模糊空间。
还是那个学生,现在参加的是编程考试。他写的脚本能在计算机上运行,输出正确结果,才能得高分。脚本崩了,就直接不及格。他学到的,是写出真正能工作的代码,而不是写得好看。
为什么系统2会让你失望?
要理解为什么我们需要系统3,得先搞清楚系统2的问题出在哪。
大语言模型被训练成“预测下一个词”的工具。它的目标,是让生成的文本看起来越像人类写的越好。这就导致了一个偏向:优先追求文本流畅,而不是逻辑正确。
流畅的文本,语法正确、用词恰当、段落之间过渡自然。这很容易判断。但逻辑正确,意味着每一步推理都能从前一步推导出来,结论是由前提严格保证的——这要难得多。
现在的模型,是在互联网数据上训练的。互联网上充斥着各种听起来有道理、但逻辑站不住脚的内容——想想那些社交媒体上的辩论、营销文案、政治演讲。它们的目标是说服人,而不是证明事。
所以当AI遇到复杂的推理任务时,它的行为模式往往是:
至于这条路是不是真的走得通,它其实不关心。
有研究人员对各种模型做了测试,把错误分成了两大类:
第一类:语义理解错误
第二类:逻辑执行错误
测试结果很扎眼:
这说明什么?说明即使模型越来越大,通用知识越来越丰富,它们做严格逻辑推理的能力并没有跟着提升。甚至在某种程度上,因为太会“说话”了,它们反而更擅长用漂亮的语言来掩盖逻辑缺陷。
从RLHF到神经符号
那么,怎么解决这个问题?
答案就是把人类从逻辑验证的环节中请出去。我们需要一个不在乎语言是否优美、只在乎推理是否正确的奖励函数。

核心思想其实很简单:用LLM擅长的事,加上符号引擎擅长的事,让它们各司其职。
流程是这样的:
这个过程中,最关键的一步是“形式化”——把模糊的自然语言翻译成精确的代码或逻辑图。
传统的LLM是在可微分的向量空间里运行的,一切都是模糊的嵌入,相似度用余弦距离来衡量。这对理解语义有好处,但对逻辑推理来说简直是灾难。因为逻辑世界里,一个命题要么真,要么假,没有“0.87真”这种中间状态。
系统3把推理过程转移到了离散的逻辑图结构中:
通过强制模型构建这样的图,我们迫使它把推理过程完全显式化。它不能再躲在模型的“黑箱”里,必须明明白白地说出每一个节点和每一条边。
这就好比让一个程序员写代码:
未来的LLM,不仅仅是生成文本,而是生成“可编译的推理”。如果你的推理编译不通过,它就不算数。

DeepSeek-V4的开源发布,对智能体的应用有着极大的促进,数以万计的企业可以本地化部署大模型来开发智能体。但如何开发先进的智能体,能够充分利用DeepSeek-V4,王文广所著的《智能体系统导论:架构与工程实践》一书实乃佳作,该书剥离了对人工智能能力的过度拟人化想象,回归计算机科学与软件工程的本质,借鉴OpenClaw、Claude Code和LangGraph等最先进的智能体系统,系统性地梳理了构建工业级智能体系统的架构设计、核心组件、协议标准与安全治理方案。182页的电子书《智能体系统导论:架构与工程实践》全书以上传至走向未来知识星球,有需要的读者可以加入“走向未来”星球获取。
过程验证,而不是只看结果
传统的强化学习,用的是“结果奖励”——最终答案对了就给分,错了就不给。这就导致了前面说的“框起来的42”问题:AI学会了猜答案,然后伪造过程。
系统3用的是“过程奖励”:
推理链条上的每一步都会获得奖励信号。这就迫使AI必须学会真正有效的推理路径,而不仅仅是撞对一个答案。
具体怎么训练呢?用一套叫“组相对策略优化”的方法:
这样做的好处是,不需要额外训练一个“评论家”模型——符号引擎本身就是最好的评论家。
实践的启示
如果你现在正在用AI做开发,有几点值得注意:
第一,别轻信文本。 模型说“因此”,不代表逻辑就成立。它可能只是习惯性地用了这个词。
第二,做外部验证。 尽量用外部工具来检验它的结论。能跑代码的就跑代码,能用公式推导的就用公式推导。
第三,明确约束条件。 在让AI求解之前,先要求它列出所有已知的约束条件。这能减少“前提不足”类的错误。
当然,这不意味着RLHF就完全没用了。RLHF仍然负责行为对齐——语气、安全性、礼貌、价值观这些。系统3负责的是逻辑推理——数学、代码、科学、因果关系。
简单说就是:怎么说话,听人类的;对不对,听编译器的。
未来会怎样?
这场从系统2到系统3的转变,影响的远不止是代码生成。
想象一个AI,它能阅读物理学论文,把里面的假设翻译成形式化语言,然后尝试证明它们。如果证明失败,它能精确指出在哪个环节出了问题。这可能会让科学发现的速度呈指数级提升。
再想象一个AI智能体,它只执行那些经过验证的、安全的、符合逻辑的行动。这对机器人、金融、医疗这些领域来说,意义重大。
我们正在走向一个时代:AI的主张必须可验证。不再是“信任但要验证”,而是“验证了再信任”。
当然,挑战也不少:
但方向已经明确了:AI的未来,不只是更大的模型,而是基础更牢固的模型。
是时候停止“假装”,开始验证了。是时候拥抱系统3了。
如果你对文中提到的技术实现细节感兴趣,可以继续往下读。下面是简化的实践部分,让你感受一下系统3是怎么跑起来的。
简化的实践示例
我们用一个简单的约束满足问题来演示:
任务:找到整数A、B、C,满足:
传统RLHF的做法: 让人类给AI的答案打分。AI可能写出漂亮的推理过程,但逻辑可能站不住脚。
系统3的做法: 让AI生成Python代码来验证。
# AI需要生成的验证代码
A = 10
B = 2
C = 8
assert A > B # 检查第一个条件
assert B + C == 10 # 检查第二个条件
assert A % 2 == 0 # 检查第三个条件
is_valid = True
然后符号引擎(这里就是Python解释器)执行这段代码。如果所有断言都通过,就说明推理正确,给奖励;否则不给。
训练时,我们让AI对同一个问题生成多个答案,用这个验证器给每个答案打分,然后根据组内相对表现来更新模型。
这样训练出来的模型,学到的不是“怎么写漂亮的推理过程”,而是“怎么写能跑通的验证代码”。
这就是系统3的核心:用代码的确定性,替代大模型的模糊性。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。