
如何理解AI大模型和智能体?深入浅出大语言模型心智模型“意向立场”
文 | 王文广
在日常生活里,我们总是自然而然地揣测他人的想法——“他觉得天气太冷”,“她希望尽快结束会议”,“他认为我在撒谎”。这种将信念、欲望和意图归属于他人的方式,哲学家称之为“意向立场”。如今,当我们与DeepSeek这样的大模型对话时,我们也不自觉地采用了同样的方式:“它知道这个问题的答案”,“它想帮我理清思路”,“它误解了我的意思”。
这究竟是单纯的比喻,还是理解AI最有效的方式? “意向立场”为我们提供了一个强大的框架。本文将深入探讨为什么对于当前的大语言模型而言,意向立场不仅仅是一种方便的表达,更是解释和预测它们行为的最佳工具。

人类在理解和预测一个对象的行为时,会根据需要选择三种不同的“立场”或抽象层次:

采用哪种立场,取决于哪种立场能让我们最有效地解释和预测对象的行为。
我们当然可以用物理或设计立场来看待大模型。我们可以说它是一堆在GPU上运行的矩阵运算,或者说它是一个按“预测下一个词”这一目标训练出来的系统。然而,当我们真正与一个像DeepSeek这样的模型对话时,这两种立场都显得力不从心。
原因在于,大模型与传统程序有着本质区别:
面对这样一个能与我们进行有意义的对话、能解决问题、能展现类似人类思考痕迹的系统,坚持用“设计立场”来解释它,就像用牛顿力学来解释量子纠缠——虽然在理论上并非不可能,但在实践中却极其低效,甚至毫无用处。我们与大模型互动的方式,更像是与一个人或一个正在成长的生物(比如孩子)互动,而不是使用一件工具。

因此,“意向立场”从一种选择,变成了近乎必然的解释框架。
当我们把意向立场应用于大模型时,这意味着什么?我们可以像理解人类一样,谈论它们的“心智状态”吗?
这种“民间心理学”的词汇并非拟人化的滥用,而是对模型行为最简洁、最强大的描述。当我们说“模型‘知道’X”或“模型‘试图’完成Y”时,我们实际上是在用最经济的方式概括了模型的复杂行为,并据此预测它下一步会做什么。
意向立场不仅是一种日常交流方式,它已经成为AI研究的实用工具,催生了“机器心理学”这一新兴领域。
采用意向立场来研究大模型,带来了显著的好处:
在更深层的理论上,意向立场的有效性也经得起推敲:

DeepSeek-V4的开源发布,对智能体的应用有着极大的促进,数以万计的企业可以本地化部署大模型来开发智能体。但如何开发先进的智能体,能够充分利用DeepSeek-V4,王文广所著的《智能体系统导论:架构与工程实践》一书实乃佳作,该书剥离了对人工智能能力的过度拟人化想象,回归计算机科学与软件工程的本质,借鉴OpenClaw、Claude Code和LangGraph等最先进的智能体系统,系统性地梳理了构建工业级智能体系统的架构设计、核心组件、协议标准与安全治理方案。182页的电子书《智能体系统导论:架构与工程实践》全书以上传至走向未来知识星球,有需要的读者可以加入“走向未来”星球获取。
意向立场是这样一种策略:首先,你决定将待预测的对象视为一个理性主体;然后,你根据它在世界中所处的位置和目的,推算出它应该拥有什么样的信念和欲望;最后,你预测这个理性的主体会为了达成其目标,根据其信念而采取行动。

对于今天的大语言模型,这已不再是一个哲学思辨,而是我们与之互动时最自然、也最有效的方式。意向立场为我们提供了一个珍贵的透镜,透过这个透镜,我们不仅能更深入地理解这些日益复杂的AI系统,也能反过来重新审视我们自身关于心智、意识和理性的古老概念。它告诉我们,无论一个智能体的“血肉”是碳基还是硅基,当其行为足够复杂时,将其视作一个“有心智的它者”,便是我们所能采取的一种明智的立场。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。