首页
学习
活动
专区
圈层
工具
发布

Agent时代,纯知识模型还有存在价值吗?

快速阅读:当整个行业都在追逐Agent能力时,有人想要的只是一个「博学」的模型——不需要写代码、不需要调用工具,就像离线版的全知百科。但这个需求在2025年似乎已经过时了。

三年前接触LLM,是为了摆脱搜索引擎那糟糕的信噪比,获取贴合场景的定制化知识。现在所有实验室都在堆Agent能力,这让人困惑:有限的参数预算下,强化工具调用是否会削弱模型本身的知识储备?

有观点认为知识量与参数数直接相关。测试Qwen3.5时发现,35B的MoE在Q4量化下的幻觉比27B密集模型的Q5还多,即便27B降到IQ3、显存只占12GB,仍比20GB的35B更可靠。规模更大的MoE能否改善这一点?

前沿实验室似乎已经放弃了纯知识路线。合成数据(chain-of-thought、工具使用轨迹)让模型更擅长推理,但训练算力有限,知识广度成了牺牲品。Tulu 3是个例外,它基于更多自然语料而非合成推理数据训练。

但「知识」和「认知」的界限本就模糊。如果只想要信息源,小模型+搜索工具就够了。但要让AI真正教学、解释、适配目标,你需要的不是知识堆砌,而是认知能力——这恰恰就是Agent。

有人提出解决方案:用Qwen3.5-9B这样的小模型,配上搜索工具,在系统提示词里列出可信来源优先级。模型的任务不是记住所有事实,而是知道去哪找、如何用。这比让405B模型硬记维基百科高效得多。

实际上,即使是Claude Opus这样的顶级模型,最近在简单常识问题上也开始失误,稍加质疑就会反复翻转立场。GPT-4在2023年的领域深度记忆比某些更新的「更聪明」模型还好,因为它没被过度调优成输出格式工具。模型正在被训练成「外包者」而非「思考者」。

有网友提到,依赖模型内置知识风险极高——幻觉不可靠,就算有知识也容易出错。现在的大context和工具调用能力下,引用外部知识才是正道。

仅英文维基百科未压缩就有10TB。没有哪个「本地规模」模型能装得下所有事实。知识需要参数,也需要正确使用这些参数的能力。

最接近「全知百科」的配置:Qwen3.5 397B(密集模型)+ 维基百科/Wikidata的RAG,一个9B模型配好检索能打败裸奔的70B。或者试试GLM-5、Kimi-K2.5、DeepSeek V3.1这些新的超大模型。

核心矛盾在于:谁来定义「真相」?LLM从来不是魔法真理机器,它需要海量已知真相来训练。真相是相对的,判断是用户的工作,不是模型的。

模型会过时,这就是为什么实验室都转向推理能力+搜索工具,而非单纯喂数据。知识不是终点,上下文和推理才是实际使用中更重要的东西。

ref: reddit.com/r/LocalLLaMA/comments/1ry49iy/agent_this_coding_that_but_all_i_want_is_a

#AI创造营# #人工智能#

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O-Cx9cBC2yBg-ynvIJ-qMdRg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券