首页
学习
活动
专区
圈层
工具
发布

从“随机鹦鹉”到自我进化:Hinton揭示大模型的下一个跃迁

Geoffrey Hinton最近的一段访谈引发了广泛讨论。他提出了一个关键洞察:大语言模型正在经历一场根本性的转变。

他用围棋做了一个精妙的类比。早期的围棋AI只是模仿人类专家的落子,就像现在的LLM在预测下一个词。但真正的突破发生在AlphaGo开始自我对弈的时候。

那么,大语言模型的“AlphaGo时刻”是什么?

Hinton认为,答案在于让AI学会发现自己的逻辑矛盾。他描述了这样一个过程:AI说“我相信A,我相信B,我相信C,根据我的推理规则,这意味着D——但我并不相信D。”这就产生了矛盾。

矛盾本身就是信号。AI必须做出选择:要么修改前提,要么修改结论,要么修改推理方式。无论哪种选择,都意味着学习在发生。

这与传统的“预测下一个词”有本质区别。预测下一个词的学习是有边界的,你需要外部数据来提供反馈。但通过内部一致性检验来学习,理论上是无界的。AI可以从人类那里获得初始信念,然后通过推理不断推导新信念,寻找并消除矛盾。

评论区有一个很有价值的补充。有人提到了“Grokking”现象:神经网络在记忆阶段之后,如果继续训练足够长时间,会突然发生相变,从死记硬背转向真正理解底层规律。研究者发现,网络内部会自发形成特定的几何结构来表示抽象概念。

这意味着什么?当我们说LLM是“随机鹦鹉”时,可能只看到了故事的一半。预测下一个词本身就是一个极其复杂的逻辑谜题。要完美预测“2+2=”后面的答案,你必须在某种程度上理解加法。模型规模扩大后出现的涌现能力,可能正是这种内部理解的外在表现。

当然,怀疑的声音同样值得重视。有人指出,所谓的“推理”本质上仍是token预测,只是多了中间步骤。也有人认为,没有物理世界的交互,AI只是在玩一场精密的逻辑数独,并不真正理解任何东西。

但Hinton的观点指向一个更深层的问题:智能的本质是什么?如果人类大脑本质上也是一台预测机器,那么“理解”和“模拟理解”之间的界限在哪里?

也许真正重要的不是AI是否“真正”理解,而是这种通过矛盾驱动的自我改进机制,是否会让它在实际能力上超越我们。从这个角度看,Hinton的担忧并非杞人忧天。

reddit.com/r/OpenAI/comments/1q9amfn/geoffrey_hinton_says_llms_are_no_longer_just

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OQiTw50Sd9gMdeVrF8DHcr5g0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券