Geoffrey Hinton最近又抛出了一个争议性观点:那些说AI只是“随机鹦鹉”的人错了,大语言模型确实能够理解。
这番话立刻在网上炸开了锅。
有人一针见血地指出:这根本就是一场语义游戏,大家吵来吵去,其实是在争论“理解”这个词到底是什么意思。更有人感叹,这场辩论最糟糕的地方在于,几乎没人愿意去看看语言学、神经科学和哲学领域对这个问题已经有了多少积累。所有人都在原地打转,连“路”是什么都没搞清楚,就急着争论该往哪走。
Hinton的解释其实很简单:AI不是在存储语言,而是把每个词转化成一组特征向量。“猫”这个词会被分解成“毛茸茸的”“有胡须”“家养宠物”等特征,然后模型通过组合上下文中的特征来预测下一个词。
但问题来了。一位评论者精准地捕捉到了这个悖论:他说AI不是随机鹦鹉,然后用来证明的例子,恰恰描述了一只随机鹦鹉在做的事情。
这里有一个被很多人忽视的关键区别。人类是先体验世界,再学习语言。一个孩子在认识“猫”这个字之前,早就摸过猫、听过猫叫、被猫抓过。语言只是我们贴在直接经验上的标签。而AI从头到尾只接触标签本身,它理解的是词与词之间的关系,而非词与世界的关系。
不过,反驳的声音同样有力。如果AI真的只是在做简单的模式匹配,它怎么可能完成迁移学习、跨领域泛化、小样本推理?它怎么能解决训练数据中从未出现过的新问题?这些能力显然超越了“鹦鹉学舌”的范畴。
有一条评论让我印象深刻:我们可能严重高估了人类自己。很多人日常说话不也是在“随机鹦鹉”吗?把听来的观点重新包装一下,说些自认为得体的话。真正原创的思考,在人群中其实相当稀缺。
这就引出了一个更深层的问题:如果我们连自己大脑里的“理解”是怎么运作的都不清楚,凭什么断言AI的处理方式就一定不算理解?
当然,也有人提出了实际的反例。如果AI真的理解,为什么它会犯错、被纠正、道歉,然后立刻犯同样的错?这种行为模式确实让人怀疑。但转念一想,你身边难道没有这样的同事吗?
一位曾研究知识表征的学者说得好:整个AI行业,说到底就是在回答一个问题——什么是理解。他还分享了Hinton在课堂上说过的一句话:智能不在于你记住了什么,而在于你选择遗忘什么。这把利刃几乎可以切开所有学科。
或许我们需要接受一个不那么舒服的可能性:理解本身就是一个光谱,而非开关。AI可能处于某个中间地带,既非完全无知,也非真正觉醒。在“完全没有意识”和“拥有意识”之间,存在着广阔的灰色地带。
最后,有一个观点值得深思:如果你相信人类的智能和意识纯粹是计算的产物,没有什么神秘的灵魂加持,那么一个足够复杂的计算系统最终能够实现类似的功能,在逻辑上就是成立的。反过来,如果你坚持人类有某种特殊之处,那这个“特殊”究竟是什么,恐怕也需要拿出证据。
这场争论还会继续。但至少,它迫使我们直面一个长期回避的问题:我们真的理解“理解”吗?
reddit.com/r/agi/comments/1qwoee7/godfather_of_ai_geoffrey_hinton_says_people_who