快速阅读:开发者发现 Claude Code 的推理深度在二月后出现显著下滑,有人通过日志量化了这种下降。这究竟是模型本身的退化,还是厂商为了节省昂贵的推理成本而进行的“算法阉割”?
最近感觉 Claude 变了。不是那种偶尔犯错的小毛病,而是某种底层逻辑的“浅薄化”。写代码时,它开始跳过读取文件的步骤,直接给出未经校验的修改建议;原本严谨的指令遵循,变成了敷衍了事的应答。
这种感觉起初像是在自我怀疑,以为是自己的提示词(Prompt)变烂了。但有人通过分析日志给出了一个极其惊人的数字:推理深度下降了大约 67%。这不再仅仅是某种“体感”,而是一条证据链。
有观点认为,这本质上是 AI 领域的“缩减版”(Shrinkflation)。当用户量激增,GPU 算力变成了零和游戏。为了维持庞大的订阅用户群,厂商可能会在后台通过调整系统提示词或降低推理努力程度(Effort level)来压低成本。就像加油站偷偷降低汽油的辛烷值,标号没变,但引擎跑起来明显发抖。
更有意思的争论在于“外壳”与“内核”。有人指出,模型本身可能没变,但 Claude Code 的运行环境(Harness)被优化了——为了追求吞吐量,系统默认让模型变得更简洁、更不爱探索。这种由于配置调整导致的“假性退化”,对开发者来说同样致命。
最糟糕的是这种退化的隐蔽性。当模型变得不够聪明,却依然表现得极其自信时,它会产生大量看似正确实则臃人的冗余代码。这不仅增加了人类审计的认知负荷,还因为反复的错误尝试,让我们更快地耗尽了订阅额度。
现在的局面很像是在用一个逐渐失去肌肉记忆的程序员。我们还在支付同样的费用,却在处理越来越多的逻辑漏洞。
reddit.com/r/ClaudeAI/comments/1ses1qm/anthropic_stayed_quiet_until_someone_showed