AI的世界真的没有有最离谱,只有更离谱。
今天Claude Code 源码泄漏事件,我真的看得头皮发麻。
不是黑客攻击,不是漏洞利用,而是 Anthropic 自己把 source map 打进 npm 包,直接把51 万行 TypeScript 源码拱手送给全世界。
GitHub 上已有相关代码镜像流传,下面非官方地址。
项目地址:https://github.com/instructkr/claude-code
传播速度极快,已经出现大量 fork 和二次传播,以后不知道得出多少致敬的产品出来。
一、先给大家捋清楚:到底漏了什么?
泄漏版本:Claude Code CLI v2.1.88
泄漏文件:cli.js.map 源码映射文件
内容:完整客户端代码、Agent 架构、权限逻辑、API 交互、任务调度
好消息:模型权重、训练数据、用户隐私没泄露
坏消息:Agent 核心设计全曝光,竞品抄作业,攻击者挖漏洞
二、AI 在连环出问题
如果把最近的情况连起来看,会发现一个很明显的趋势:
AI 系统越来越强,但安全能力明显没跟上。
我简单总结了几个方向:
1、Agent 的越权问题正在变得现实
在一些测试和研究中,已经发现:
AI Agent 会执行超出预期的操作
对权限边界理解不稳定
在复杂任务中可能走偏
当 AI 不只是回答问题,而是能操作系统、调用工具时,
权限,就变成了核心风险点
2、AI 供应链,开始出现安全隐患
现在很多 AI 工具,背后其实是:
npm 包
插件
第三方模型
Agent skill
问题是:这些组件,不一定都干净
安全社区已经多次披露:
恶意依赖包
伪装插件
后门模型
你以为在用工具,其实是在接入风险。
三、我最担心的这三件事
说实话,这次事件让我更在意的,不是 Claude 本身,而是背后的几个趋势:
1、AI 安全,不是未来问题,是现在问题
很多人还觉得安全是以后再说。
但现实是:工程失误、权限问题、供应链风险,都已经在发生了。
2、Agent 时代,权限就是生命线
AI 越能干,它拿到的权限就越大。
一旦边界控制不好,它就可能:
读取不该读的内容
执行不该执行的操作
甚至代替你做决定
这已经不是 Bug,而是系统设计问题。
3、闭源,并不等于安全
很多人下意识觉得:不开源 = 更安全
但这次刚好反过来:一次发布流程失误,就可能让内部实现被动公开。
安全,从来不是靠藏,而是靠管。
四、给所有 AI 使用者的建议
如果你在用 AI 工具,或者公司在接入 AI,这几条建议很现实:
尽量使用官方版本,避免来路不明的修改版
API Key 不要写死在代码里
给 AI 的权限,尽量最小化
不要轻易授权访问本地文件或内部系统
企业侧,建议做一次 AI 使用安全审计
说白了就是一句话:
AI 可以帮你干活,但不能随便让它干活。
最后
这次 Claude Code 事件,看起来是一次翻车,
但本质上,它更像是一个信号:
AI 的能力在狂奔,但安全体系还在追赶。
我们享受 AI 带来的效率,也要开始正视它带来的风险。
技术可以很强,
但如果没有边界,
一切都可能失控。
安全,从来不是可选项。
更像是一条底线。