首页
学习
活动
专区
圈层
工具
发布

Claude Code 51 万行源码泄漏:不止是翻车,更是 AI 安全集体预警

AI的世界真的没有有最离谱,只有更离谱。

今天Claude Code 源码泄漏事件,我真的看得头皮发麻。

不是黑客攻击,不是漏洞利用,而是 Anthropic 自己把 source map 打进 npm 包,直接把51 万行 TypeScript 源码拱手送给全世界。

GitHub 上已有相关代码镜像流传,下面非官方地址。

项目地址:https://github.com/instructkr/claude-code

传播速度极快,已经出现大量 fork 和二次传播,以后不知道得出多少致敬的产品出来。

一、先给大家捋清楚:到底漏了什么?

泄漏版本:Claude Code CLI v2.1.88

泄漏文件:cli.js.map 源码映射文件

内容:完整客户端代码、Agent 架构、权限逻辑、API 交互、任务调度

好消息:模型权重、训练数据、用户隐私没泄露

坏消息:Agent 核心设计全曝光,竞品抄作业,攻击者挖漏洞

二、AI 在连环出问题

如果把最近的情况连起来看,会发现一个很明显的趋势:

AI 系统越来越强,但安全能力明显没跟上。

我简单总结了几个方向:

1、Agent 的越权问题正在变得现实

在一些测试和研究中,已经发现:

AI Agent 会执行超出预期的操作

对权限边界理解不稳定

在复杂任务中可能走偏

当 AI 不只是回答问题,而是能操作系统、调用工具时,

权限,就变成了核心风险点

2、AI 供应链,开始出现安全隐患

现在很多 AI 工具,背后其实是:

npm 包

插件

第三方模型

Agent skill

问题是:这些组件,不一定都干净

安全社区已经多次披露:

恶意依赖包

伪装插件

后门模型

你以为在用工具,其实是在接入风险。

三、我最担心的这三件事

说实话,这次事件让我更在意的,不是 Claude 本身,而是背后的几个趋势:

1、AI 安全,不是未来问题,是现在问题

很多人还觉得安全是以后再说。

但现实是:工程失误、权限问题、供应链风险,都已经在发生了。

2、Agent 时代,权限就是生命线

AI 越能干,它拿到的权限就越大。

一旦边界控制不好,它就可能:

读取不该读的内容

执行不该执行的操作

甚至代替你做决定

这已经不是 Bug,而是系统设计问题。

3、闭源,并不等于安全

很多人下意识觉得:不开源 = 更安全

但这次刚好反过来:一次发布流程失误,就可能让内部实现被动公开。

安全,从来不是靠藏,而是靠管。

四、给所有 AI 使用者的建议

如果你在用 AI 工具,或者公司在接入 AI,这几条建议很现实:

尽量使用官方版本,避免来路不明的修改版

API Key 不要写死在代码里

给 AI 的权限,尽量最小化

不要轻易授权访问本地文件或内部系统

企业侧,建议做一次 AI 使用安全审计

说白了就是一句话:

AI 可以帮你干活,但不能随便让它干活。

最后

这次 Claude Code 事件,看起来是一次翻车,

但本质上,它更像是一个信号:

AI 的能力在狂奔,但安全体系还在追赶。

我们享受 AI 带来的效率,也要开始正视它带来的风险。

技术可以很强,

但如果没有边界,

一切都可能失控。

安全,从来不是可选项。

更像是一条底线。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OkcTSwncasjkH_3CJgRSgnIA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券