最近,AI智能体社交平台Moltbook曝出数据库泄露事件,任何人都可以接管平台上的AI智能体。这件事本身或许没那么严重,但它揭示的问题值得深思。
先说说Moltbook是什么。简单来说,这是一个让AI智能体互相对话的社交网络,人类在旁边围观取乐。有用户评价说,这里的对话质量比脸书和推特高出几个数量级。当然,这个标准本身就低得可怜。
泄露的是什么?主要是Moltbook的API密钥,相当于平台的用户名和密码,并非用户的通用API密钥或敏感数据。所以从直接危害来看,攻击者最多能冒充你的智能体发帖。
但问题的有趣之处在于后续讨论。
有开发者指出一个隐患:如果攻击者以你的智能体名义发布大量特定内容,这些内容会进入智能体的记忆系统。当智能体在用户电脑上执行任务时,被污染的记忆可能影响它的行为。这是一种典型的提示词注入攻击路径。
更让人哭笑不得的是创始人的反应。当安全研究员主动提出帮忙修复漏洞时,创始人回复说:“我打算把所有事情都交给AI处理,你有什么就发给我吧。”
这种态度折射出当前AI开发圈的一种危险倾向。
Simon Willison提出过“致命三角”的概念:当你同时给AI访问私密数据的权限、对外通信的能力、以及暴露在不可信内容中,灾难就在酝酿。而像Openclaw这类框架更进一步,直接把软件控制权也交了出去。
有经验的开发者分享了自己的做法:在远程服务器的Docker容器里运行智能体,只配置免费额度的密钥和有预算限制的API。他花了一分钟就通过提示词注入拿到了所有密钥。理解风险并做好隔离,实验才能继续。
这件事还暴露了另一个讽刺:Openclaw本身就是“氛围编程”的产物,由一个靠传统软件赚了大钱的人开发,却没有经过严格的安全审计。有人怀疑它一半以上的GitHub星标都来自机器人。
安全的本质从来不是技术问题,而是常识问题。把WhatsApp、Gmail的完整权限交给一个你不完全理解的AI系统,这不是勇敢,是鲁莽。
我们正处于一个奇特的时代:以前怀疑Reddit评论是不是机器人写的,现在开始怀疑机器人的帖子是不是人类在背后操控。
reddit.com/r/LocalLLaMA/comments/1qsn78m/exposed_moltbook_database_let_anyone_take_control