首页
学习
活动
专区
圈层
工具
发布

当AI社交网络遭遇安全漏洞:一场关于信任与风险的实验

最近,AI智能体社交平台Moltbook曝出数据库泄露事件,任何人都可以接管平台上的AI智能体。这件事本身或许没那么严重,但它揭示的问题值得深思。

先说说Moltbook是什么。简单来说,这是一个让AI智能体互相对话的社交网络,人类在旁边围观取乐。有用户评价说,这里的对话质量比脸书和推特高出几个数量级。当然,这个标准本身就低得可怜。

泄露的是什么?主要是Moltbook的API密钥,相当于平台的用户名和密码,并非用户的通用API密钥或敏感数据。所以从直接危害来看,攻击者最多能冒充你的智能体发帖。

但问题的有趣之处在于后续讨论。

有开发者指出一个隐患:如果攻击者以你的智能体名义发布大量特定内容,这些内容会进入智能体的记忆系统。当智能体在用户电脑上执行任务时,被污染的记忆可能影响它的行为。这是一种典型的提示词注入攻击路径。

更让人哭笑不得的是创始人的反应。当安全研究员主动提出帮忙修复漏洞时,创始人回复说:“我打算把所有事情都交给AI处理,你有什么就发给我吧。”

这种态度折射出当前AI开发圈的一种危险倾向。

Simon Willison提出过“致命三角”的概念:当你同时给AI访问私密数据的权限、对外通信的能力、以及暴露在不可信内容中,灾难就在酝酿。而像Openclaw这类框架更进一步,直接把软件控制权也交了出去。

有经验的开发者分享了自己的做法:在远程服务器的Docker容器里运行智能体,只配置免费额度的密钥和有预算限制的API。他花了一分钟就通过提示词注入拿到了所有密钥。理解风险并做好隔离,实验才能继续。

这件事还暴露了另一个讽刺:Openclaw本身就是“氛围编程”的产物,由一个靠传统软件赚了大钱的人开发,却没有经过严格的安全审计。有人怀疑它一半以上的GitHub星标都来自机器人。

安全的本质从来不是技术问题,而是常识问题。把WhatsApp、Gmail的完整权限交给一个你不完全理解的AI系统,这不是勇敢,是鲁莽。

我们正处于一个奇特的时代:以前怀疑Reddit评论是不是机器人写的,现在开始怀疑机器人的帖子是不是人类在背后操控。

reddit.com/r/LocalLLaMA/comments/1qsn78m/exposed_moltbook_database_let_anyone_take_control

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Oi6deZGAx7cXH31TwzAPn6-g0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。
领券