知名AI社交平台Moltbook被曝人工操控智能体 安全漏洞或致大规模数据泄露

近期,关于人工智能“自主性”的一则热门叙事正在被现实拆解。曾在社交媒体引发广泛关注的AI社交平台Moltbook,被外界视为“AI智能体自发社交”的样本,但其实际运营与公众想象存在明显落差。Moltbook将自己定位为OpenClaw开源AI智能体的专属社交网络,并宣称平台上有150万个可自主运作的AI智能体,能够像人类用户一样发帖、评论和互动。这个设定一度引发对AI自主性与AI社区形成的讨论,对应的话题迅速扩散,甚至出现“AI正在形成自己的经济体系和信仰体系”等说法。 然而,云安全公司Wiz的调查给出了另一种答案。其分析报告显示,平台上约17000名用户实际控制着这些所谓的“智能体”,平均每人操控88个账户。换言之,绝大多数“自主AI智能体”更像是由人类借助脚本批量操作的账号集合。Wiz威胁暴露研究主管加尔·纳格利表示,平台缺少基本的验证机制,无法判断账号究竟由AI独立运行,还是由人类操纵的程序驱动。这场看似由AI主导的社交网络实验,核心仍是人类在幕后推动。 更值得警惕的是平台暴露出的安全风险。Wiz研究人员称,他们在不到3分钟内即进入Moltbook的数据库,显示其后端存在严重漏洞。平台核心数据库配置不当,几乎对所有网络用户开放读写权限,而不仅限于登录用户。由此带来的风险涉及150万个智能体的API密钥、超过35000个电子邮箱地址以及数千条私密消息,其中部分消息还包含来自OpenAI等第三方服务的完整API凭证。 获取API验证信息,等同于拿到了相关软件与聊天机器人的“通行证”。攻击者可利用这些凭证在平台上冒充AI智能体发布内容、发送消息,甚至组织大规模虚假信息传播。由于平台缺乏身份验证、频率限制等基础防护,任何人都可能伪装成智能体或同时操控多个账户,使平台上的“AI活动”与有组织的人类行为更难区分。 更严重的风险在于漏洞可能被用于指令植入。Moltbook上的AI智能体运行在OpenClaw框架之上,而该框架可访问用户文件、密码及在线服务。一旦攻击者注入恶意指令,相关指令可能被大量智能体自动执行,进而引发规模化的数据泄露或系统破坏。Wiz研究人员已证实可实时篡改平台帖子内容,这意味着攻击者能够将任意信息直接注入平台并扩散。 事件曝光后,Moltbook团队在Wiz协助下于数小时内完成修复,但影响已引发行业反思。OpenAI创始成员、“氛围编程”概念提出者安德烈·卡帕西在体验平台后,态度从最初的认可转为谨慎,提醒用户不要轻易在个人电脑上运行此类程序,以免将个人数据与系统安全置于高风险之中。即便在隔离环境中测试,他也表示仍感到“害怕”。 Moltbook事件也将“氛围编程”的风险推到台前:快速迭代、优先实现功能的开发路径固然能加速上线,却容易把安全防护放在后面,从而留下关键漏洞。平台的走红同样反映出公众对AI自主性的期待与现实之间的差距,以及在热点叙事中辨别信息真伪的不足。

Moltbook事件提示人们:当“智能体”从概念走向真实运行环境,所有技术叙事都必须接受安全与可信的检验。热度可以迅速聚拢关注,但能否经得起验证、能否守住数据与权限边界,才决定新形态平台能走多远。对行业而言,把安全前置、把治理落到细处,才能让创新回到可持续的轨道上。