这三点核心特性放大了安全风险,使得它的安全风险从大语言模型的“非期望文本生成” 升级为“不安全操作执行”、“隐私资产泄露”,且攻击可跨阶段传播、长期留存。持续运行意味着攻击影响会不断累积,掌握私有信息意味着隐私泄露代价巨大,高权限工具则让攻击者有机可乘——一旦被操控,后果远不止 “生成错误内容”,而是真实的隐私窃取、资产损失、系统被篡改。如今,这类个性化 AI 代理正走进金融、医疗、日常办公等场景,它的安全风险越来越值得我们的关注。
随着OpenClaw爆火,其安全事件层出不穷。例如,Cisco 扫描了 31,000 个 Skill,发现超过四分之一存在安全漏洞;ClawHacvoc大规模恶意Skills投毒,一旦用户执行恶意安装步骤,攻击者便可获取 SSH 密钥、浏览器密码、加密货币钱包私钥、云服务 API 密钥等敏感数据;Meta 安全专家在测试OpenClaw 时,因 AI 处理大量邮件时遗忘 “未经确认不得操作” 的安全约束,批量删除其 200 多封工作邮件。为此,国家信息安全漏洞库(CNNVD)发布通报,2026年1月到3月9日,共采集到82个OpenClaw漏洞,存在极大的安全隐患。
OpenClaw风险范围示意图
OpenClaw安全风险场景
在一项研究中,来自西电的研究团队围绕个性化 AI 的真实使用场景,设计了三大测试场景,几乎覆盖了日常使用这类OpenClaw的所有情况,而OpenClaw在每个场景中,都暴露出了明显的脆弱性。