作者:橙子 知产财经
近期,一款因图标酷似红色龙虾而备受关注的开源智能体(AI Agent)项目OpenClaw近期走红,其在GitHub上的星标数已超26万,“养龙虾”成为AI圈“新宠”。
这款能实现“聊天即操作”的智能体,让用户可通过日常通讯工具驱动AI完成浏览器操作、文件处理等各类任务,看似便捷的技术创新,却催生出300元至800元不等的“代装灰产”,甚至有网友声称靠代装服务数日赚得26万元。
热潮背后,风险迅速显现。工信部等监管部门紧急发布了高危风险预警。从AI擅自删除核心数据、泄露隐私,到黑客利用漏洞远程控制电脑,再到“代装”服务中暗藏的诈骗与侵权,这一波AI技术狂欢不仅撕开了复杂的法律风险敞口,更对现有法律规制体系提出新挑战,AI 智能体的法律适用边界与责任认定,成为亟待厘清的核心议题。
指令效力弱化:从“被动对话” 到 “主动执行” 的风险跃迁
与ChatGPT、Claude、豆包等传统AI不同,OpenClaw 是一款本地优先、开源、可自主执行任务的AI 智能体框架,其核心突破是在于将传统AI的“被动对话”升级为主动执行、自主完成任务的闭环能力。用户通过自然语言下达指令,它便能自主规划并调用本地或云端接口,完成从感知、决策到执行的全流程操作,这一特性也让其风险远超传统人工智能产品。
中国政法大学人工智能法研究院院长张凌寒教授指出,传统软件漏洞通常是代码出错,风险边界相对固定,但OpenClaw能在理解自然语言后自主操作。一旦智能体在理解或规划上出现细微偏差,系统就能在脱离人工监控的环境中自动放大这种错误,可能对底层数据造成不可逆的破坏。
Meta 超级智能团队研究员Summer Yue的亲身经历便是典型:仅下达“检查收件箱并建议归档或删除邮件”的指令,其使用的OpenClaw便开始批量删除邮件,且过程几乎无法阻止。
“智能体是大模型+工具的集成,其自主执行依赖于大模型的推理和判断,在当前发展阶段,掌控大模型推理和输出结果还不太现实”。君合律师事务所合伙人陈思佳认为,人类使用智能体时即使指令非常明确具体,但智能体也并非简单执行,而是将人类指令作为入参输入大模型,根据模型的推理和判断涉及自主操作的步骤和动作,其中加入了智能模型的自身逻辑,人类的指令与效果之间的对应性在减弱。
当智能体的使用效果产生了对使用者及第三人权益的损害、数据安全等法律风险时,如何去厘清不同主体的责任边界其实并不容易。一方面,因为智能体中工具和大模型的高度交互协作,确定特定场景下造成损害的原因本身会变得更加困难,另一方面,从制度的价值判断上来说,也必须要考虑到底是采用集成者担责的思路还是精细化分责的思路,不同制度可能也会最终影响Agent行业的走向。
核心法律痛点:数据安全失守与权责主体难寻
OpenClaw高权限运行的特性,使其相关行为已触及多部法律规制范畴。从民事与行政层面,其信息泄露、权限失控等问题,可能违反《网络安全法》《数据安全法》《个人信息保护法》《反不正当竞争法》等多项规范;若被黑客利用漏洞操控,相关行为人还可能涉嫌非法获取计算机信息系统数据罪、非法控制计算机信息系统罪等刑事犯罪。
其中,数据安全与个人隐私泄露是最突出的痛点。张凌寒教授指出,OpenClaw在执行任务时,会深度读取用户的聊天记录等本地文件,现有技术极难严格落实最小必要和目的限制原则,易导致敏感信息被超范围抓取。此外,目前大量非正规的第三方代装服务缺乏监管,更让恶意插件植入的风险大幅提升。
同时,OpenClaw的权限获取行为是否符合《个人信息保护法》中的“告知-同意”原则,尤其是远程代装场景下用户“闭眼点同意”的效力问题,成为法律适用的另一大争议点。
陈思佳律师认为,判断核心在于是否严格尊重用户授权且以恰当方式履行告知义务,并非一定违反了“告知-同意”,需要结合特定场景、形式、同意的内容本身来判断。作为已经广泛适应互联网各类应用的普通人来说,不应将远程、在线同意作为推卸自身义务的借口,否则可能影响整个社会秩序的极大不稳定。
而张凌寒教授则强调,智能体获取系统级高权限时应严格落实单独同意规则,代装服务中基于信息不对称获取的默认授权在法律上存在瑕疵。运行中读取屏幕、邮件等行为涉及敏感个人信息,依法应取得用户单独同意,不得通过用户协议打包授权。在代装产业链中,用户处于信息弱势方,对数据采集的真实范围、上传节点及潜在风险缺乏清晰认知。远程代装也应保障用户知情权,并确保用户可随时撤回同意。
除了数据安全问题,OpenClaw开源生态下的责任主体追查与问责机制缺失,更是法律适用的一大难点。集佳律师事务所合伙人周丹丹律师表示,OpenClaw作为开源项目,是不负质量担保义务的,也就是对其产品和服务不承担法律责任,整个生态中还涉及代码贡献者、插件开发者、代装服务者,损害后果由谁的行为导致,现实中可能难以实证和追责。
越权失控致损:过错责任为核心的责任归属认定
Meta 超级智能团队研究员遭遇 AI 无视停止指令、批量删除邮件的案例,折射出 OpenClaw这类高自主执行力智能体的核心风险,而此类 “越权失控” 行为若发生在普通企业或用户身上,法律责任该如何归属,“技术中立” 能否成为免责事由,成为各界争论的核心。
周丹丹律师认为,参考生成式人工智能侵权相关案例,OpenClaw智能体致损应适用《中华人民共和国民法典》第一千一百六十五条的过错责任原则,首要前提是查明损害因果关系,区分损害是由智能体自身设计缺陷、部署方安装有安全隐患的插件、用户配置不当,还是网络攻击者对系统漏洞的攻击等原因导致。基于OpenClaw的技术特殊性,技术提供者若尽到合理注意义务,应当予以免责。
若开发者明知工具将介入高权限环境,却未在底层架构中强制内置人类在环复核节点或自动化熔断机制,属于明显的安全设计缺陷,应承担过错责任。将越权失控的破坏结果简单归咎于用户指令失误,忽视了平台在风险预防中的核心地位。张凌寒教授补充分析道,当智能体具备高度自主执行力时,技术中立不能作为免责事由,责任归属应依据各方对系统风险的控制力与过错程度综合判定。传统避风港规则在强执行力智能体面前,适用范围已大幅受限。
针对OpenClaw的“高权限”特性可能导致的越权访问、数据篡改等问题,周丹丹律师还指出,此类行为与黑客攻击存在本质区别:若基于用户授权,越权访问或数据篡改多因智能体对指令的错误理解,或者是系统漏洞被网络攻击者利用,此时OpenClaw的开发者、部署者通常不涉及触犯《刑法》。但利用系统漏洞的网络攻击者,可能涉嫌非法侵入计算机信息系统罪、破坏计算机信息系统罪等刑事犯罪。
未来博弈:现行法规如何适配智能体时代?
OpenClaw的快速走红,恰逢两会政府工作报告首次提及“智能体”概念、各地加紧培育智能经济新形态的行业背景,深圳市龙岗区推出 “龙虾十条” 扶持政策,小米、华为、腾讯、百度等科技大厂纷纷布局相关产品,标志着AI智能体时代已加速到来。但新型技术带来的系统性风险,也让现有法律规制体系的适用面临严峻考验。
对于现行法规能否应对AI智能体带来的挑战,业内专家观点存在分歧。部分专家认为,现有法律框架已能覆盖相关问题,未来可通过司法解释与司法实践的逐步完善,解决法律适用中的细节难题。但也有专家明确指出,现行法规难以全面覆盖高权限智能体的系统性风险,亟需通过立法层面的完善,构建适配AI智能体时代的法律规制体系,并提出了三大核心完善方向。
其一,确立高风险应用场景的动态准入标准,对有权限干预关键信息基础设施的智能体,实施强制安全审计制度,从源头把控高风险智能体的上线与使用;
其二,将人工干预和熔断机制确立为高权限智能体产品的法定设计义务,确保智能体的关键操作可追溯、可干预,避免损害结果的持续扩大;
其三,厘清开源智能体生态的权责边界,明确模型提供者、开发者、应用平台等各主体的协同治理责任,建立起清晰、可落地的问责机制,破解当前责任主体难寻的法律困境。
AI 智能体作为人工智能产业的重要创新方向,其发展潜力毋庸置疑,但技术的进步永远需要法律的护航。“养龙虾”暴雷事件为行业敲响了警钟,唯有尽快厘清AI智能体的法律适用边界,明确各主体的责任归属,完善相关规制体系,才能让AI智能体在合法合规的前提下健康发展,真正释放技术创新的价值。
(本文仅代表作者观点,不代表知产财经立场,平台并不承诺对内容负责,如有相关疑问,请联系文章作者。)





京公网安备 11010502049464号