法治日报社区版发表文章《“养龙虾”与AI风险责任承担的转向》,文章指出,尽管OpenClaw带来了不少安全风险,但难以阻挡AI智能体的快速发展。在这一技术浪潮下,风险责任承担模式的转变成为了必须面对的重要问题。
法律风险承担遵循“谁控制谁承担”的原则,这也是行为人要为自身行为担责、被代理人要为代理人行为担责、动物饲养人要为动物行为担责的缘由。传统AI应用呈现中心式网络结构,大型平台如同“守门人”,承担着过滤安全风险的核心义务,所以绝大多数风险责任由平台承担,或者由平台向开发者追责。然而,AI智能体涉及大模型和调用工具,虽然大模型仍由平台控制,但调用工具(如OpenClaw)的实际控制权转移到了用户手中,应用形态转变为分布式网络结构。这就表明平台无法掌控智能体的具体使用场景,控制能力的减弱直接导致责任边界缩小。这也预示着,未来AI智能体应用产生的风险,可能更多地由实际控制者即用户自身来承担。
更为复杂的是,用户虽然向AI智能体发布指令,但AI智能体的自主行为能力会削弱实际控制效果。由于AI智能体既没有生命也没有财产,无法对自身造成的损害承担责任,最终的责任就会落在“实际上没有控制能力”的用户身上。同时,对于OpenClaw来说,它的技能插件大多由社区开发者提供,部分插件可能存在恶意代码或安全漏洞,用户在安装过程中很难完全识别,这进一步增加了责任承担的复杂性。