4QDaWwVL8rd tech.huanqiu.comarticleOpenClaw现象揭示创新与安全平衡新命题/e3pmh164r/e3pmh16qj科技日报记者 李均 通讯员 许凤婷近日,一款名为OpenClaw的开源AI助手,正以现象级的速度从技术圈走向全球视野。它不仅在一周内于GitHub上获得超过14万次标星,更实现了对飞书、钉钉、Teams等超过50个办公及社交平台的深度接入,将AI从对话伙伴转变为触手可及的“跨平台数字生产力”。由其催生的AI社交网络Moltbot,已快速衍生出1.4万个讨论社区展现出一个自发组织、高速演化的数字生态雏形。这场由个人开发者点燃的技术风暴,在生动预示智能体时代已呼啸而至的同时,也将一个核心议题推至前台:当AI的能力边界与系统权限被极大拓展,我们应如何构建与之匹配的安全框架,为这场深刻的生产力变革护航?OpenClaw的实践,既是一次面向未来的创新冲刺,也为整个行业如何负责任地发展提供了关键的观察样本。 “现在AI带来的风险还在人类的围栏里面,但逼近围栏的速度比我们想象的更快。”上海人工智能实验室领军科学家胡侠认为,OpenClaw的发展速度虽超预期,但目前整体风险仍在可控的研究框架内,其揭示的挑战恰恰证明了构建内生安全体系的必要性,“关键是要主动设防,拓展围栏的高度和厚度来应对未知的冲击。”高效背后潜藏风险“如果说OpenClaw是用户手中的一把利刃,那么现在的这把刀并没有刀鞘。”胡侠在接受科技日报记者采访时评价道。业内专家分析,OpenClaw这类自主性智能体带来的最大风险,不在于某行代码里的程序错误,而在于其赋予了AI过高的“系统代理权”。这个核心逻辑中包含了三个不同维度的风险。首当其冲的是微观行为失控。OpenClaw拥有访问系统核心的“上帝权限”,一旦被恶意代码利用,其本身就会成为攻击者的“合法钥匙”。更隐蔽的是,部分智能体已出现为维持任务而自发占用系统资源的行为,这实质上是AI对控制权的“攫取”。智能体间形成隐形通信也是风险因素之一。它们能在公开平台上利用人类无法理解的指令进行交互,相当于在人类监管下构建了一个潜在的AI“暗网”,用以协调规避安全策略。宏观防线面临的全新冲击也不容忽视。随着智能体互联,一种名为“提示词感染”的攻击可像病毒般传播。当数百万拥有系统权限的节点基于任务自发结盟,可能形成具有“群体智能”的僵尸网络,传统边界防御对此类去中心化、涌现式的攻击可能失效。锻造“内生安全”剑鞘当OpenClaw及Moltbot所展现的“百万级”AI智能体交互规模,已从“班级讨论”升级为“城市级”生态,这种量级的激增或将涌现难以预料和控制的局面,构成对安全边界的实质触碰与挑战。胡侠强调,最危险的并非已知风险,而是“没有想到的危险”,因此,当前的核心任务是,在AI能力飙升的同时,前瞻性地构建“Make Safe AI”(内生安全)体系。上海人工智能实验室基于“AI-45°平衡律”理念,主张性能与安全需协同发展。具体实践中,通过开源《AI智能体新兴风险白皮书》系统识别风险;构建评测工具与动态诊断框架,实现风险提前模拟与精准定位;建立严格的供应链审查与数字沙箱隔离机制,从源头防护。同时,实验室还开源了能快速诊断风险的智能体守卫模型,并探索将安全准则内嵌至智能体决策层的“内生进化”治理框架。“这些工作旨在将安全能力深度融入AI发展全链条,为智能体时代的‘内生安全’提供系统性解决方案。”胡侠告诉记者。1770080940537责编:窦鹏科技日报17700809405371[]//img.huanqiucdn.cn/dp/api/files/imageDir/a02f03bcbe424dd405bcfa9b9a1af369.jpg{"email":"doupeng@huanqiu.com","name":"窦鹏"}
科技日报记者 李均 通讯员 许凤婷近日,一款名为OpenClaw的开源AI助手,正以现象级的速度从技术圈走向全球视野。它不仅在一周内于GitHub上获得超过14万次标星,更实现了对飞书、钉钉、Teams等超过50个办公及社交平台的深度接入,将AI从对话伙伴转变为触手可及的“跨平台数字生产力”。由其催生的AI社交网络Moltbot,已快速衍生出1.4万个讨论社区展现出一个自发组织、高速演化的数字生态雏形。这场由个人开发者点燃的技术风暴,在生动预示智能体时代已呼啸而至的同时,也将一个核心议题推至前台:当AI的能力边界与系统权限被极大拓展,我们应如何构建与之匹配的安全框架,为这场深刻的生产力变革护航?OpenClaw的实践,既是一次面向未来的创新冲刺,也为整个行业如何负责任地发展提供了关键的观察样本。 “现在AI带来的风险还在人类的围栏里面,但逼近围栏的速度比我们想象的更快。”上海人工智能实验室领军科学家胡侠认为,OpenClaw的发展速度虽超预期,但目前整体风险仍在可控的研究框架内,其揭示的挑战恰恰证明了构建内生安全体系的必要性,“关键是要主动设防,拓展围栏的高度和厚度来应对未知的冲击。”高效背后潜藏风险“如果说OpenClaw是用户手中的一把利刃,那么现在的这把刀并没有刀鞘。”胡侠在接受科技日报记者采访时评价道。业内专家分析,OpenClaw这类自主性智能体带来的最大风险,不在于某行代码里的程序错误,而在于其赋予了AI过高的“系统代理权”。这个核心逻辑中包含了三个不同维度的风险。首当其冲的是微观行为失控。OpenClaw拥有访问系统核心的“上帝权限”,一旦被恶意代码利用,其本身就会成为攻击者的“合法钥匙”。更隐蔽的是,部分智能体已出现为维持任务而自发占用系统资源的行为,这实质上是AI对控制权的“攫取”。智能体间形成隐形通信也是风险因素之一。它们能在公开平台上利用人类无法理解的指令进行交互,相当于在人类监管下构建了一个潜在的AI“暗网”,用以协调规避安全策略。宏观防线面临的全新冲击也不容忽视。随着智能体互联,一种名为“提示词感染”的攻击可像病毒般传播。当数百万拥有系统权限的节点基于任务自发结盟,可能形成具有“群体智能”的僵尸网络,传统边界防御对此类去中心化、涌现式的攻击可能失效。锻造“内生安全”剑鞘当OpenClaw及Moltbot所展现的“百万级”AI智能体交互规模,已从“班级讨论”升级为“城市级”生态,这种量级的激增或将涌现难以预料和控制的局面,构成对安全边界的实质触碰与挑战。胡侠强调,最危险的并非已知风险,而是“没有想到的危险”,因此,当前的核心任务是,在AI能力飙升的同时,前瞻性地构建“Make Safe AI”(内生安全)体系。上海人工智能实验室基于“AI-45°平衡律”理念,主张性能与安全需协同发展。具体实践中,通过开源《AI智能体新兴风险白皮书》系统识别风险;构建评测工具与动态诊断框架,实现风险提前模拟与精准定位;建立严格的供应链审查与数字沙箱隔离机制,从源头防护。同时,实验室还开源了能快速诊断风险的智能体守卫模型,并探索将安全准则内嵌至智能体决策层的“内生进化”治理框架。“这些工作旨在将安全能力深度融入AI发展全链条,为智能体时代的‘内生安全’提供系统性解决方案。”胡侠告诉记者。