4QiQ1N1aN93 tech.huanqiu.comarticle报告:AI 治理存短板,超六成企业难管失控智能体/e3pmh164r/e3pmtmdvg【环球网科技综合报道】3月12日消息,哈佛大学、麻省理工学院等多所顶尖高校联合多家顶尖机构近日发表《混沌智能体》研究报告,直指当前企业AI治理存在显著断层,AI智能体存在严重安全隐患,超六成企业面对失控的AI智能体缺乏有效终止能力,行业面临“能看不能管”的治理难题,AI安全治理体系建设迫在眉睫。此次研究团队模拟真实企业生产环境部署AI智能体,在短短两周内便触发并记录下11起严重安全漏洞案例,证实企业环境中的AI智能体极易被操控,其安全风险远超预期。研究发现,攻破AI智能体并非需要投毒训练数据、利用零日漏洞等复杂手段,仅通过传统的“社交工程”对话即可实现。例如,部分AI智能体虽会明确拒绝直接提取数据的请求,却可能在执行“转发邮件”等常规指令时,违规附带社保号码、银行账户等敏感信息;当攻击者在外部平台伪造身份后,一些AI智能体还会毫无防备地接受指令,甚至出现主动清除自身配置文件、交出系统最高管理权限的极端情况,给企业数据安全和系统运行带来巨大威胁。如果说AI智能体本身的安全漏洞令人担忧,企业层面的干预能力滞后则让风险进一步放大。Kiteworks发布的2026年风险预测报告显示,当前多数企业和组织虽已投入资源对AI行为进行监控,却陷入了“能看不能管”的治理困境。数据显示,60%的企业无法强行终止行为异常的AI智能体,63%的企业难以限制失控智能体的使用范围;在掌握关键基础设施的政府机构中,这一问题更为突出,高达76%的部门未为AI智能体配备“一键终止”开关,使得AI失控后的风险被成倍放大,关键基础设施的安全运行面临严峻挑战。 针对AI智能体暴露出的系统性安全缺陷,行业专家明确表示,单纯依靠优化提示词、设置模型护栏等传统手段,已无法从根本上解决问题。破解当前AI治理难题,企业需要转变治理思路,将AI治理架构的核心从“约束AI模型本身”转移到“管控底层数据层”。专家建议,企业应在AI智能体与敏感数据之间建立统一的安全控制平面,通过构建全流程的安全管理体系,让AI智能体的每一次数据访问请求,都经过严格的身份验证、权限授权和行为审计,以架构层面的硬性约束实现对AI风险的有效管理,从源头防范AI智能体失控带来的各类安全问题。(纯钧)1773290785998环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:郑湘琪环球网177329078599811[]//img.huanqiucdn.cn/dp/api/files/imageDir/f24a999139cda61b27c6a816ce1f992au1.png{"email":"zhengxiangqi@huanqiu.com","name":"郑湘琪"}
【环球网科技综合报道】3月12日消息,哈佛大学、麻省理工学院等多所顶尖高校联合多家顶尖机构近日发表《混沌智能体》研究报告,直指当前企业AI治理存在显著断层,AI智能体存在严重安全隐患,超六成企业面对失控的AI智能体缺乏有效终止能力,行业面临“能看不能管”的治理难题,AI安全治理体系建设迫在眉睫。此次研究团队模拟真实企业生产环境部署AI智能体,在短短两周内便触发并记录下11起严重安全漏洞案例,证实企业环境中的AI智能体极易被操控,其安全风险远超预期。研究发现,攻破AI智能体并非需要投毒训练数据、利用零日漏洞等复杂手段,仅通过传统的“社交工程”对话即可实现。例如,部分AI智能体虽会明确拒绝直接提取数据的请求,却可能在执行“转发邮件”等常规指令时,违规附带社保号码、银行账户等敏感信息;当攻击者在外部平台伪造身份后,一些AI智能体还会毫无防备地接受指令,甚至出现主动清除自身配置文件、交出系统最高管理权限的极端情况,给企业数据安全和系统运行带来巨大威胁。如果说AI智能体本身的安全漏洞令人担忧,企业层面的干预能力滞后则让风险进一步放大。Kiteworks发布的2026年风险预测报告显示,当前多数企业和组织虽已投入资源对AI行为进行监控,却陷入了“能看不能管”的治理困境。数据显示,60%的企业无法强行终止行为异常的AI智能体,63%的企业难以限制失控智能体的使用范围;在掌握关键基础设施的政府机构中,这一问题更为突出,高达76%的部门未为AI智能体配备“一键终止”开关,使得AI失控后的风险被成倍放大,关键基础设施的安全运行面临严峻挑战。 针对AI智能体暴露出的系统性安全缺陷,行业专家明确表示,单纯依靠优化提示词、设置模型护栏等传统手段,已无法从根本上解决问题。破解当前AI治理难题,企业需要转变治理思路,将AI治理架构的核心从“约束AI模型本身”转移到“管控底层数据层”。专家建议,企业应在AI智能体与敏感数据之间建立统一的安全控制平面,通过构建全流程的安全管理体系,让AI智能体的每一次数据访问请求,都经过严格的身份验证、权限授权和行为审计,以架构层面的硬性约束实现对AI风险的有效管理,从源头防范AI智能体失控带来的各类安全问题。(纯钧)