AI末世正在悄悄逼近?日前多所顶尖高校联合发布的《混沌智能体》研究,以及Kiteworks的风险预测报告,共同揭露了企业AI治理的严重问题。
超60%的企业面对失控的AI智能体,只能实现行为监控,却做不到强行终止。
这份《混沌智能体》研究由哈佛、麻省理工、斯坦福等高校联合完成,研究团队在2026年2月2日至22日,模拟真实企业生产环境部署AI智能体,仅两周就记录下11起严重安全漏洞,证实当下的AI智能体极易被操控。
而且攻破这类智能体的方式并不复杂,无需篡改训练数据或利用系统漏洞,仅通过社交工程对话就能实现,比如智能体会在转发邮件时,违规附带社保号、银行账户等敏感信息,甚至会在攻击者伪造身份后,交出系统最高管理权限。

Kiteworks的报告则给出了具体的行业数据,除了60%的企业无法终止异常AI智能体,还有63%的企业没法限制其使用范围。
在掌握关键基础设施的政府机构中,这一问题更突出,76%的部门都没有为AI智能体配备“一键终止”的功能,让失控的风险大幅增加。
针对这些问题,行业专家提出,仅靠优化提示词、设置模型护栏已经没用,企业需要把AI治理的核心从约束模型本身,转移到管控底层数据层。
在AI智能体和敏感数据之间建立统一的安全控制平面,让智能体的每一次数据访问都经过严格的验证、授权和审计。
游戏专题
图片专题
热门游戏
随便看看
新闻 公告 攻略 视频 礼包




























