Anthropic推出漏洞发现新模型 启动Glasswing行业联合测试计划

2026-04-26阅读 312热度 312
大语言模型

2026年4月,AI安全新范式:Anthropic启动“玻璃翼”计划

2026年4月,人工智能领域迎来一个标志性事件。知名AI公司Anthropic推出了一款名为Mythos的全新大模型,其核心卖点在于超强的安全漏洞发现能力。然而,正是这项能力过于强大,引发了公司内部的担忧——万一被恶意利用怎么办?为此,Anthropic没有选择常规的发布路径,而是正式启动了一项名为“Project Glasswing”(玻璃翼计划)的封闭测试。他们邀请了包括亚马逊AWS、苹果、谷歌、微软在内的50余家全球科技巨头作为合作伙伴,共同参与测试,旨在帮助这些企业提前排查和修复自身产品的安全隐患。不过,正如网络安全研究机构VulnCheck的研究员Patrick Garrity所指出的,目前关于该计划的具体成果,尚无公开的确凿数据。

争议的焦点:AI挖漏洞,是福还是祸?

在AI安全这个圈子里,大模型到底能在漏洞挖掘上发挥多大作用,一直是个充满争议的话题。Anthropic这次推出的Mythos模型,无异于向这个争议的核心投下了一颗“深水冲击波”。根据官方披露的信息,这款模型的漏洞发现能力已经强到了“可能引发混乱”的地步,这才催生了后续这场高度封闭的行业联合测试。可以说,Mythos的出现,直接把理论争议推向了必须面对的现实抉择。

过去几年,形势已经悄然变化。网络黑产早已开始尝试利用大模型自动挖掘软件和在线服务的漏洞,攻击效率相比传统手工方式提升了数倍,这让全球科技公司的安全团队压力倍增。一个行业共识逐渐清晰:既然攻击方已经在用AI武装自己,那么防御方也必须拥有更强大的AI武器来提前布防。这,正是Mythos这类模型诞生的最根本逻辑。

但Anthropic随即陷入了一个典型的“双刃剑”困境:如果把具备超强漏洞挖掘能力的模型完全公开,它极有可能反过来被攻击者所用,从而制造出更大的安全灾难。于是,一个核心问题浮出水面:如何既能释放AI的巨大技术价值,又能牢牢管控住它可能带来的潜在风险?Project Glasswing计划,正是为了解决这个棘手问题而设计的。

闭门测试:在可信范围内验证“危险”能力

根据已公布的信息,Project Glasswing目前汇聚了50余家来自全球的行业合作伙伴。虽然完整名单尚未对外公开,但亚马逊网络服务(AWS)、苹果、谷歌、微软这四家顶级科技巨头确认在列,已经足以说明该计划的重量级。

这些企业自身就拥有海量的公众产品和云服务,历来是漏洞挖掘者眼中的“高价值目标”,它们也常年维持着规模庞大的内部安全团队。Anthropic设计的模式很巧妙:允许这些合作企业有限度地调用Mythos的能力,用来扫描自家产品的代码和服务,目标是在外部攻击者发现漏洞之前,就完成修复。这种“闭门联合测试”的模式,其本质是将强大的、带有潜在风险的AI能力,严格限定在一个可信的、可控的场景之内。它既完成了技术有效性的验证,又最大程度地降低了技术扩散可能带来的风险。

然而,截至目前,整个计划的实际成效依然笼罩在迷雾之中。VulnCheck研究员Patrick Garrity针对全球公开漏洞库(CVE)的检索结果显示,尚未发现任何明确标注与Project Glasswing相关的已披露漏洞。也就是说,还没有确凿的公开数据能够证明,Mythos的实际能力究竟达到了何种水平,又发现了哪些具体问题。

新思路与待解题

无论如何,Anthropic的这次尝试,为整个AI安全领域提供了一种全新的解题思路。对于这类“能力过强、以至于存在潜在风险”的尖端AI技术,行业并非只有“完全公开”或“彻底雪藏”这两个极端选项。通过头部企业联合内测的方式,或许能在技术发展与风险管控之间,找到一个暂时的平衡点。

当然,这种模式也留下了许多悬而未决的问题,值得整个行业持续观察:未来,这类漏洞挖掘AI是否会逐步向中小开发者和企业开放?巨头间的联合内测,是否会形成新的技术壁垒和护城河?更令人担忧的是,Mythos所展现的能力,会不会在未来的某一天,通过某种方式“溢出”到灰色甚至黑色市场?这些问题,都需要后续更多的公开信息和实践来回答。

目前,整个AI安全领域的目光都聚焦在Project Glasswing的进展上。一旦这套“受限共享、联合防御”的模式被验证可行,它很可能将成为AI治理与安全协作的一个新方向,影响深远。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策