OpenAI突然封锁最强GPT-5.4!3000个致命Bug瞬间蒸发
GPT-5.4-Cyber震撼发布
OpenAI这次的动作,确实有点意思。就在Claude Mythos相关信息泄露一周后,他们正式亮出了底牌——GPT-5.4-Cyber。这款专门为安全防御微调的强力模型,不仅能无源码分析恶意软件,更已自动修好3000个高危漏洞。看来,OpenAI也开始效仿Anthropic,玩起了“神秘”策略。
目前,这款全新模型已正式发布,但有一个关键限制:仅限网络安全专家使用。
从命名上就能看出其定位:这是一款专为安全防御场景深度微调的强力模型。与此同时,OpenAI今天还升级了其网络安全“信赖访问计划”。
前有Claude Mythos,后有GPT-5.4-Cyber,巨头间的安全竞赛已然升温。
GPT-5.4-Cyber:专为防御者打造的利器
随着模型能力呈阶梯式增长,标准的GPT-5.4已被评定为具备“高”级别的网络安全能力。为了彻底释放其在防御端的潜力,OpenAI决定推出这款针对性更强的专用模型。
那么,它具体强在哪里?首先,这款模型专门降低了在合法安全研究中的拒绝响应率,这意味着安全专家在进行漏洞分析和代码审计时,遇到的阻碍会大大减少。更重要的是,安全从业者现在可以利用它直接分析已编译的软件。即便没有源代码,也能高效识别恶意软件倾向,并精准评估软件的鲁棒性。
TAC计划:建立AI时代的信任墙
OpenAI此番策略的核心,非常明确:赋能防御者。通过升级后的“信赖访问计划”,最新提供了自动化身份验证,旨在减少安全任务中的技术限制与阻碍。
其整个网络安全战略,由三大原则指导:
准入民主化
防御工具不应成为大公司的专属专利。通过严格的身份验证流程,无论是个人安全研究员还是小型团队,只要身份合法,都有机会使用最先进的AI来保护关键系统。
迭代式部署
安全能力绝非在实验室里闭门造车就能获得。OpenAI将通过小范围部署,持续测试模型对“越狱”和各类攻击的抵抗力,让模型在真实的攻防对抗中变得更“硬气”。
投资生态系统韧性
这包括高达1000万美元的安全资助计划、对开源安全项目的实质性贡献,以及能自动监测并修复漏洞的Codex Security工具。目标很清晰:全面提升整个开发者社区的“免疫力”。
千万别以为这只是纸上谈兵。Codex Security已经交出了一份亮眼的成绩单:它能自动审查代码、报告漏洞,甚至直接生成修复方案。自发布以来,它已经成功修复了超过3000个高危和致命漏洞。这种“代码刚写完,安全就办妥”的自动化模式,或许正是未来的主流趋势。
封锁最强AI,交给“守门员”
其实,关于这款基于GPT-5.4微调的安全模型,几天前Axios的独家报道就已率先披露。
实际上,在GPT-5.3-Codex上线后,OpenAI内部便启动了“信赖访问计划”的试点,仅限部分人士加入,核心目的就是利用高能力模型加速防御性研究。只不过,这次在宣发节奏上,似乎又被Anthropic抢了先机。
上一周,Claude Mythos的预览版基准测试全面公开,同时Anthropic联合40家行业巨头发起“Project Glasswing”联盟。他们率先投入1亿美元,为苹果、谷歌、英伟达等顶级公司提供Claude Mythos的提前访问权限。
OpenAI等了一周才正式发牌,说晚也晚,但说没晚也没晚——毕竟目前绝大多数人仍然无法使用这些最强模型。简单来说,Anthropic和OpenAI的策略异曲同工:都是要把最尖端的AI能力,精准地交到“守门员”(即防御方)手中。
尽管硅谷巨头们严防死守,但上周AISLE发布的一份最新报告,却给现实泼了一盆冷水。报告指出,目前一些现有模型,包括部分版本的GPT和DeepSeek,已经具备了Mythos所能发现的某些漏洞检测能力。
这揭示了一个微妙的博弈现状:AI巨头们正走在钢丝上。他们既要防止自己打造的“利刃”伤及无辜,又必须抢在更危险、更不可控的模型出现之前,建立起足够强大的AI防御体系。这场关乎AI“攻击力”与“控制力”的终极竞赛,其实才刚刚拉开序幕。







