OpenAI正式推出专为网络安全防御微调的新模型GPT-5.4-Cyber,目前仅限网络安全专家使用。该模型旨在释放GPT-5.4在网络安全领域被评定为“高”级别的能力。

与此同时,OpenAI升级了其网络安全“信赖访问计划”(Trusted Access for Cyber, TAC)。
| 
—|—
GPT-5.4-Cyber发布

GPT-5.4-Cyber专门降低了在合法安全研究中的拒绝响应率,减少了安全专家在进行漏洞分析与代码审计时的阻碍。

安全从业者可以利用该模型分析已编译的软件,即使在没有源代码的情况下,也能高效识别恶意软件倾向并评估软件的鲁棒性。

TAC计划:建立AI时代的信任墙

OpenAI的策略核心在于赋能防御者。TAC计划通过自动化身份验证,减少安全任务中的技术限制。其网络安全战略由三大原则指导:
- 准入民主化
防御工具不应是大公司的专利。通过身份验证(KYC),合法的个人研究者或小型团队都能使用先进的AI来保护关键系统。 - 迭代式部署
安全能力需在实战中锤炼。OpenAI将通过小范围部署,持续测试模型对“越狱”和攻击的抵抗力,使其在迭代中变得更加强健。 - 投资生态系统韧性
通过高达1000万美元的安全资助计划、对开源安全项目的贡献,以及自动监测修复漏洞的Codex Security工具,全面提升社区的安全免疫力。Codex Security工具能够自动扫描代码、报告漏洞并直接生成修复方案,自发布以来已自动修复超过3000个高危和致命漏洞。
将最强AI能力赋予“守门员”
此前有报道率先披露了这款基于GPT-5.4微调的安全模型。在GPT-5.3-Codex上线后,OpenAI内部便启动了TAC试点计划,旨在利用高能力模型加速防御性研究。

此前一周,Anthropic公开了Claude Mythos(预览版)的基准测试,并联合多家公司发起“Project Glasswing”联盟,投入1亿美元为部分巨头提供Claude Mythos的优先访问权。


OpenAI与Anthropic的策略类似,都旨在将最先进的AI能力精准交付给网络安全领域的“守门员”。然而,一份最新报告指出,目前一些现有模型已具备发现部分漏洞的能力。

这意味着,AI公司正面临微妙的博弈:既要防止先进技术被滥用,又需在潜在风险模型出现前,建立起强大的AI防御体系。这场关于AI能力与控制的竞赛刚刚开始。
参考资料:
https://openai.com/index/scaling-trusted-access-for-cyber-defense/
https://www.axios.com/2026/04/14/openai-model-cyber-program-release
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/30388

