OpenAI发布GPT-5.4-Cyber:专为网络安全打造的强化模型,对标Anthropic Claude Mythos

OpenAI 发布了专为网络安全场景定制的强化模型 GPT-5.4-Cyber。此次发布并非业界期待已久的 GPT-5.5 或 GPT-6,而是一个针对网络安全工作流程进行专门微调的版本。

OpenAI 表示,此举旨在扩展其“网络安全受信访问”(Trusted Access for Cyber, TAC)体系。该框架于两个多月前推出,旨在通过基于信任的机制,在加强滥用防护的同时,扩大前沿网络功能的应用范围。目前,OpenAI 正将 TAC 项目的覆盖范围扩大至数千名经过验证的个人安全防御者及数百个关键软件保护团队。

最高级别的认证客户可以申请使用 GPT-5.4-Cyber。该模型在合法防御场景下降低了拒绝门槛,并支持更高级的能力,例如二进制逆向分析,使其能够在没有源代码的情况下分析软件的潜在恶意行为或漏洞。

OpenAI发布GPT-5.4-Cyber:专为网络安全打造的强化模型,对标Anthropic Claude Mythos

有行业观点认为,此次 GPT-5.4-Cyber 的小范围测试,是对标 Anthropic 近期发布的 Claude Mythos 模型。然而,这更似两条分叉的技术路线:一条致力于打造“更具攻击性的安全模型”,另一条则专注于构建“更可控的智能系统”。

OpenAI发布GPT-5.4-Cyber:专为网络安全打造的强化模型,对标Anthropic Claude Mythos
OpenAI发布GPT-5.4-Cyber:专为网络安全打造的强化模型,对标Anthropic Claude Mythos

值得注意的是,该模型的命名在社区中引发了一些讨论,有评论认为“GPT-5.4-Cyber 这个名字听起来更像一个被取消的成人聊天产品”。

OpenAI发布GPT-5.4-Cyber:专为网络安全打造的强化模型,对标Anthropic Claude Mythos

OpenAI 的网络安全防御策略长期建立在几个核心原则之上:普及工具获取、通过持续迭代部署能力以及提升整个生态的韧性。随着模型能力提升,其策略同步推进:一方面让合规的防御人员获得更广泛的前沿能力使用权限,另一方面持续强化安全防护措施。

TAC 项目在今年 2 月推出时,主要为个人提供自动身份验证,并与部分机构合作开放模型能力。此次扩展新增了多个访问等级。经过更严格认证的用户可申请使用 GPT-5.4-Cyber。

由于该模型能力更为开放,OpenAI 计划以小规模、渐进的方式部署,优先提供给经过审核的安全厂商、组织和研究人员。在某些场景下(例如零数据保留),访问可能会受到限制,尤其是在通过第三方平台使用、OpenAI 对用户环境和用途可见性较低的情况下。

TAC 访问方式如下:
* 个人用户可在 OpenAI 官网完成身份验证。
* 企业用户可通过 OpenAI 客户经理申请团队访问权限。

通过审核的用户将能够使用安全限制更灵活的模型版本,以更好地支持安全教育、防御开发和负责任的漏洞研究。已处于 TAC 体系内的用户完成进一步认证后,亦可申请更高等级权限,包括使用 GPT-5.4-Cyber。

OpenAI 还指出,对于未来即将推出的、能力更强的模型,现有的安全机制预计仍然有效。但对于那些专门针对网络安全训练且放宽使用限制的模型,则需要更严格的部署方式和相应的控制措施。从长远看,为确保 AI 在网络安全领域的安全性,OpenAI 预计需要构建更完善、更强大的防护体系,因为未来模型的能力很可能迅速超越当前最先进的专用模型。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/30224

(0)
上一篇 2小时前
下一篇 2小时前

相关推荐

  • AI安全前沿深度剖析:从越狱攻击到多模态防御,构建鲁棒大模型的新范式

    近期,人工智能安全领域的研究焦点正从传统的漏洞修补转向对大型语言模型(LLM)系统性脆弱性的深度解构与主动防御机制的创新构建。一系列前沿论文不仅揭示了当前技术在对抗性攻击面前的显著局限,更为构建下一代鲁棒、可信的AI系统提供了多维度的解决方案。这些进展对于应对日益复杂的安全挑战、推动AI技术的负责任部署具有至关重要的指导意义。 在模型攻击层面,研究揭示了LL…

    2025年12月8日
    22100
  • AI生成数据污染:医疗诊断可靠性的隐形杀手与破解之道

    随着生成式人工智能在医疗领域加速渗透,越来越多的病历、影像报告及各类临床文本正逐步纳入AI参与生成的范畴。这一旨在提升效率的技术革新背后,潜藏着威胁诊断安全性的深层隐患。 一项由新加坡国立大学、哈佛大学、斯坦福大学、耶鲁大学、谷歌及梅奥诊所等机构的跨学科团队完成的最新研究表明,当AI生成的临床文本被用作训练新一代AI模型时,一些罕见但关键的病理信息会在数据迭…

    2026年3月17日
    32300
  • Anthropic误杀8100个GitHub库!51万行Claude Code源代码全球裸奔,竟有8000个是“误伤”

    51万行Claude Code源代码意外泄露,Anthropic依据DMCA法规向GitHub发出下架通知,却意外导致超过8000个无关仓库被“误伤”。此外,泄露的代码中还发现了潜在的高危安全漏洞。 一夜之间,Anthropic因源代码泄露事件,向GitHub提交了DMCA(数字千年版权法)下架通知,意图控制局面。然而,这一行动引发了远超预期的连锁反应。 通…

    2026年4月2日
    52000
  • OpenAI创新忏悔机制:让AI主动坦白幻觉与欺骗行为,提升大模型透明度与安全性

    当AI变得越来越聪明时,其行为也愈发难以掌控。一个令研究者头疼的问题是:当AI开始“耍小聪明”时,例如:* 一本正经地胡说八道(幻觉,Hallucination)* 为获取高分而寻找训练机制漏洞(奖励黑客,Reward Hacking)* 在对抗测试中出现“密谋欺骗”(Scheming) 如何破解这些难题?最大的挑战在于,这些AI的回答往往表面看起来逻辑严谨…

    2025年12月21日
    27900
  • 开源Agentic Radar:AI安全透明化革命,重塑智能体系统防护新范式

    2025年3月,AI安全服务商SplxAI正式开源其核心产品Agentic Radar。这款聚焦智能体工作流透明化的工具,正以独特的架构可视化能力解决AI安全领域的“黑箱困境”,或将重塑企业级AI系统的安全防护标准。 一、深度解析Agentic Radar技术架构 Agentic Radar是用于智能体系统的开源扫描仪工具,可帮助安全团队和AI工程师了解AI…

    2025年3月16日
    29500