OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

OpenAI正式推出专为网络安全防御微调的新模型GPT-5.4-Cyber,目前仅限网络安全专家使用。该模型旨在释放GPT-5.4在网络安全领域被评定为“高”级别的能力。

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

与此同时,OpenAI升级了其网络安全“信赖访问计划”(Trusted Access for Cyber, TAC)。

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞 | OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞
—|—

GPT-5.4-Cyber发布

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

GPT-5.4-Cyber专门降低了在合法安全研究中的拒绝响应率,减少了安全专家在进行漏洞分析与代码审计时的阻碍。

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

安全从业者可以利用该模型分析已编译的软件,即使在没有源代码的情况下,也能高效识别恶意软件倾向并评估软件的鲁棒性。

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

TAC计划:建立AI时代的信任墙

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

OpenAI的策略核心在于赋能防御者。TAC计划通过自动化身份验证,减少安全任务中的技术限制。其网络安全战略由三大原则指导:

  • 准入民主化
    防御工具不应是大公司的专利。通过身份验证(KYC),合法的个人研究者或小型团队都能使用先进的AI来保护关键系统。
  • 迭代式部署
    安全能力需在实战中锤炼。OpenAI将通过小范围部署,持续测试模型对“越狱”和攻击的抵抗力,使其在迭代中变得更加强健。
  • 投资生态系统韧性
    通过高达1000万美元的安全资助计划、对开源安全项目的贡献,以及自动监测修复漏洞的Codex Security工具,全面提升社区的安全免疫力。Codex Security工具能够自动扫描代码、报告漏洞并直接生成修复方案,自发布以来已自动修复超过3000个高危和致命漏洞。

将最强AI能力赋予“守门员”

此前有报道率先披露了这款基于GPT-5.4微调的安全模型。在GPT-5.3-Codex上线后,OpenAI内部便启动了TAC试点计划,旨在利用高能力模型加速防御性研究。

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

此前一周,Anthropic公开了Claude Mythos(预览版)的基准测试,并联合多家公司发起“Project Glasswing”联盟,投入1亿美元为部分巨头提供Claude Mythos的优先访问权。

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

OpenAI与Anthropic的策略类似,都旨在将最先进的AI能力精准交付给网络安全领域的“守门员”。然而,一份最新报告指出,目前一些现有模型已具备发现部分漏洞的能力。

OpenAI祭出GPT-5.4-Cyber安全防御模型:无源码分析恶意软件,已自动修复3000高危漏洞

这意味着,AI公司正面临微妙的博弈:既要防止先进技术被滥用,又需在潜在风险模型出现前,建立起强大的AI防御体系。这场关于AI能力与控制的竞赛刚刚开始。

参考资料:
https://openai.com/index/scaling-trusted-access-for-cyber-defense/
https://www.axios.com/2026/04/14/openai-model-cyber-program-release


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/30388

(0)
上一篇 14小时前
下一篇 7小时前

相关推荐

  • DeepSeek爆火背后的安全隐忧:从模型下载到部署运营的全链路风险剖析

    近几个月,国产开源大模型DeepSeek凭借“小参数、高性能”的显著优势迅速席卷市场,引发了企业私有化部署需求的激增。然而,在这股AI应用热潮的背后,却暗藏着不容忽视的安全风险。最新数据显示,高达88.9%的企业在部署AI服务器时未采取任何基础安全措施,而像Ollama这类默认未启用安全认证的流行框架,更使得企业服务器如同“大门敞开”,暴露于多重威胁之下。本…

    2025年3月10日
    36200
  • DistilledPRAG:不暴露明文文档的隐私保护RAG新范式

    你是否考虑过RAG流水线中的文档隐私风险?本文介绍一种新方法,旨在解决此问题。 为何“标准RAG → 云端搜索”存在隐私缺陷 标准RAG将明文文档直接输入提示词。对于企业合同、医疗记录或个人笔记等敏感数据,这种做法在设计上就暴露了信息,不可行。 参数化RAG尝试将知识“烘焙”进LoRA权重,但在实践中面临两大挑战: 运维负担与时延:每份文档都需要生成合成问答…

    2025年11月12日
    20900
  • GPT之父Alec Radford颠覆性研究:用Token级「脑部手术」切除大模型危险知识,重学成本暴增7000倍

    Alec Radford,出生于1993年,是人工智能领域具有开创性贡献的研究者。作为GPT、GPT-2和CLIP等里程碑模型的第一作者,并深度参与了GPT-3、GPT-4及PPO算法等关键项目,其工作已获得超过32万次学术引用。 近日,他与Anthropic及斯坦福大学的研究者Neil Rathi联合发表了一项新研究,挑战了当前大模型安全领域的一个核心范式…

    2026年3月1日
    21100
  • OpenClaw“养龙虾”热潮席卷全国:大厂争相入局,安全风险与烧钱陷阱引担忧

    这段时间,国内最流行的一阵风就是“养龙虾”,即安装并训练 OpenClaw。 连马化腾都没想到会这么火。 各个大厂争相入局。 继上周的线下免费安装活动后,腾讯又连出三招:企业微信接入 OpenClaw;推出类 OpenClaw 产品 WorkBuddy;同时打造 QClaw 支持一键安装和本地部署。甚至由于 WorkBuddy 国内公开测试上线后,用户访问量…

    2026年3月10日
    39400
  • AI安全新纪元:多模态协同防御与动态博弈破解LLM越狱威胁

    一、关键发现 多模态防御体系构建成为战略刚需 研究表明,大型语言模型(LLM)与视觉语言模型(VLM)的越狱攻击源于训练数据不完整、语言歧义等结构性缺陷,因此需要建立跨模态协同防御框架。企业应优先部署感知层的变异一致性检测、生成层的安全解码及参数层的对抗性预训练对齐等技术,覆盖文本、图像、语音等全模态场景,并通过自动化红队测试和标准化评估持续验证防御效能。 …

    2026年1月12日
    75600