Claude Mythos预览版发布:AI安全警钟敲响,玻璃翼计划启动全球防御

Claude Mythos 预览版发布:AI 安全警钟敲响

就在刚刚,Anthropic 备受瞩目的最强模型——Claude Mythos,发布了其预览版本。

Claude Mythos预览版发布:AI安全警钟敲响,玻璃翼计划启动全球防御

这款模型的表现印证了此前的传闻,其性能在多项基准测试中实现了对前代模型 Claude Opus 4.6 的全面超越。

  • SWE-bench Pro:代码错误修复能力提升 24%。
  • SWE-bench Verified:在更严格的验证集上测试,仍有 13% 的性能提升。
  • Terminal-Bench 2.0:计算机操作类智能体能力提升 17%。

Claude Mythos预览版发布:AI安全警钟敲响,玻璃翼计划启动全球防御
Claude Mythos预览版发布:AI安全警钟敲响,玻璃翼计划启动全球防御

然而,Anthropic 此次的关注焦点并非性能炫耀。官方博客的字里行间,流露出一种不同寻常的“担忧”。

因为这款强大的“神话”模型,被发现存在一个致命的“缺陷”:其发现和利用安全漏洞的能力,已经超越了绝大多数人类黑客。

Mythos 预览版已经发现了数千个高危漏洞,各大主流操作系统和浏览器无一幸免。

Anthropic 指出,随着 AI 编程能力的飞速进化,其攻击性的一面也在同步野蛮生长。目前,仅有最顶尖的一小撮安全专家还能与之抗衡。

为了应对这一迫在眉睫的威胁,Anthropic 做出了一个非常规决定:暂不向公众开放 Claude Mythos。相反,它将作为 玻璃翼计划 的一部分,先行提供给选定的合作伙伴。

Claude Mythos预览版发布:AI安全警钟敲响,玻璃翼计划启动全球防御

玻璃翼计划:全球防御启动

这是一场规模空前的安全协作。为了在“猛兽”完全出笼前建立起防护栏,Anthropic 联合了 Amazon、Apple、Google、Linux Foundation、Microsoft、NVIDIA 等众多科技巨头。

所有参与方都将利用 Mythos 预览版进行防御性安全研究,提前发现并修补自身系统的漏洞。Anthropic 承诺将分享此过程中的经验,并计划提供最高 1 亿美元的计算资源额度以支持此项工作,同时已向开源安全组织捐赠了 400 万美元。

Claude Mythos预览版发布:AI安全警钟敲响,玻璃翼计划启动全球防御

被“囚禁”的模型与全行业的警钟

Claude Mythos 的发布,可能彻底改变网络安全的格局。AI 安全已不再是遥远的理论风险,而是摆在眼前的现实挑战。

Anthropic 强调,保护全球网络基础设施将是一项持续数年的系统工程,需要前沿 AI 公司、软件厂商、安全研究员、开源社区乃至各国政府的共同参与。面对能力可能在未来几个月内再次跃迁的 AI,行动必须立刻开始。

Claude Mythos预览版发布:AI安全警钟敲响,玻璃翼计划启动全球防御

参考链接:
[1] https://x.com/alexalbert__/status/2041579938537775160
[2] https://www.anthropic.com/glasswing

Claude Mythos预览版发布:AI安全警钟敲响,玻璃翼计划启动全球防御


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/29169

(0)
上一篇 2026年4月7日 下午5:45
下一篇 2026年4月8日 下午1:45

相关推荐

  • 大模型安全攻防新图景:从文字谜题越狱到音频后门,AI防御体系面临多维挑战

    随着大语言模型(LLMs)和音频大语言模型(ALLMs)在代码生成、漏洞分析、智能合约审计乃至多模态交互等安全关键领域加速应用,其自身的安全防线与作为安全工具的双重角色正经历前所未有的压力测试。近期一系列前沿研究揭示,攻击手段正从传统的提示注入向更隐蔽、更富创造性的维度演进,而模型在防御与攻击任务中的表现则呈现出显著的“双刃剑”特性。这不仅刷新了业界对AI安…

    2025年8月8日
    24500
  • 思科开源安全大模型Foundation-sec-8B:网络安全领域的专用AI新范式

    在网络安全威胁日益复杂化的背景下,通用大语言模型(LLM)在安全领域的应用面临着精度不足、领域知识缺失和部署障碍等多重挑战。2025年4月28日,思科推出的开源安全大模型Foundation-sec-8B(Llama-3.1-FoundationAI-SecurityLLM-base-8B)标志着网络安全AI进入专用化新阶段。这款80亿参数的开放权重模型专为…

    大模型安全 2025年4月29日
    32400
  • 诗歌攻击:大语言模型安全防线在文学隐喻下的全面崩溃

    诗歌攻击:大语言模型安全防线在文学隐喻下的全面崩溃 一项最新研究揭示,一种出人意料的简单方法能有效突破主流大语言模型(LLM)的安全限制:将恶意指令改写为诗歌。这项由罗马大学和DEXAI实验室的研究人员开展的工作表明,面对“诗歌攻击”,即便是GPT-5、Gemini 2.5 Pro、Claude 4.5等顶尖模型的安全护栏也可能瞬间失效。 论文《Advers…

    2025年11月25日
    25200
  • 微软365 Copilot遭遇“零点击”AI钓鱼攻击:EchoLeak漏洞深度解析与企业AI安全新挑战

    随着ChatGPT、Gemini等大语言模型的广泛应用,AI助手已深度融入企业办公场景,微软365 Copilot、谷歌Gemini及各类本地协作机器人正重塑工作流程。然而,技术革新往往伴随新型风险。近日,知名安全公司Aim Labs发布报告,披露针对Microsoft 365 Copilot的重大安全漏洞“EchoLeak”(CVE-2025-32711)…

    2025年6月15日
    23900
  • AI安全攻防新纪元:从隐形越狱到自动化渗透的四大前沿突破

    随着生成式AI与智能体技术的深度融合,人工智能安全领域正经历一场静默的革命。攻击手段已从早期可见的提示注入,悄然演变为利用不可见字符渗透的隐形威胁;而防御体系也从单一防火墙模式,升级为覆盖模型全生命周期的立体防护框架。本周,我们聚焦四项具有里程碑意义的领域研究,它们分别在大模型推理能力滥用、自动化渗透测试、蜜罐防御创新及后门攻击分类体系方面取得了关键突破,不…

    2025年10月14日
    30700