Anthropic引爆行动智能革命:Claude Mythos被“锁进笼子”,AI从“会说”跨入“会做”时代

4月8日,Anthropic正式宣布推出 Claude Mythos Preview

这家始终将“安全”置于首位的公司,向全球软件行业投下了一枚震撼弹——随后,它并未庆祝,反而立即着手将这枚炸弹置于严密的控制之下。

按照常规逻辑,这理应是一场关于“参数更大、评分更高、价格更贵”的例行发布。然而,此次发布风格迥异:模型虽已造出,却无意全面开放。

Anthropic明确表示,Mythos Preview 不会普遍开放,而是首先被纳入一个名为 Project Glasswing 的受控计划中,仅供少数合作伙伴用于防御性安全研究。

Anthropic引爆行动智能革命:Claude Mythos被“锁进笼子”,AI从“会说”跨入“会做”时代

在首批合作者之外,Anthropic还将其扩展提供给 40多家 维护关键软件基础设施的机构使用,同时承诺提供 最高1亿美元的使用额度 以及 400万美元 对开源安全组织的直接捐赠。

换言之,Anthropic发布的并非一个单纯的“新模型”,而是一份附带 隔离措施、应急方案和风险预案的技术通告

此事最令人震撼之处,并非Mythos在基准测试上比Opus 4.6高了几分,而在于Anthropic自身已不再将其描述为一个“更善于对话的模型”。

Anthropic正在向世界传递一个信息:模型能力正从“解答问题”跨越到“执行任务”。

世界正在步入行动智能时代。

Mythos Preview强大的网络能力,源于其 智能体编码与推理技能

其官方评测页面将核心能力分为三类:智能体编码、推理、智能体搜索与计算机使用

这三个词串联起来揭示了一个事实:它的进步不在于更会聊天,而在于更擅长 观察、推理、操作、评估结果、并继续执行 的闭环过程。

Anthropic引爆行动智能革命:Claude Mythos被“锁进笼子”,AI从“会说”跨入“会做”时代

一旦理解了“动手”二字的含义,整个事件便不再是一条普通的AI新闻。

真正令人警醒的技术奇点,从来不是“AI是否会像人类一样思考”,而是“AI能否像人类一样工作,并且更快、更稳、更廉价”。

只要模型仍停留在输出文字、图像或建议的层面,无论多么惊艳,其主要影响仍局限于信息层面。

然而,一旦它开始阅读代码、打开终端、运行测试、寻找漏洞、编写利用程序、操作浏览器、调用各类工具,它所进入的领域便不再是“表达智能”,而是 行动智能

Mythos正在逼近的,正是这条分界线。

Anthropic引爆行动智能革命:Claude Mythos被“锁进笼子”,AI从“会说”跨入“会做”时代

根据Anthropic红队发布的博客,Mythos Preview能够在用户指示下,识别并利用 每一个主流操作系统每一个主流浏览器 中的零日漏洞。

他们提及的已修补案例中,甚至包括一个 在OpenBSD中埋藏了27年的漏洞

Anthropic引爆行动智能革命:Claude Mythos被“锁进笼子”,AI从“会说”跨入“会做”时代

那么,华尔街为何率先感到不安?

因为金融市场比大众更敏锐地意识到:软件行业最底层的支柱之一,正在被动摇。

数十年来,漏洞挖掘与利用一直是一门稀缺的手艺,依赖于少数顶尖安全研究员的经验、直觉和耐心。

这种稀缺性,滋养了无数安全公司,也支撑了整个SaaS世界的估值逻辑:软件永远存在漏洞,因此补丁、防护、监控、托管和咨询服务永远有市场;顶尖安全人才永远稀缺,因此高利润的服务总能销售出去。

但如果模型开始将这项工作自动化、规模化,并且速度快得惊人,那么软件行业最舒适的日子,恐怕就要结束了。

Anthropic更新发布后,美国软件股再度下跌,标普500软件与服务指数年内已累计下跌25.5%

资本正在重新审视一个问题:如果“漏洞发现”和“代码修补”越来越像一种可以通过计算资源堆砌获得的能力,那么传统软件的护城河还价值几何?

Anthropic引爆行动智能革命:Claude Mythos被“锁进笼子”,AI从“会说”跨入“会做”时代

更令人瞩目的是,这种担忧已从市场蔓延至监管层面。

据路透社报道,美国财政部长 Scott Bessent 和美联储主席 Jerome Powell 已与大型银行CEO讨论Anthropic模型带来的网络安全风险;在英国,英格兰银行、金融行为监管局、财政部和国家网络安全中心 也在紧急评估Mythos Preview可能带来的潜在冲击,并准备向银行、保险公司及交易所进行风险简报。

一个尚未完全公开的模型,已经让银行、央行、财政部和监管机构围坐一堂展开讨论。

许多人将技术奇点想象为“世界在某一天突然翻页”,但现实中的奇点往往表现为 世界开始为之调整布局

Anthropic引爆行动智能革命:Claude Mythos被“锁进笼子”,AI从“会说”跨入“会做”时代

真正的奇点并非模型变得更像人,而是模型首次大规模地成为“数字世界中的行动者”。

人类社会的大多数系统,本质上并非依靠“说服”运行,而是依赖于“操作”。

银行的运转依靠系统调用、清算流程、风控逻辑和权限链条;软件公司的交付依靠阅读、修改、测试代码和发布版本;网络安全的防御依靠发现问题、验证问题、修复问题构成的闭环。

只要模型仍停留在建议层面,无论多么聪明,它也只是一位高级顾问;一旦它能够自主沿着操作闭环执行下去,它便开始具备 岗位替代性秩序改写力

Mythos真正令人不寒而栗之处,正是它展示了这种闭环能力的雏形。

这也解释了另一个极其鲜明且关键的反差:为何Anthropic一方面能在Mythos上展示近乎恐怖的行动智能,另一方面却在产品端被开发者批评“能力下降”?

GitHub上那条著名的issue直言不讳:自2月更新以来,Claude Code已无法用于复杂工程任务。

提交者基于 6852 个Claude Code会话文件、17871 个思考模块、234760 次工具调用进行分析,认为其处理复杂工程任务的能力明显退化。

Anthropic引爆行动智能革命:Claude Mythos被“锁进笼子”,AI从“会说”跨入“会做”时代

但这恰恰揭示了“动手型智能”最现实的挑战:若要它真正能够执行任务,就必须赋予其更深度的推理、更长的任务链、更高的Token消耗和更大的算力支持。

这实际上提前暴露了一个更广泛的行业真相:行动智能并非免费午餐,它是一种高成本的系统级能力。

它需要的不是一个更美观的聊天界面,而是更长的上下文窗口、更强大的工具调用能力、更稳定的资源调度、更昂贵的推理预算、更严格的安全隔离,以及更复杂的产品策略。

Mythos被“关进笼子”,在某种程度上不仅是因为其潜在危险性,也因为整个行业尚未准备好如何将这种危险而强大的行动能力,以低成本、可控且可规模化的方式交付给普通用户。

Anthropic在Glasswing项目页面上说得很清楚:他们的最终目标,是让用户能够 安全地大规模部署Mythos级别的模型,不仅用于网络安全,也用于其他高价值场景。

这句话的潜台词其实是:目前还无法做到。

正因如此,OpenAI当前面临的最大挑战,可能不只是被在榜单上超越,而是企业客户开始越来越认真地为其“能动手”的智能能力买单。

根据Ramp发布的2026年3月数据,在首次采购AI服务的企业中,Anthropic在与OpenAI的直接对决中,已赢得 约70% 的订单。

Anthropic引爆行动智能革命:Claude Mythos被“锁进笼子”,AI从“会说”跨入“会做”时代

Axios援引Ramp数据进一步指出,Anthropic在这类新增企业采购支出中的份额已超过 73%

这并不意味着OpenAI已经全面落败——OpenAI今年的营收预期仍高于Anthropic。

但它揭示了一个更关键的趋势:企业开始用真金白银押注的,不再仅仅是“谁最会回答问题”,而是谁更像一个 能够嵌入工作流、真正开始执行任务的系统

说到底,Anthropic 这次推出 Mythos,最值得关注的核心在于一点:我们正首次清晰地目睹 AI 从“语言智能”向“行动智能”跨越的转折点。

以往的模型,能力再强也更像是顾问、老师、段子手或秘书。

它们能够说服你、启发你、安慰你、替你生成文本,但它们极少真正深入系统内部,替你执行一套完整的数字操作。

Mythos 的意义在于,它让整个行业猛然意识到:这条通向“行动智能”的道路是切实可行的,并且比许多人预想的更近。

一旦模型真正大规模掌握“观察环境—制定计划—调用工具—操作系统—验证结果—持续迭代”这一闭环能力,软件、金融、网络安全、企业服务乃至监管逻辑,都将随之被重塑。

技术的奇点并非它突然宣称“我思故我在”,而是它突然开始动手行动,并且越做越熟练。

从那一刻起,世界将不再仅仅视其为一部会聊天的机器。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/31303

(0)
上一篇 2天前
下一篇 2天前

相关推荐

  • 大模型安全技术全景解析:主流框架、核心挑战与防护实践

    随着人工智能技术的飞速发展,大模型已成为推动产业变革的核心引擎。然而,其广泛应用背后潜藏的安全风险不容忽视。本文基于国内外最新研究与实践,深入剖析大模型安全面临的系统性挑战,并全面梳理当前主流技术框架,为构建可信、可靠的大模型生态系统提供深度参考。 ### 一、大模型安全:定义、挑战与紧迫性 大模型安全是指确保大型人工智能模型(如GPT、视觉大模型等)在开发…

    2025年4月8日
    37500
  • 大语言模型安全攻防新纪元:从认知退化到供应链风险的全面解析

    近期,多篇学术论文集中探讨了大语言模型(LLM)在安全攻防领域的前沿进展,揭示了从提示注入、资源消耗到认知退化、供应链风险的全方位挑战与创新解决方案。这些研究不仅展现了LLM在构建防御体系中的巨大潜力,也深刻暴露了其在推理逻辑、系统稳定性及依赖生态中存在的结构性脆弱点,为重新划定AI安全边界提供了关键的理论与实践视角。 **一、 核心安全漏洞与攻击范式演进*…

    2025年7月25日
    30700
  • 诗歌攻击:大语言模型安全防线在文学隐喻下的全面崩溃

    诗歌攻击:大语言模型安全防线在文学隐喻下的全面崩溃 一项最新研究揭示,一种出人意料的简单方法能有效突破主流大语言模型(LLM)的安全限制:将恶意指令改写为诗歌。这项由罗马大学和DEXAI实验室的研究人员开展的工作表明,面对“诗歌攻击”,即便是GPT-5、Gemini 2.5 Pro、Claude 4.5等顶尖模型的安全护栏也可能瞬间失效。 论文《Advers…

    2025年11月25日
    26800
  • Claude Code源代码意外泄露!Anthropic内部彩蛋、卧底模式全曝光

    AI社区陷入热议。 近日,X平台用户Chaofan Shou发文称,Claude Code的源代码通过其npm注册表中的一个映射文件意外泄露。 该消息迅速传播,引发大量关注。众多开发者随即跟进,开始分析泄露的源码。 根据分析,此次泄露源于Anthropic在发布npm包时,不慎将source map文件一同打包进了生产版本。 泄露的核心是一个约57MB的cl…

    2026年4月1日
    47400
  • OpenClaw安全挑战引关注:AI智能体部署需警惕新型攻击,360发布国内首份安全指南

    近日,开源AI智能体OpenClaw(网友戏称为“赛博龙虾”)迅速走红网络。随着应用热度持续攀升,部署OpenClaw正成为新的趋势。 该工具通过整合通信软件与大语言模型,能够在用户电脑上自主执行文件管理、邮件收发、数据处理等复杂任务,展现出强大的自动化能力。与此同时,智能体能够直接调用系统资源并自主执行指令,这也带来了新的安全挑战。 工业和信息化部网络安全…

    2026年3月13日
    46000