Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威

Anthropic发布了Claude Opus 4.6新版本,官方定位为“最智能的模型”,主打复杂智能体任务和长时程工作。相比此前的Claude Opus 4.5版本,新版本在架构上进行了多项升级,包括首次在Opus级别支持100万token上下文窗口、引入自适应思考(adaptive thinking)机制等。

我们对这两个版本进行了全面的对比评测,测试其在准确率、响应时间、token消耗和成本等关键指标上的表现差异。需要特别说明的是,本次评测主要聚焦于中文语境下的场景,官方所强调的复杂智能体任务、长时程编程工作、跨百万token上下文处理等核心优势,在当前评测框架下尚未得到充分体现。

Claude Opus 4.6版本表现:
* 测试题数:约1.5万
* 总分(准确率):70.5%
* 平均耗时(每次调用):15s
* 平均token(每次调用消耗的token):794
* 平均花费(每千次调用的人民币花费):96.5

1、新旧版本对比

首先对比上个版本(Claude Opus 4.5),数据如下:

Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威 Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威

数据来源:ReLE评测 https://github.com/jeinlee1991/chinese-llm-benchmark
输出价格单位:元/百万token

  • 整体性能显著提升:新版本准确率从64.9%跃升至70.5%,提升了5.6个百分点,排名从第44位大幅攀升至第11位。
  • Agent能力大幅增强:最突出的改进在于“agent与工具调用”能力,从49.1%飙升至69.1%,增幅高达20个百分点,这与官方强调的“智能体任务持续时间更长、规划更周密”的定位高度吻合。
  • 推理能力稳步优化:“推理与数学计算能力”从67.9%提升至71.8%(+3.9%),“教育”领域也有所进步,从60.6%升至63.0%(+2.4%)。
  • 部分领域轻微回落:值得注意的是,新版本在“医疗与心理健康”(82.8%→81.5%,-1.3%)和“金融”(81.8%→79.0%,-2.8%)两个领域略有下降,表明在整体能力提升过程中存在一定的权衡取舍。
  • Token效率大幅优化:每次调用平均消耗的token从1063降至794,减少约25%,这得益于新版本引入的“自适应思考”机制——模型可以根据任务复杂度自动调节推理深度,在简单问题上避免过度思考。
  • 成本明显下降:每千次调用的费用从146.1元降至96.5元,降幅达34%,主要受益于token消耗减少和输出价格小幅下调(178.0元/M→175.0元/M)。

2、对比其他模型

在当前主流大模型竞争格局中,Claude Opus 4.6表现如何?我们从三个维度进行横向对比分析(本评测侧重中文场景,模型在其他语言和专业领域的表现可能有所不同):

Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威

数据来源:ReLE评测 https://github.com/jeinlee1991/chinese-llm-benchmark

2.1 同成本档位对比

  • 成本处于较高区间:96.5元/千次的成本使Claude Opus 4.6位于高端成本档位区间。在相近成本档位中,gpt-5.1-medium(87.9元)以69.3%的准确率与之接近,但Claude Opus 4.6以70.5%的准确率和更快的响应速度(15s vs 160s)占据优势。
  • 高成本模型中效率突出:与准确率相近的gemini-3-pro-preview(72.5%,247.3元)相比,Claude Opus 4.6成本更低且响应更快(15s vs 64s)。但与doubao-seed-1-8-251215(71.7%,7.3元)相比,Claude Opus 4.6的成本高出13倍,在追求极致成本效率比的场景下竞争力有限,在资源受限场景下需权衡考量。

2.2 新旧模型对比

  • 代际升级成效显著:相比Claude Opus 4.5(64.9%),新版本提升5.6个百分点,属于明显的代际进步。
  • 各厂商代际表现分化:Google阵营同样展现出代际优化,gemini-3-pro-preview(72.5%)相比gemini-2.5-pro(68.9%)提升了3.6个百分点;而OpenAI的gpt-5.2-high(67.4%)相比gpt-5.1-high(69.7%)则出现了2.3个百分点的回落,代际升级并非总能带来全面提升。
  • Anthropic产品线分化:Claude Opus 4.6(70.5%)定位旗舰,而claude-sonnet-4.5-thinking(68.8%)在本次中文场景评测中准确率略低。

2.3 开源VS闭源对比

  • 闭源阵营竞争激烈:在闭源商用模型中,qwen3-max-think-2026-01-23(72.8%)、hunyuan-2.0-thinking-20251109(71.9%)、doubao-seed-1-8-251215(71.7%)均超过Claude Opus 4.6的70.5%,国内厂商在中文场景下展现出强劲竞争力。
  • 开源模型表现亮眼:开源阵营中,GLM-4.7(71.5%)、Kimi-K2.5-Thinking(71.3%)、DeepSeek-V3.2-Think(70.9%)等模型准确率与Claude Opus 4.6相当甚至更高,且成本更低(如DeepSeek-V3.2-Think仅7.5元/千次)。
  • Claude Opus 4.6的效率优势:相比同档准确率的思考模型,Claude Opus 4.6的核心优势在于响应速度(15s)和token效率(794),远优于DeepSeek-V3.2-Think(144s、2572 token)、Kimi-K2.5-Thinking(338s、3842 token)等,适合对延迟敏感的生产环境。

3、官方评测

根据Anthropic官方发布的信息,Claude Opus 4.6在多个专业评测基准上取得了领先成绩:

3.1 知识工作能力

Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威
在GDPval-AA评测(由Artificial Analysis独立运行,评估金融、法律等领域的高价值知识工作任务)中,Opus 4.6超越了业界第二名OpenAI的GPT-5.2约144 Elo分,超越其前代产品Claude Opus 4.5达190 Elo分。官方表示,这意味着Claude Opus 4.6在该评测中击败GPT-5.2的概率约为70%。

3.2 智能体编程能力

Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威
在智能体编程评测Terminal-Bench 2.0上,Opus 4.6取得了业界最高分,展现了在真实世界智能体编程和系统任务上的卓越表现。官方强调,新版本“规划更周密,能够更长时间地持续执行智能体任务,在大型代码库中运行更可靠,并具有更好的代码审查和调试能力来发现自身错误”。

3.3 深度推理能力

Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威 Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威
在Humanity‘s Last Exam(复杂多学科推理测试)中,Opus 4.6领先所有其他前沿模型。在BrowseComp(评估模型定位网络难查信息的能力)上也取得了最佳表现。

3.4 长上下文处理

Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威 Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威
官方特别强调了Opus 4.6在长上下文任务上的突破:在MRCR v2的100万token、8针变体测试中,Opus 4.6得分76%,而Sonnet 4.5仅为18.5%。这代表了“模型在保持峰值性能的同时能实际利用多少上下文的质的飞跃”。

3.5 软件工程与专业领域能力

官方还展示了Claude Opus 4.6在多项专业基准上的表现,涵盖软件工程技能、多语言编程能力、长期连贯性、网络安全能力以及生命科学知识等维度:

Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威 Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威 Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威 Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威 Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威

官方表示,Claude Opus 4.6在多个专业领域展现出显著的能力提升:
* 根因分析:擅长诊断复杂的软件故障。
* 多语言编程:能够跨编程语言解决软件工程问题。
* 长期连贯性:在Vending-Bench 2测试中,比Opus 4.5多赚取3,050.53美元,展现了长时间保持专注和连贯思考的能力。
* 网络安全:在代码库中发现真实漏洞的能力优于其他所有模型。
* 生命科学:在计算生物学、结构生物学、有机化学和系统发育学测试中的表现几乎是Opus 4.5的2倍。

3.6 安全性评估

Claude Opus 4.6实测:准确率跃升5.6%,成本骤降34%,自适应思考机制显威

根据官方系统卡,Opus 4.6在安全性方面表现如下:
* 整体对齐性:与此前最对齐的前沿模型Claude Opus 4.5持平或更优。
* 错误行为率:在欺骗、谄媚、助长用户妄想、配合滥用等方面的错误行为率较低。
* 过度拒绝率:是近期Claude模型中最低的。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/21041

(0)
上一篇 2026年2月10日 下午12:22
下一篇 2026年2月10日 下午12:42

相关推荐

  • ChatGPT广告功能代码泄露:OpenAI商业化转型的深度剖析与行业影响

    近日,ChatGPT安卓测试版代码泄露事件揭示了OpenAI正在内部测试广告功能的重大动向。软件工程师Tibor Blaho在分析应用代码时,发现了“搜索广告”“搜索广告轮播”“集市内容”等关键字符串,这标志着OpenAI可能正在探索将广告整合到其对话式AI产品中。尽管这些代码不代表功能即将上线,但通常预示着公司正在进行广告形式和投放位置的内部测试,为未来的…

    2025年11月30日
    18800
  • 从短片生成到长片叙事:Utopai Studios如何通过架构创新突破AI影视制作瓶颈

    在AI视频生成技术快速发展的当下,Sora 2、Google Veo 3等主流模型已能生成视觉效果惊艳的短视频片段,但面对长视频乃至完整影视作品的创作需求时,这些模型往往显得力不从心。这种局限性并非偶然,而是源于当前技术范式的根本性约束。然而,好莱坞AI原生影视工作室Utopai Studios与全球创新投资平台Stock Farm Road(SFR)的数十…

    2025年11月8日
    20200
  • 从戏仿到开源巨兽:OpenClaw的蜕变之路与商业化前瞻

    谁曾料想,一个始于周末的业余项目,在短短两个月内便席卷开源社区——GitHub星标数突破10万,单周访问量高达200万。这个项目在三次更名后,最终以“OpenClaw”的身份尘埃落定。 名称的演变本身便是一段趣史。2025年11月诞生的“Clawd”,最初是对Claude的戏仿,直到Anthropic的法律团队介入。随后,Discord群组在凌晨五点头脑风暴…

    2026年1月31日
    13600
  • 零代码革命:Postman AI Agent Builder一键将10万API转化为MCP服务器

    在技术领域,总有一些时刻会让人感到“魔法”般不可思议。 现在就是这样一个时刻。 Postman 悄然发布了一款 AI Agent Builder,它能够将超过 100,000 个现成的 API 一键转换为功能完备的 MCP(Model Context Protocol)服务器,整个过程无需编写任何代码。 你只需简单点击几下,下载一个 ZIP 文件,然后——你…

    2025年12月12日
    33500
  • 4个GitHub神级开源项目:让AI助手变身营销专家、PPT大师、内容创作全家桶和文档处理高手

    01 营销人的 Claude Code 技能库 这是一个专门为营销人员准备的技能包,已在 GitHub 上获得 7.5k 星标。作者 Corey Haines 是一位营销专家,他称这是其发布过的最有价值且完全免费的工具。 该库包含了 26 个与营销相关的技能,覆盖转化率优化、文案写作、SEO、数据分析和增长黑客等领域。例如:* page-cro 技能:可指导…

    2026年2月18日
    28100