GPT-5.1-medium深度评测:思考模式性能飙升,但成本激增175%引关注

OpenAI近期发布了GPT-5.1系列新版本,其中GPT-5.1-medium作为思考模式(thinking)的代表产品,在性能上实现了显著提升。官方强调该系列“在简单任务上反应更快,在复杂任务上思考更久”,并优化了对话自然度和情感共鸣。我们对GPT-5.1-medium与此前的GPT-5进行了全面对比评测,测试其在准确率、响应时间、token消耗和成本等关键指标上的表现差异。

GPT-5.1-medium版本表现:
* 测试题数:约1.5万
* 总分准确率:69.3%
* 平均耗时(每次调用):160s
* 平均消耗token(每次调用):1448
* 花费/千次调用(元):87.9

1、GPT-5.1-medium vs GPT-5对比

首先对比上个版本(GPT-5-2025-08-07),数据如下:

GPT-5.1-medium深度评测:思考模式性能飙升,但成本激增175%引关注
GPT-5.1-medium深度评测:思考模式性能飙升,但成本激增175%引关注

数据来源:ReLE评测 https://github.com/jeinlee1991/chinese-llm-benchmark

  • 整体性能小幅提升:新版本准确率从68.9%提升至69.3%,增长0.4个百分点,排名从第5位升至第3位。
  • 推理能力显著增强:思考模式的核心优势体现在“推理与数学计算”领域,从74.7%大幅提升至83.5%,增幅达8.8个百分点,展现了thinking架构在复杂推理任务上的优势。
  • 部分专业领域提升明显:“医疗与心理健康”从75.6%升至77.3%(+1.7%),“金融”从71.3%升至75.4%(+4.1%),“agent与工具调用”从57.8%升至61.7%(+3.9%),多个实用场景能力得到强化。
  • 语言理解能力下滑明显:值得警惕的是,“语言与指令遵从”从75.6%降至64.5%,降幅达11.1个百分点。“教育”领域也从51.0%降至47.7%(-3.3%),“法律与行政公务”从73.7%降至71.3%(-2.4%)。这表明思考模式在提升推理能力的同时,可能影响了对指令的精准遵从。
  • Token消耗大幅增加:每次调用平均消耗token从630增至1448,增幅达130%。这是思考模式的典型特征,模型需要更多的“思考过程”输出来完成推理。
  • 响应时间显著延长:平均耗时从72s增加至160s,增幅122%。复杂任务需要更长的思考时间,符合官方“在复杂任务上思考更久”的设计理念。
  • 成本急剧攀升:尽管单位token价格略有下降(72.5→71.0元/M token),但由于token消耗大增,每千次调用费用从31.9元飙升至87.9元,成本增加175%。

2、对比其他模型

在当前主流大模型竞争格局中,GPT-5.1-medium表现如何?我们从多个维度进行横向对比分析:

GPT-5.1-medium深度评测:思考模式性能飙升,但成本激增175%引关注

数据来源:ReLE评测 https://github.com/jeinlee1991/chinese-llm-benchmark

同成本档位对比

在80-100元/千次调用的高成本区间:
* 高端市场定位:GPT-5.1-medium以87.9元/千次的成本成为测试模型中最昂贵的产品之一,仅次于gemini-2.5-pro(189元)。
* 性价比存疑:对比同为thinking模式的Kimi-K2-Thinking(89.2元,67.9%),GPT-5.1-medium在成本相近的情况下准确率高出1.4个百分点,略具优势。但对比qwen-plus-think-2025-07-28(26元,67.5%),后者以不到三分之一的成本达到接近的性能,性价比差距明显。
* 与自家产品对比:o4-mini以40.3元/千次获得69.0%准确率,性价比远超GPT-5.1-medium。GPT-5-2025-08-07(31.9元,68.9%)同样以更低成本实现接近的性能。

开源vs闭源对比

  • 与开源思考模型对比:DeepSeek-V3.2-Exp-Think以70.1%准确率和6.1元/千次成本位居第2,性价比是GPT-5.1-medium的14倍以上。DeepSeek-V3.1-Think(67.7%,24.8元)、qwen3-235b-a22b-thinking-2507(65.5%,61.2元)等开源模型均以更低成本提供有竞争力的性能。
  • Token效率高:1448的平均token消耗在思考模型中处于中等水平,低于Kimi-K2-Thinking(5732)、qwen-plus-think-2025-07-28(3466)、DeepSeek-V3.2-Exp-Think(2106)和DeepSeek-V3.1-Think(2191)。

关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/14617

(0)
上一篇 2025年11月21日 上午11:37
下一篇 2025年11月21日 下午2:00

相关推荐

  • 小米开源MiMo-V2-Flash实测:零成本大模型在长上下文与推理效率间的新平衡

    小米近期开源了MiMo-V2-Flash模型,这是其在大模型领域推出的开源产品。官方强调该模型在长上下文建模能力与推理效率之间实现了新的平衡。我们对MiMo-V2-Flash的思考模式(think)和非思考模式进行了全面评测,测试其在准确率、响应时间、token消耗等关键指标上的表现。 MiMo-V2-Flash-think版本表现:* 测试题数:约1.5万…

    2025年12月21日
    29300
  • 揭秘多模态大模型评测中的“隐形浪费”:半数资源竟在重复劳动?

    当我们投入大量资源对多模态AI模型进行复杂评测时,是否想过其中有多少环节其实是在“原地打转”? 最近,上海人工智能实验室联合上海交通大学、浙江大学的一项研究揭示了一个值得警惕的现象:当前主流的多模态大模型基准评测中,普遍存在着大量冗余。研究团队对超过20个主流多模态基准和100多个模型进行了系统性扫描,发现了一些颇具启发性的规律。 这意味着什么?简单来说,我…

    2025年11月12日
    9200
  • 大模型评测实战:从Benchmark幻象到业务落地的量化艺术

    当我们谈论大模型应用开发时,评测环节往往是那个“既重要又棘手”的存在。它决定了产品能否真正解决用户问题,却又充满了难以量化的灰色地带。这篇文章,聊聊在实践中对评测的一些观察与思考。 为什么公开Benchmark的参考价值有限 各家模型发布时,漂亮的Benchmark数据总是标配。如果仅看这些数字,似乎AGI已经近在咫尺。然而现实往往给人当头一棒——Ilya在…

    2026年1月8日
    8900
  • 美团LongCat-Flash-Thinking-2601评测:工具调用亮眼,但基础推理与视觉理解存短板

    美团近期发布了LongCat-Flash-Thinking-2601模型,作为首个支持在线免费体验「重思考模式」的开源模型,其核心宣传点在于强大的工具调用能力。官方称其在智能体搜索、智能体工具调用、工具交互推理等关键评测中均达到了开源模型的SOTA水平。 核心评测结论: 三大亮点: 工具类网页完成度高:水印处理工具功能完整、交互流畅;复利计算器UI专业、图表…

    2026年1月18日
    5700
  • GAPS框架:全球首个专病循证评测标准,AI医生临床能力迎来硬核标尺

    蚂蚁健康与北京大学人民医院王俊院士团队联合发布全球首个大模型专病循证评测框架 蚂蚁健康与北京大学人民医院王俊院士团队历时6个多月,联合十余位胸外科医生共同打磨,发布了全球首个大模型专病循证能力的评测框架——GAPS (Grounding, Adequacy, Perturbation, Safety) ,及其配套评测集 GAPS-NSCLC-preview。…

    2025年12月29日
    11300