PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

一个评估大模型在“养虾”(OpenClaw)任务中表现的基准——PinchBench,现已正式发布。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

该基准获得了OpenClaw项目创始人的关注与转发。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

PinchBench智能体评测系统通过真实的成功率、执行速度和运行成本三个维度,综合评估各大模型在OpenClaw实际业务场景中的表现。

需要指出的是,本次评测尚未包含近期发布的新模型,例如谷歌主打性价比与速度的Gemini 3.1 Flash-Lite,以及社区评价认为非常适合龙虾养殖任务的、OpenAI最新发布的GPT-5.4。不过,OpenClaw现已支持这两个模型。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

那么,在此之前的模型中,哪一款最适合“养虾”任务呢?

数据揭示各家模型真实水平

在成功率榜单中,谷歌的gemini-3-flash-preview以95.1%的极高成功率位居榜首。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

紧随其后的是MiniMax的minimax-m2.1和月之暗面的Kimi-k2.5,成功率分别为93.6%和93.4%。值得注意的是,minimax-m2.5的成功率仅为35.5%,表现意外。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

在任务完成速度方面,minimax-m2.5以105.96秒的成绩夺得冠军。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

谷歌的gemini-2.0-flash和Meta的llama-3.1-70b紧随其后,耗时均在106秒左右。部分以深度思考见长的模型因需要更多计算时间,在速度排名上相对靠后。而成功率前三的模型,其速度排名则在20名之后。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

每次调用的资金成本是开发者关注的核心。在成本榜单上,OpenAI的gpt-5-nano展现出极致的性价比,单次最优运行成本仅需0.03美元。谷歌的gemini-2.5-flash-lite以0.05美元紧随其后。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

整体来看,排名前八的轻量化模型每次任务成本均控制在0.2美元以内,其中就包括了成功率位列前三的minimax-m2.1Kimi-k2.5。相比之下,那些单次调用成本接近一美元的重型模型,在处理日常任务时经济性不足。

综合性能、成本和速度三个维度,minimax-m2.1Kimi-k2.5均落在最佳区间。此外,国产模型glm-4.5-airqwen3-coder-next也位于该区间,是不错的选择。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平 PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

完全贴合真实工作场景的考试

这些精准数据背后,是一套极其严谨的评测系统。PinchBench基准不同于传统的选择题式跑分,它更像是一个模拟真实办公环境的试炼场。

系统将各类语言模型接入特定代理框架,使其成为独立的数字员工。考官为这些数字员工分发相同的实际工作任务,系统全程记录耗时与成本,并严格按标准答案核对成果。

为保证评测标准化,所有任务均以特定格式的文本文件编写,并统一存放于代码仓库中。

一份合格的“考卷”包含五个核心部分:

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

  1. 拟真的用户原始诉求作为提示词。
  2. 清晰描述完成任务可接受的办事思路和关键决策点
  3. 一份类似于检查清单的独立且可验证的评分标准
  4. 自动运行的Python脚本,用于检查生成的文件和工作日志。
  5. 对于无法代码判断的主观题,由Claude Opus模型担任主观题裁判

目前题库共包含23项实操任务。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平 PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

这些任务覆盖白领日常工作的方方面面:
* 基础测试:检查智能体能否理解指令并礼貌回应。
* 行政助理:根据口语化要求生成格式正确的日历文件。
* 研究员:利用网络搜索工具获取股票最新价格并撰写报告,或搜集整理科技会议信息。
* 程序员:编写具备错误处理能力的天气查询脚本,或按规范创建项目文件夹结构。
* 文字工作:概括长篇技术文档核心要点,或将生涩论文改写成面向儿童的科普故事。
* 人际交往:撰写委婉拒绝会议邀请并提供替代方案的邮件,或测试长线记忆与信息回顾能力。

评分采用三种方式:
1. 机器自动打分:检查特定文件或代码函数是否生成。
2. 裁判打分:针对主观题,由裁判模型根据细则评估内容质量与得体程度。
3. 混合评分:先由机器检查客观事实,再由裁判评估文字质量。

代码提交哈希值锁定评测版本

为防止考题被篡改,系统引入了严格的版本控制机制。每次测试运行,都会记录当前题库代码的唯一加密标识(提交哈希值),相当于为每次考试盖上精确的时间戳。

题库仓库的任何改动都会生成新的加密标识。这使得榜单成绩都能精准追溯到具体的考题和评分标准版本,杜绝暗箱操作。

系统也具备一定的灵活性:仅修改文档或配置文件等不影响考题难度的改动,成绩仍可纳入现行榜单比较。但一旦修改提示词、评分标准或检查逻辑代码,系统将开启全新评测世代,旧版本成绩则归档为历史记录。

这种机制维护了一部完整的“考试编年史”,旧成绩永久保存,可供随时查阅对比。

在人工智能快速发展的今天,仅凭抽象跑分已不足以衡量模型价值。将其置于真实、繁杂的业务场景中,精确计算其效率与成本,才是检验其实用性的终极标准。

参考资料:
* https://pinchbench.com/
* https://github.com/pinchbench/skill


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/25016

(0)
上一篇 2026年3月9日 下午3:30
下一篇 2026年3月9日 下午7:43

相关推荐

  • GPT-5.2实测:速度革命性突破,准确率小幅回退,定位转向实时应用

    OpenAI近期发布了GPT-5.2新版本(默认非思考模式),相比此前的GPT-5.1非思考版本,在响应速度上实现了革命性突破,但在准确率方面出现了轻微回退。我们对这两个版本进行了全面的对比评测,测试其在准确率、响应时间、token消耗和成本等关键指标上的表现差异。 GPT-5.2版本表现:* 测试题数:约1.5万* 总分(准确率):56.9%* 平均耗时(…

    2025年12月13日
    37200
  • 大模型评测的演进之路:从静态指标到动态验证(2025)【Benchmarks解读】

    在人工智能快速迭代的今天,大型语言模型(LLM)的能力边界不断拓展。从最初的文本生成,到如今的复杂推理、多模态理解、智能体协作,模型能力的跃升令人瞩目。然而,一个更为关键的问题浮出水面:我们真的知道如何准确衡量这些模型的能力吗? 评测基准的发展轨迹,恰恰映射着整个行业对“智能”理解的演进。本文将系统梳理当前大模型评测的全景图谱,分享在实践中的洞察,并探讨未来…

    2025年11月11日
    59700
  • 智谱GLM-4.7全面评测:编程专用模型性能跃升,开源优势凸显

    智谱AI昨日开源了其编程专用模型GLM-4.7。相较于前代GLM-4.6版本,新模型在多项关键指标上实现了显著提升。我们对两个版本进行了全面评测,对比了准确率、响应时间、Token消耗及成本等维度。 GLM-4.7版本核心测试数据如下:* 测试题数:约1.5万* 总分(准确率):71.5%* 平均耗时(每次调用):96秒* 平均Token(每次调用):392…

    2025年12月23日
    1.6K00
  • AI专家级任务评测新标准:百万美元基准揭示模型真实经济价值

    如果有价值一百万美元的顶级专家任务,AI 能完成其中多少? 答案是:价值约 48 万美元的任务,而完成这些任务的 API 成本仅需约 100 美元。 这个结论源于 Humanlaya Data Lab 联合北京通用人工智能研究院(BIGAI)、xbench、M-A-P 共同构建的百万美元级评测基准——$OneMillion-Bench。该基准招募了来自摩根士…

    2026年3月10日
    43900
  • 腾讯混元HY 2.0 Think实测:MoE架构406B参数,准确率跃升4.6%至71.9%,响应时间缩短153%

    腾讯混元最新版语言模型 Tencent HY 2.0 正式发布。HY 2.0 采用混合专家(MoE)架构,总参数 406B,激活参数 32B,支持 256K 上下文窗口。我们对新版本 hunyuan-2.0-thinking-20251109 与上一版本 hunyuan-t1-20250711 进行了全面对比评测,测试其在准确率、响应时间、token 消耗和…

    2025年12月6日
    54500