PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

一个评估大模型在“养虾”(OpenClaw)任务中表现的基准——PinchBench,现已正式发布。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

该基准获得了OpenClaw项目创始人的关注与转发。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

PinchBench智能体评测系统通过真实的成功率、执行速度和运行成本三个维度,综合评估各大模型在OpenClaw实际业务场景中的表现。

需要指出的是,本次评测尚未包含近期发布的新模型,例如谷歌主打性价比与速度的Gemini 3.1 Flash-Lite,以及社区评价认为非常适合龙虾养殖任务的、OpenAI最新发布的GPT-5.4。不过,OpenClaw现已支持这两个模型。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

那么,在此之前的模型中,哪一款最适合“养虾”任务呢?

数据揭示各家模型真实水平

在成功率榜单中,谷歌的gemini-3-flash-preview以95.1%的极高成功率位居榜首。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

紧随其后的是MiniMax的minimax-m2.1和月之暗面的Kimi-k2.5,成功率分别为93.6%和93.4%。值得注意的是,minimax-m2.5的成功率仅为35.5%,表现意外。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

在任务完成速度方面,minimax-m2.5以105.96秒的成绩夺得冠军。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

谷歌的gemini-2.0-flash和Meta的llama-3.1-70b紧随其后,耗时均在106秒左右。部分以深度思考见长的模型因需要更多计算时间,在速度排名上相对靠后。而成功率前三的模型,其速度排名则在20名之后。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

每次调用的资金成本是开发者关注的核心。在成本榜单上,OpenAI的gpt-5-nano展现出极致的性价比,单次最优运行成本仅需0.03美元。谷歌的gemini-2.5-flash-lite以0.05美元紧随其后。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

整体来看,排名前八的轻量化模型每次任务成本均控制在0.2美元以内,其中就包括了成功率位列前三的minimax-m2.1Kimi-k2.5。相比之下,那些单次调用成本接近一美元的重型模型,在处理日常任务时经济性不足。

综合性能、成本和速度三个维度,minimax-m2.1Kimi-k2.5均落在最佳区间。此外,国产模型glm-4.5-airqwen3-coder-next也位于该区间,是不错的选择。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平 PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

完全贴合真实工作场景的考试

这些精准数据背后,是一套极其严谨的评测系统。PinchBench基准不同于传统的选择题式跑分,它更像是一个模拟真实办公环境的试炼场。

系统将各类语言模型接入特定代理框架,使其成为独立的数字员工。考官为这些数字员工分发相同的实际工作任务,系统全程记录耗时与成本,并严格按标准答案核对成果。

为保证评测标准化,所有任务均以特定格式的文本文件编写,并统一存放于代码仓库中。

一份合格的“考卷”包含五个核心部分:

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

  1. 拟真的用户原始诉求作为提示词。
  2. 清晰描述完成任务可接受的办事思路和关键决策点
  3. 一份类似于检查清单的独立且可验证的评分标准
  4. 自动运行的Python脚本,用于检查生成的文件和工作日志。
  5. 对于无法代码判断的主观题,由Claude Opus模型担任主观题裁判

目前题库共包含23项实操任务。

PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平 PinchBench基准发布:大模型“养虾”能力大比拼,成功率、速度、成本三维度揭秘各家真实水平

这些任务覆盖白领日常工作的方方面面:
* 基础测试:检查智能体能否理解指令并礼貌回应。
* 行政助理:根据口语化要求生成格式正确的日历文件。
* 研究员:利用网络搜索工具获取股票最新价格并撰写报告,或搜集整理科技会议信息。
* 程序员:编写具备错误处理能力的天气查询脚本,或按规范创建项目文件夹结构。
* 文字工作:概括长篇技术文档核心要点,或将生涩论文改写成面向儿童的科普故事。
* 人际交往:撰写委婉拒绝会议邀请并提供替代方案的邮件,或测试长线记忆与信息回顾能力。

评分采用三种方式:
1. 机器自动打分:检查特定文件或代码函数是否生成。
2. 裁判打分:针对主观题,由裁判模型根据细则评估内容质量与得体程度。
3. 混合评分:先由机器检查客观事实,再由裁判评估文字质量。

代码提交哈希值锁定评测版本

为防止考题被篡改,系统引入了严格的版本控制机制。每次测试运行,都会记录当前题库代码的唯一加密标识(提交哈希值),相当于为每次考试盖上精确的时间戳。

题库仓库的任何改动都会生成新的加密标识。这使得榜单成绩都能精准追溯到具体的考题和评分标准版本,杜绝暗箱操作。

系统也具备一定的灵活性:仅修改文档或配置文件等不影响考题难度的改动,成绩仍可纳入现行榜单比较。但一旦修改提示词、评分标准或检查逻辑代码,系统将开启全新评测世代,旧版本成绩则归档为历史记录。

这种机制维护了一部完整的“考试编年史”,旧成绩永久保存,可供随时查阅对比。

在人工智能快速发展的今天,仅凭抽象跑分已不足以衡量模型价值。将其置于真实、繁杂的业务场景中,精确计算其效率与成本,才是检验其实用性的终极标准。

参考资料:
* https://pinchbench.com/
* https://github.com/pinchbench/skill


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/25016

(0)
上一篇 2026年3月9日 下午3:30
下一篇 2026年3月9日 下午7:43

相关推荐

  • 腾讯混元turbos新版实测:Agent能力暴跌25.7%,2元成本颠覆行业性价比格局

    腾讯近期发布了混元turbos系列的最新迭代版本 hunyuan-turbos-20250926。官方介绍称,新版本在预训练底座数据质量和后训练(post-train)策略上实现突破,旨在持续提升Agent、英语小语种、指令遵循、代码及理科能力。数据显示,其理科类能力平均提升10.9%(数学提升13.8%,逻辑推理提升12.3%),文科类写作、指令遵循、知识…

    2025年10月17日
    69900
  • GPT-5.1-high深度评测:推理能力飙升10%,但成本暴涨5.6倍,性价比失衡引争议

    OpenAI近期发布了新版本GPT-5.1,其中GPT-5.1-high作为高性能思考模式(thinking)的旗舰产品,主打在复杂任务上的深度推理能力。官方强调该模型“在复杂任务上思考更久”,可提供更高质量的答案。我们对GPT-5.1-high与此前的GPT-5进行了全面对比评测,测试其在准确率、响应时间、token消耗和成本等关键指标上的表现差异。 GP…

    2025年11月27日
    24100
  • 阿里Qwen3.5-27B深度评测:理科思维突出,文档处理与逻辑推理是亮点,艺术创作待提升

    阿里近期推出了Qwen3.5-27B模型,作为Qwen3.5系列中的中型主力版本,它定位为一款兼顾高性价比与密集推理需求的开源模型。其实际性能表现如何?以下是本次评测的核心结论。 核心结论: 三大亮点: OCR与文档理解能力出色: 在纯文本提取、复杂表格结构还原及合并单元格识别等任务中表现精准,效果优于部分更大参数的模型。 空间逻辑与数学推理能力强: 在立体…

    2026年3月1日
    74800
  • 豆包Seed1.8实测:Agent能力飙升63.1%,成本降13%跻身头部阵营

    豆包近期发布了 doubao-seed-1-8-251215 新版本,官方重点强调其“更强 Agent 能力”和“多模态理解升级”。我们对 doubao-seed-1-8-251215 和上一代 doubao-seed-1-6-251015 进行了全面对比评测,测试其在准确率、响应时间、token 消耗和成本等关键指标上的表现差异。 doubao-seed-…

    2025年12月20日
    2.6K00
  • Gemini 3 Pro深度评测:多模态推理模型如何重塑AI生产力边界

    昨晚,谷歌发布了Gemini 3 Pro,并称其为“全球最强多模态推理模型”。尽管其拥有奥特曼点赞、马斯克服软、LMArena榜单登顶1501 Elo等光环,但对于一线用户而言,核心问题在于:它是否真正能提升生产力? 我们设计了一系列体验场景,这些测试的共同点是:不追求理论分数,而是要求模型生成可直接运行的代码或可交付的成果。 以下是具体的体验情况。 场景1…

    2025年11月19日
    27700