MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这个春节,MiniMax 杀疯了。

2 月 20 日,港股马年首个交易日,MiniMax 收盘股价报涨 14.52%,市值一度冲破 3042 亿港元。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这轮上涨并非只是资本市场的情绪宣泄。

过去两年,AI 行业的叙事几乎集中在供给侧,比如更强的模型、更快的芯片、更大的数据中心。然而,制约 AI 产业规模化落地的,除了供给侧的能力上限外,还有大量长期憋着、始终未能真正释放的需求。

春节假期前后,MiniMax 发布新一代模型 M2.5,这些被压制的需求终于找到了一个出口。

M2.5 发布后 12 小时内登顶 OpenRouter 热度榜,一周内登顶调用量榜首,周调用量暴涨至 3.07T tokens,超过 Kimi K2.5、GLM-5 与 DeepSeek V3.2 三家的总和。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这还不是故事的全部。OpenRouter 整体调用量也在同步攀升。官方随后确认,M2.5 带动了 100K 至 1M 长文本区间的增量调用需求,而这个区间正是 Agent 工作流的典型消耗场景。

此前因为找不到能力和成本同时过关的模型,大量开发者手里攥着现成的工作流却迟迟无法启动。Agent 任务的 token 消耗远比普通对话密集,需求一旦被激活,带动的调用增量自然相当可观。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

硅谷在用什么,已经悄悄变了。

早在 MiniMax 推出 M2.1 模型时,被公认为 Cursor 最强挑战者的硅谷新贵 Kilo Code 就已表态。这家可调用全球超过 500 种模型的 AI 编程工具,在核心产品的默认模型位置上,曾高调宣布首选 MiniMax M2.1。

Kilo 联合创始人兼 CEO Breitenother 给出的理由简单粗暴:在开发者直接评判的真实编码工作流程中,M2.1 能够与前沿模型相媲美。

此次 M2.5 发布后随即全面开源,模型权重在 HuggingFace 上发布,支持本地部署,Kilo 再次宣布接入。与此同时,OpenCode、OpenClaw、Fireworks、Factory、TRAE、Cline、OpenHands、Roo Code,以及 Ollama、vLLM、SGLang、Dify、魔搭社区等国内外知名开源 Agent 应用、开源工具平台,也在第一时间接入。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

Kilo 代表新一代 AI 编程工具的方向,OpenClaw 代表最新的 AgentOS,它们在底层模型的选择上极为挑剔,M2.5 能够成为这类产品的优先推荐,意味着在真实生产环境中对于模型的认可。

在编程领域最具代表性的 SWE-Bench Verified 评测中,M2.5 以 80.2% 的通过率达到了与 Claude Opus 系列相当的水平,在多语言任务 Multi-SWE-Bench 上排名第一。

知名技术博主 Simon Willison 使用 mini-swe-agent 对当前主流模型进行了独立测评,结果显示 M2.5 排名第三,仅次于 Claude Opus 4.5 和 Gemini 3 Flash,且是开源模型中的第一名。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入
MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

执行效率也有实质性提升。研究机构 SemiAnalysis 实测显示,在 8 张 H200 显卡上,M2.5 在合理首 token 延迟范围内能够持续达到每 GPU 每秒约 2500 个 token 的吞吐量,即便在严格要求每用户每秒 20 个 token 交互性的条件下,处理超过 1 万个 token 的上下文时仍能维持稳定的解码速度。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

开源 Agent 社区的密集接入同样说明问题。对于需要长时间运行、高频调用工具的 Agent 框架来说,模型的定价直接决定了产品能否跑通商业逻辑。

M2.5 的价格区间恰好落在这批产品真正能接受的范围里。它提供两个版本:100 TPS 快速版,输入每百万 tokens 仅需 0.3 美元,输出每百万 tokens 仅需 2.4 美元;50 TPS 版本输出价格还要再降一半。

能力、速度、成本,这三个维度在 M2.5 上同时达标,带来的结果在 OpenRouter 上看得尤为清楚,M2.5 第一次走出了一条接近指数型的曲线。

满足真实需求,从底层重新设计。

这些提升的背后,得益于 MiniMax 从工程底层重新设计的一套原生 Agent 强化学习系统,代号 Forge

Forge 将 Agent 的执行逻辑与底层训练推理引擎彻底解耦。在此之前,大多数 RL 框架要求把 Agent 当作白盒来处理,Agent 与框架之间需要深度共享内部状态,一旦涉及动态上下文管理或多 Agent 协作,工程复杂度就会急剧膨胀;传统的 Token-In-Token-Out 模式还迫使 Agent 与底层 Tokenizer 深度绑定,维护训练和推理之间的一致性成本极高。

Forge 通过引入中间件抽象层绕开了这两个问题。Gateway Server 作为标准化通信网关,将 Agent 的高层行为与底层模型复杂性隔离;Data Pool 异步收集训练轨迹,使生成与训练彻底解耦。这套架构让 MiniMax 可以在不修改任何 Agent 内部代码的前提下,接入数百种框架和数千种工具调用格式进行训练。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

在训练效率上,Forge 引入了 Prefix Tree Merging 方案,将训练样本从线性序列重构为树形结构,消除了多轮 Agent 请求之间大量重复的上下文前缀,实现了约 40 倍的训练加速,同时显著降低了显存开销。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

异步调度上,Forge 提出 Windowed FIFO 策略,在最大化系统吞吐量的同时,通过滑动窗口约束控制样本的离策略程度,避免训练分布向「快而简单」的样本严重偏移,兼顾了效率与稳定性。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

算法层面,MiniMax 沿用自研的 CISPO 算法保障 MoE 模型在大规模训练中的稳定性,并针对 Agent 场景的长轨迹信用分配难题,设计了由过程奖励、任务完成时间奖励与 Reward-to-Go 三部分组成的复合奖励:过程奖励对 Agent 中间行为进行密集监督,不只依赖最终结果;任务完成时间奖励将相对完成时间作为奖励信号,激励模型主动利用并行策略选择最短执行路径;Reward-to-Go 则通过标准化回报大幅降低梯度方差,稳定优化过程。

此外,MiniMax 还将上下文管理机制直接整合进了 RL 交互循环,将其视为驱动状态转换的功能性动作,让模型在训练阶段就学会预见并适应上下文变迁,这从根本上解决了长程任务中随交互轮次增加而出现的注意力稀释问题。

正是这套系统,让 M2.5 在 Kilo、OpenClaw 这类对模型要求颇为苛刻的 Agent 框架上跑出了稳定的表现。

超越 Agentic Engineering,面向下一代应用生态。

在过去 108 天里,MiniMax 陆续推出了 M2、M2.1 和 M2.5,在 SWE-Bench Verified 榜单上,M2 系列的进步速度超过了 Claude、GPT 和 Gemini 系列,是行业迭代最快的。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这个节奏,恰好踩在一个需求爆发的窗口上。OpenClaw 从籍籍无名到席卷全球,前后不过一两个月时间。如今 OpenRouter 上已有上千种类似工具和应用在此生长,这片 ChatGPT、Claude、Gemini「御三家」之外的生态里,开发者只认一个标准:模型跑不跑得通、用不用得起。

能力达到第一梯队、价格仅为主流旗舰模型的十分之一,并且支持本地部署,MiniMax M2.5 及一系列国产模型的出现,精准地击穿了性能与成本之间的临界点。这使得开源社区中那些曾仅停留在演示阶段的复杂多 Agent 系统,首次具备了大规模商业落地的经济可行性。

周调用量突破 3T tokens,是开发者们用行动投出的信任票。这一数字不仅代表了 M2.5 模型本身的增长,更预示着硅谷下一代开源生态应用的整体增量。

那些被压抑许久的 Agent 应用需求,正迎来全面启动的时刻。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/22281

(0)
上一篇 2026年2月25日 下午6:42
下一篇 2026年2月25日 下午6:45

相关推荐

  • MEET2026智能未来大会:AI前沿技术与产业落地的全景透视

    随着人工智能技术的飞速发展,全球科技产业正迎来新一轮的变革浪潮。MEET2026智能未来大会作为年度重要科技盛会,不仅汇聚了顶尖学者与行业领袖,更成为洞察AI技术趋势与产业融合的关键窗口。本文将从大会主题、嘉宾阵容、技术议题等维度,深入分析当前AI领域的发展动态与未来走向。 大会以「共生无界,智启未来」为主题,深刻反映了AI技术正逐步打破传统边界,实现跨学科…

    2025年11月27日
    15300
  • AI生产力真相:Anthropic联创揭秘内部数据,代码加速遇瓶颈,维修工也难逃AI替代

    Anthropic联合创始人Jack Clark近期参与了一场深度对话,同台的还有知名前对冲基金经理Michael Burry、Dwarkesh播客创始人Dwarkesh Patel以及软件创业者Patrick McKenzie。 四位业界人士的讨论揭示了关于AI生产力的一些反直觉细节和数据。 AI工具真的提升了生产力吗?多数人的直觉答案是肯定的,但Jack…

    2026年1月11日
    17600
  • DeepSeek开源视觉压缩模型引爆业界,单GPU实现高效长文本处理

    DeepSeek-OCR创新性地提出“视觉压缩文本”范式,通过将文本信息转化为图像表征,有效解决大模型处理长文本时的算力瓶颈。该3B参数模型采用DeepEncoder编码器和DeepSeek3B-MoE-A570M解码器双组件架构,实现用少量视觉token高效表示海量文本内容。实验表明,在10倍压缩率下解码准确率达97%,20倍压缩率仍保持60%准确率。仅需单张A100 GPU即可每日生成超20万页训练数据,在OmniDocBench基准上以最少token数达到SOTA性能。这一突破性方法不仅被业界誉为“AI的JPEG时刻”,更为统一视觉与语言处理、构建类人记忆机制提供了新路径。

    2025年10月21日
    42100
  • 图灵奖得主Sutton深度剖析:AI模型本质脆弱,经验时代才是智能进化的下一站

    今天的AI,让人又喜又怕。短短三年,AI已经从聊天机器人进化到可以操控计算机终端的智能体,但同时也给硅谷带来了“AI恐慌”,导致许多SaaS厂商市值惨跌。 在行业的狂喜与不安中,图灵奖得主、强化学习之父Richard Sutton在SAIR成立后的首场全球直播中,发表了他对AI冷静而反直觉的分析。 Sutton开篇便指出一个冷静的判断:当前的AI只是局部的智…

    2026年2月24日
    7600
  • 从IMO金牌到首位80后院士:刘若川的数学之路与北大黄金一代的科研场域

    在2024年中国科学院院士增选中,北京大学数学科学学院副院长刘若川的当选,不仅标志着首位“80后”院士的诞生,更折射出中国基础数学研究领域新一代领军力量的崛起。这位44岁的数学家,以其在算术几何与代数数论领域的开创性贡献,成为连接国际数学前沿与中国本土科研的重要桥梁。 刘若川的学术轨迹堪称典范。1999年,他以国际数学奥林匹克竞赛(IMO)金牌得主的身份保送…

    2025年11月22日
    16200