MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这个春节,MiniMax 杀疯了。

2 月 20 日,港股马年首个交易日,MiniMax 收盘股价报涨 14.52%,市值一度冲破 3042 亿港元。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这轮上涨并非只是资本市场的情绪宣泄。

过去两年,AI 行业的叙事几乎集中在供给侧,比如更强的模型、更快的芯片、更大的数据中心。然而,制约 AI 产业规模化落地的,除了供给侧的能力上限外,还有大量长期憋着、始终未能真正释放的需求。

春节假期前后,MiniMax 发布新一代模型 M2.5,这些被压制的需求终于找到了一个出口。

M2.5 发布后 12 小时内登顶 OpenRouter 热度榜,一周内登顶调用量榜首,周调用量暴涨至 3.07T tokens,超过 Kimi K2.5、GLM-5 与 DeepSeek V3.2 三家的总和。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这还不是故事的全部。OpenRouter 整体调用量也在同步攀升。官方随后确认,M2.5 带动了 100K 至 1M 长文本区间的增量调用需求,而这个区间正是 Agent 工作流的典型消耗场景。

此前因为找不到能力和成本同时过关的模型,大量开发者手里攥着现成的工作流却迟迟无法启动。Agent 任务的 token 消耗远比普通对话密集,需求一旦被激活,带动的调用增量自然相当可观。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

硅谷在用什么,已经悄悄变了。

早在 MiniMax 推出 M2.1 模型时,被公认为 Cursor 最强挑战者的硅谷新贵 Kilo Code 就已表态。这家可调用全球超过 500 种模型的 AI 编程工具,在核心产品的默认模型位置上,曾高调宣布首选 MiniMax M2.1。

Kilo 联合创始人兼 CEO Breitenother 给出的理由简单粗暴:在开发者直接评判的真实编码工作流程中,M2.1 能够与前沿模型相媲美。

此次 M2.5 发布后随即全面开源,模型权重在 HuggingFace 上发布,支持本地部署,Kilo 再次宣布接入。与此同时,OpenCode、OpenClaw、Fireworks、Factory、TRAE、Cline、OpenHands、Roo Code,以及 Ollama、vLLM、SGLang、Dify、魔搭社区等国内外知名开源 Agent 应用、开源工具平台,也在第一时间接入。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

Kilo 代表新一代 AI 编程工具的方向,OpenClaw 代表最新的 AgentOS,它们在底层模型的选择上极为挑剔,M2.5 能够成为这类产品的优先推荐,意味着在真实生产环境中对于模型的认可。

在编程领域最具代表性的 SWE-Bench Verified 评测中,M2.5 以 80.2% 的通过率达到了与 Claude Opus 系列相当的水平,在多语言任务 Multi-SWE-Bench 上排名第一。

知名技术博主 Simon Willison 使用 mini-swe-agent 对当前主流模型进行了独立测评,结果显示 M2.5 排名第三,仅次于 Claude Opus 4.5 和 Gemini 3 Flash,且是开源模型中的第一名。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入
MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

执行效率也有实质性提升。研究机构 SemiAnalysis 实测显示,在 8 张 H200 显卡上,M2.5 在合理首 token 延迟范围内能够持续达到每 GPU 每秒约 2500 个 token 的吞吐量,即便在严格要求每用户每秒 20 个 token 交互性的条件下,处理超过 1 万个 token 的上下文时仍能维持稳定的解码速度。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

开源 Agent 社区的密集接入同样说明问题。对于需要长时间运行、高频调用工具的 Agent 框架来说,模型的定价直接决定了产品能否跑通商业逻辑。

M2.5 的价格区间恰好落在这批产品真正能接受的范围里。它提供两个版本:100 TPS 快速版,输入每百万 tokens 仅需 0.3 美元,输出每百万 tokens 仅需 2.4 美元;50 TPS 版本输出价格还要再降一半。

能力、速度、成本,这三个维度在 M2.5 上同时达标,带来的结果在 OpenRouter 上看得尤为清楚,M2.5 第一次走出了一条接近指数型的曲线。

满足真实需求,从底层重新设计。

这些提升的背后,得益于 MiniMax 从工程底层重新设计的一套原生 Agent 强化学习系统,代号 Forge

Forge 将 Agent 的执行逻辑与底层训练推理引擎彻底解耦。在此之前,大多数 RL 框架要求把 Agent 当作白盒来处理,Agent 与框架之间需要深度共享内部状态,一旦涉及动态上下文管理或多 Agent 协作,工程复杂度就会急剧膨胀;传统的 Token-In-Token-Out 模式还迫使 Agent 与底层 Tokenizer 深度绑定,维护训练和推理之间的一致性成本极高。

Forge 通过引入中间件抽象层绕开了这两个问题。Gateway Server 作为标准化通信网关,将 Agent 的高层行为与底层模型复杂性隔离;Data Pool 异步收集训练轨迹,使生成与训练彻底解耦。这套架构让 MiniMax 可以在不修改任何 Agent 内部代码的前提下,接入数百种框架和数千种工具调用格式进行训练。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

在训练效率上,Forge 引入了 Prefix Tree Merging 方案,将训练样本从线性序列重构为树形结构,消除了多轮 Agent 请求之间大量重复的上下文前缀,实现了约 40 倍的训练加速,同时显著降低了显存开销。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

异步调度上,Forge 提出 Windowed FIFO 策略,在最大化系统吞吐量的同时,通过滑动窗口约束控制样本的离策略程度,避免训练分布向「快而简单」的样本严重偏移,兼顾了效率与稳定性。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

算法层面,MiniMax 沿用自研的 CISPO 算法保障 MoE 模型在大规模训练中的稳定性,并针对 Agent 场景的长轨迹信用分配难题,设计了由过程奖励、任务完成时间奖励与 Reward-to-Go 三部分组成的复合奖励:过程奖励对 Agent 中间行为进行密集监督,不只依赖最终结果;任务完成时间奖励将相对完成时间作为奖励信号,激励模型主动利用并行策略选择最短执行路径;Reward-to-Go 则通过标准化回报大幅降低梯度方差,稳定优化过程。

此外,MiniMax 还将上下文管理机制直接整合进了 RL 交互循环,将其视为驱动状态转换的功能性动作,让模型在训练阶段就学会预见并适应上下文变迁,这从根本上解决了长程任务中随交互轮次增加而出现的注意力稀释问题。

正是这套系统,让 M2.5 在 Kilo、OpenClaw 这类对模型要求颇为苛刻的 Agent 框架上跑出了稳定的表现。

超越 Agentic Engineering,面向下一代应用生态。

在过去 108 天里,MiniMax 陆续推出了 M2、M2.1 和 M2.5,在 SWE-Bench Verified 榜单上,M2 系列的进步速度超过了 Claude、GPT 和 Gemini 系列,是行业迭代最快的。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这个节奏,恰好踩在一个需求爆发的窗口上。OpenClaw 从籍籍无名到席卷全球,前后不过一两个月时间。如今 OpenRouter 上已有上千种类似工具和应用在此生长,这片 ChatGPT、Claude、Gemini「御三家」之外的生态里,开发者只认一个标准:模型跑不跑得通、用不用得起。

能力达到第一梯队、价格仅为主流旗舰模型的十分之一,并且支持本地部署,MiniMax M2.5 及一系列国产模型的出现,精准地击穿了性能与成本之间的临界点。这使得开源社区中那些曾仅停留在演示阶段的复杂多 Agent 系统,首次具备了大规模商业落地的经济可行性。

周调用量突破 3T tokens,是开发者们用行动投出的信任票。这一数字不仅代表了 M2.5 模型本身的增长,更预示着硅谷下一代开源生态应用的整体增量。

那些被压抑许久的 Agent 应用需求,正迎来全面启动的时刻。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/22281

(0)
上一篇 2026年2月25日 下午6:42
下一篇 2026年2月25日 下午6:45

相关推荐

  • 突破边缘部署瓶颈:Fairy2i框架实现2比特量化逼近FP16精度

    在人工智能模型日益庞大的今天,如何在资源受限的边缘设备上高效部署大模型成为行业核心挑战。传统量化方法在压缩至1-2比特时往往面临精度断崖式下跌,而北京大学团队最新提出的Fairy2i框架,通过创新的复数域量化技术,实现了无需重新训练即可将预训练模型压缩至2比特,同时保持接近全精度(FP16)性能的突破性进展。 Fairy2i的核心创新在于构建了一个完整的量化…

    2025年12月10日
    28100
  • AI狂潮的物理边界:从安然警示看OpenAI的万亿资金与电力瓶颈

    当资本市场的狂热与物理世界的法则发生碰撞,AI产业正面临前所未有的结构性挑战。本文将通过深度分析OpenAI等头部企业的财务模型与基础设施瓶颈,揭示这场技术革命背后的隐忧。 2001年安然破产案的核心教训在于:当企业用金融工程掩盖真实经营状况时,崩溃只是时间问题。安然通过将未来几十年的预期利润提前计入报表、设立数百个表外实体隐藏债务,创造了虚假繁荣。其CEO…

    2025年11月15日
    23700
  • 突破PEFT合并瓶颈:方向鲁棒性理论揭示与RobustMerge方案解析

    在人工智能技术快速演进的浪潮中,多模态大模型已成为推动产业进步的核心引擎。然而,随着模型参数规模呈指数级增长,全量微调(Full Fine-Tuning, FFT)所需的海量计算资源已成为制约技术民主化的重要瓶颈。参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)技术,特别是LoRA(Low-Rank Adaptati…

    2025年11月10日
    27200
  • 魔珐星云:突破“不可能三角”,开启具身智能3D数字人交互新纪元

    在人工智能技术快速演进的浪潮中,具身智能正从实验室概念加速走向商业化落地。近日,魔珐科技发布的全球首个面向开发者的具身智能基础设施——「魔珐星云」具身智能3D数字人开放平台,标志着这一领域迈出了关键一步。该平台不仅将大语言模型与实体机器人连接起来,更通过创新的技术架构,实现了高质量、低延迟、高并发与低成本之间的平衡,为数字人交互体验带来了革命性突破。 魔珐星…

    2025年10月29日
    23400
  • 谷歌Gemini 3.0 Pro与Nano Banana Pro:创始人回归如何重塑AI霸权格局

    导读:谷歌的逆袭之路 两年时间,谷歌在人工智能领域的地位发生了戏剧性转变。从一度被认为落后于OpenAI,到凭借Gemini 3.0 Pro等一系列重磅产品实现技术反超,谷歌正重新确立其在AI领域的领导地位。OpenAI首席执行官萨姆·奥特曼也在内部承认,谷歌的进展给公司带来了“暂时的经济阻力”。 技术突破与市场反响 近期发布的Gemini 3.0系列模型与…

    2025年11月22日
    25600