MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这个春节,MiniMax 杀疯了。

2 月 20 日,港股马年首个交易日,MiniMax 收盘股价报涨 14.52%,市值一度冲破 3042 亿港元。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这轮上涨并非只是资本市场的情绪宣泄。

过去两年,AI 行业的叙事几乎集中在供给侧,比如更强的模型、更快的芯片、更大的数据中心。然而,制约 AI 产业规模化落地的,除了供给侧的能力上限外,还有大量长期憋着、始终未能真正释放的需求。

春节假期前后,MiniMax 发布新一代模型 M2.5,这些被压制的需求终于找到了一个出口。

M2.5 发布后 12 小时内登顶 OpenRouter 热度榜,一周内登顶调用量榜首,周调用量暴涨至 3.07T tokens,超过 Kimi K2.5、GLM-5 与 DeepSeek V3.2 三家的总和。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这还不是故事的全部。OpenRouter 整体调用量也在同步攀升。官方随后确认,M2.5 带动了 100K 至 1M 长文本区间的增量调用需求,而这个区间正是 Agent 工作流的典型消耗场景。

此前因为找不到能力和成本同时过关的模型,大量开发者手里攥着现成的工作流却迟迟无法启动。Agent 任务的 token 消耗远比普通对话密集,需求一旦被激活,带动的调用增量自然相当可观。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

硅谷在用什么,已经悄悄变了。

早在 MiniMax 推出 M2.1 模型时,被公认为 Cursor 最强挑战者的硅谷新贵 Kilo Code 就已表态。这家可调用全球超过 500 种模型的 AI 编程工具,在核心产品的默认模型位置上,曾高调宣布首选 MiniMax M2.1。

Kilo 联合创始人兼 CEO Breitenother 给出的理由简单粗暴:在开发者直接评判的真实编码工作流程中,M2.1 能够与前沿模型相媲美。

此次 M2.5 发布后随即全面开源,模型权重在 HuggingFace 上发布,支持本地部署,Kilo 再次宣布接入。与此同时,OpenCode、OpenClaw、Fireworks、Factory、TRAE、Cline、OpenHands、Roo Code,以及 Ollama、vLLM、SGLang、Dify、魔搭社区等国内外知名开源 Agent 应用、开源工具平台,也在第一时间接入。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

Kilo 代表新一代 AI 编程工具的方向,OpenClaw 代表最新的 AgentOS,它们在底层模型的选择上极为挑剔,M2.5 能够成为这类产品的优先推荐,意味着在真实生产环境中对于模型的认可。

在编程领域最具代表性的 SWE-Bench Verified 评测中,M2.5 以 80.2% 的通过率达到了与 Claude Opus 系列相当的水平,在多语言任务 Multi-SWE-Bench 上排名第一。

知名技术博主 Simon Willison 使用 mini-swe-agent 对当前主流模型进行了独立测评,结果显示 M2.5 排名第三,仅次于 Claude Opus 4.5 和 Gemini 3 Flash,且是开源模型中的第一名。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入
MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

执行效率也有实质性提升。研究机构 SemiAnalysis 实测显示,在 8 张 H200 显卡上,M2.5 在合理首 token 延迟范围内能够持续达到每 GPU 每秒约 2500 个 token 的吞吐量,即便在严格要求每用户每秒 20 个 token 交互性的条件下,处理超过 1 万个 token 的上下文时仍能维持稳定的解码速度。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

开源 Agent 社区的密集接入同样说明问题。对于需要长时间运行、高频调用工具的 Agent 框架来说,模型的定价直接决定了产品能否跑通商业逻辑。

M2.5 的价格区间恰好落在这批产品真正能接受的范围里。它提供两个版本:100 TPS 快速版,输入每百万 tokens 仅需 0.3 美元,输出每百万 tokens 仅需 2.4 美元;50 TPS 版本输出价格还要再降一半。

能力、速度、成本,这三个维度在 M2.5 上同时达标,带来的结果在 OpenRouter 上看得尤为清楚,M2.5 第一次走出了一条接近指数型的曲线。

满足真实需求,从底层重新设计。

这些提升的背后,得益于 MiniMax 从工程底层重新设计的一套原生 Agent 强化学习系统,代号 Forge

Forge 将 Agent 的执行逻辑与底层训练推理引擎彻底解耦。在此之前,大多数 RL 框架要求把 Agent 当作白盒来处理,Agent 与框架之间需要深度共享内部状态,一旦涉及动态上下文管理或多 Agent 协作,工程复杂度就会急剧膨胀;传统的 Token-In-Token-Out 模式还迫使 Agent 与底层 Tokenizer 深度绑定,维护训练和推理之间的一致性成本极高。

Forge 通过引入中间件抽象层绕开了这两个问题。Gateway Server 作为标准化通信网关,将 Agent 的高层行为与底层模型复杂性隔离;Data Pool 异步收集训练轨迹,使生成与训练彻底解耦。这套架构让 MiniMax 可以在不修改任何 Agent 内部代码的前提下,接入数百种框架和数千种工具调用格式进行训练。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

在训练效率上,Forge 引入了 Prefix Tree Merging 方案,将训练样本从线性序列重构为树形结构,消除了多轮 Agent 请求之间大量重复的上下文前缀,实现了约 40 倍的训练加速,同时显著降低了显存开销。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

异步调度上,Forge 提出 Windowed FIFO 策略,在最大化系统吞吐量的同时,通过滑动窗口约束控制样本的离策略程度,避免训练分布向「快而简单」的样本严重偏移,兼顾了效率与稳定性。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

算法层面,MiniMax 沿用自研的 CISPO 算法保障 MoE 模型在大规模训练中的稳定性,并针对 Agent 场景的长轨迹信用分配难题,设计了由过程奖励、任务完成时间奖励与 Reward-to-Go 三部分组成的复合奖励:过程奖励对 Agent 中间行为进行密集监督,不只依赖最终结果;任务完成时间奖励将相对完成时间作为奖励信号,激励模型主动利用并行策略选择最短执行路径;Reward-to-Go 则通过标准化回报大幅降低梯度方差,稳定优化过程。

此外,MiniMax 还将上下文管理机制直接整合进了 RL 交互循环,将其视为驱动状态转换的功能性动作,让模型在训练阶段就学会预见并适应上下文变迁,这从根本上解决了长程任务中随交互轮次增加而出现的注意力稀释问题。

正是这套系统,让 M2.5 在 Kilo、OpenClaw 这类对模型要求颇为苛刻的 Agent 框架上跑出了稳定的表现。

超越 Agentic Engineering,面向下一代应用生态。

在过去 108 天里,MiniMax 陆续推出了 M2、M2.1 和 M2.5,在 SWE-Bench Verified 榜单上,M2 系列的进步速度超过了 Claude、GPT 和 Gemini 系列,是行业迭代最快的。

MiniMax M2.5引爆AI需求:周调用量破3T,开源Agent生态全面接入

这个节奏,恰好踩在一个需求爆发的窗口上。OpenClaw 从籍籍无名到席卷全球,前后不过一两个月时间。如今 OpenRouter 上已有上千种类似工具和应用在此生长,这片 ChatGPT、Claude、Gemini「御三家」之外的生态里,开发者只认一个标准:模型跑不跑得通、用不用得起。

能力达到第一梯队、价格仅为主流旗舰模型的十分之一,并且支持本地部署,MiniMax M2.5 及一系列国产模型的出现,精准地击穿了性能与成本之间的临界点。这使得开源社区中那些曾仅停留在演示阶段的复杂多 Agent 系统,首次具备了大规模商业落地的经济可行性。

周调用量突破 3T tokens,是开发者们用行动投出的信任票。这一数字不仅代表了 M2.5 模型本身的增长,更预示着硅谷下一代开源生态应用的整体增量。

那些被压抑许久的 Agent 应用需求,正迎来全面启动的时刻。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/22281

(0)
上一篇 6小时前
下一篇 3小时前

相关推荐

  • 从数据中心到工作站:KTransformers与LLaMA-Factory联手重塑千亿参数模型微调格局

    在人工智能技术快速迭代的浪潮中,大模型微调一直被视为连接通用智能与垂直应用的关键桥梁。然而,传统微调方法对计算资源的巨额需求,将千亿乃至万亿参数模型的定制化能力牢牢锁在数据中心内部,普通研究者和中小企业只能望而却步。如今,这一局面正被彻底改写——仅需2-4张消费级RTX 4090显卡,即可在本地工作站上对DeepSeek 671B、Kimi K2 1TB等超…

    2025年11月5日
    13900
  • Poetiq元系统:以智能编排重塑大模型推理范式,成本减半性能登顶ARC-AGI-2

    在人工智能快速演进的浪潮中,大模型的能力边界不断被拓展,但如何高效、低成本地调用这些模型解决复杂现实问题,仍是行业面临的重大挑战。近日,由6名前Google DeepMind核心成员创立的初创公司Poetiq,通过其创新的“元系统”架构,在这一领域取得了突破性进展。该系统不仅以54%的准确率在ARC-AGI-2基准测试中刷新纪录,更将每任务计算成本降至31美…

    2025年12月14日
    13600
  • 企业AI进入深水区:OpenAI以效率革命重塑商业格局,但增长焦虑下的多线作战挑战加剧

    在人工智能技术从实验室走向产业化的关键转折点上,企业级应用正成为决定技术价值释放与商业成败的核心战场。OpenAI最新发布的《企业AI现状报告》揭示了一个深刻趋势:AI已从早期的消费端炫技,转向深入企业工作流、驱动实质性效率提升与能力拓展的深水区。这份基于8亿周活跃用户与9000名企业员工数据的报告,不仅勾勒出企业AI应用的宏观图景,更折射出OpenAI自身…

    2025年12月9日
    13500
  • Lumina-DiMOO:离散扩散架构重塑多模态统一模型,开启原生智能新纪元

    上海人工智能实验室近期推出的Lumina-DiMOO,标志着多模态人工智能领域迎来了一次架构层面的根本性变革。这款基于离散扩散建模(Discrete Diffusion Modeling)的扩散语言模型,首次在同一框架内实现了文本→图像、图像→图像、图像→文本的全栈能力闭环,打破了传统多模态任务间的技术壁垒。 **论文信息** 论文标题:Lumina-DiM…

    2025年11月16日
    14100
  • AI赋能内容创作:新榜小豆芽如何破解多平台运营效率难题

    在数字化内容创作浪潮中,多平台同步运营已成为创作者和自媒体人的标配,但随之而来的效率瓶颈——如手动发布耗时、跨平台内容适配困难、素材处理繁琐等——却严重制约了创作产能与质量提升。近期,新榜推出的「小豆芽」工具,以其集成化的AI功能与合规接口,为这一行业痛点提供了系统性解决方案。本文将从技术架构、功能创新与行业影响三个维度,深入剖析该工具如何重塑内容创作工作流…

    2025年12月1日
    16000