突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

最强的大模型,已经把scaling卷到了一个新维度:百万级上下文

几天前,Claude Opus 4.6发布,让人第一次真切感受到了百万上下文的涌现能力——单次吃进50万字中文内容、实现跨文档法律分析、多轮Agent规划……

而这股scaling的风,也很快吹到了端侧。

面壁智能发布了首次大规模训练的稀疏与线性混合注意力模型。这套新注意力架构,不仅解决了传统Transformer的计算冗余,还首次在性能无损的前提下,让9B端侧模型能够在5090显卡上处理百万长文本

与此同时,基于SALA注意力架构的模型MiniCPM-SALA 也将一并开源。

除此之外,面壁还以OpenBMB社区名义,联合SGLang与NVIDIA发起2026稀疏算子加速大奖赛(SOAR) ,旨在将这套scaling能力直接交到开发者手中,推动端侧Agent部署的性能突破。

Linear-Sparse混合注意力架构

面壁这次全新的线性与稀疏注意力混合架构SALA(Sparse Attention-Linear Attention) ,究竟是怎么个混合法呢?

简单来说,这套架构将75%线性注意力(Lightning Attention)25%稀疏注意力(InfLLM v2) 结合,并通过混合位置编码HyPE(Hybrid Position Encoding) 实现两者的高效协同与超强的长度外推。

突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

线性注意力 模块,Linear-Sparse选用Lightning Attention作为核心算子,负责快速、稳定地建模长文本的全局信息

突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

Lightning Attention的计算方式与传统全注意力接近,方便现有全注意力模型直接迁移到混合架构,无需从零开始预训练。同时,借助QK-normalization输出门控机制 ,使线性层在百万级上下文训练下保持数值稳定,避免梯度爆炸或下溢。

稀疏注意力 模块,Linear-Sparse采用InfLLMv2来精准捕捉长序列中的关键局部信息

突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

InfLLM v2可按需选择关键KV,让每个Query只计算必要部分,从而大幅提高长文本处理效率。值得一提的是,InfLLM v2还能在长文本中自动启用稀疏模式,在标准长度下回退为稠密计算,实现长短文本的无缝切换。

最后,混合位置编码HyPE(Hybrid Position Encoding) 的引入,则保证了线性和稀疏两种注意力机制的充分协同。一方面,线性层保留RoPE以维持与原全注意力模型在参数分布和特征空间上的一致性,保证中短文本性能稳健。另一方面,稀疏层采用NoPE(无位置编码),让KV-Cache与位置信息解耦,规避长距离衰减问题,使模型在百万长度上下文中仍能高效检索极远信息。

训练上,MiniCPM-SALA采用Transformer-to-Hybrid低成本构建方法(HALO)

突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

具体而言,模型通过HALO方法将75%的全注意力层转换为线性注意力层,整个过程包括参数转换、隐状态对齐、层选择以及知识蒸馏四个步骤。最终,这套Linear-Sparse设计让MiniCPM-SALA在端侧处理超长文本时,不仅显存占用极低、计算高效,而且语义精度依然保持领先水平。

为什么百万上下文,必须是“混合注意力”?

要回答这个问题,得先回到传统的Full Attention

突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

在经典Transformer里,每生成一个新token,都要和之前所有token做两两计算,其计算复杂度是典型的O(N²)。这意味着,把上下文从1万拉到100万,计算量不是涨100倍,而是直接飙升1万倍。与此同时,为了让模型“记住”所有历史信息,还得把KV对全攒在显存里。随着上下文长度增加,KV Cache迅速膨胀,很快就会爆显存。

由此可见,想解决长上下文问题,注意力机制是核心瓶颈

过去几年,业界围绕这一瓶颈探索了多条路线,本质上都是在精度、效率与可部署性之间寻找平衡点

第一类是线性注意力 ,通常为线性和全注意力结合的混合设计。它用记忆状态替代传统两两打分,能将计算复杂度从O(N²)降到O(N)。优点是可以吃下百万级上下文,但底层采用有损压缩,序列越长,早期信息越容易被稀释,导致上下文遗忘和模型能力下降。

第二类是原生稀疏注意力。只计算关键位置,精度接近全注意力,但为了支持长程历史回顾,仍需全量保存KV Cache,导致端侧部署成本高。

第三类是放弃显式注意力的状态空间模型 ,如Mamba。这类方法推理效率高、几乎不需要KV Cache,但在精确指令遵循和长距离精确检索上,仍不够稳定。

综上,我们不难看出注意力机制改动是长上下文scaling的主战场。但真正能同时兼顾百万级上下文能力、推理效率和端侧可落地性的方案,仍然稀缺。

这也是为什么面壁提出Linear-Sparse混合注意力架构 的出发点:用线性机制承担大规模上下文的承载,用稀疏机制补足关键位置的精确建模能力。

在这一架构下,模型不再需要对所有token做完整的两两计算,也不必无条件保存全量KV Cache。新的混合注意力架构可以在显著降低推理开销和显存占用的同时,避免纯线性注意力在长程信息召回上的精度损失,以及稀疏注意力在端侧设备要求上的局限。

基于这一设计,面壁开源了MiniCPM-SALA ,用来验证该架构在真实长上下文场景下的潜力。在效果层面,得益于显著更低的显存占用和更高的推理效率,MiniCPM-SALA首次在5090这样的消费级显卡上,将1M上下文完整跑通,为长上下文从云端走向端侧提供了一条现实可行的路径。

与此同时,在不依赖投机推理等额外加速算法的前提下,相比同尺寸开源模型,MiniCPM-SALA在256K序列上实现了2倍以上的速度提升。当序列长度进一步提升至512K甚至1M时,部分同尺寸模型已经遭遇显存瓶颈,而MiniCPM-SALA依然能够稳定运行。

从这些结果来看,未来的大模型,并不一定需要Full Attention才能具备完整能力。当上下文成为第一性资源时,像Linear-Sparse混合注意力这样的新型注意力设计,正在成为影响模型能否真正落地的重要变量。

2026稀疏算子加速大奖赛

如果说MiniCPM-SALA让Linear-Sparse混合架构的能力有了实证,那么今年的SOAR(稀疏算子加速大奖赛) 就是让这套技术“落地跑起来”的舞台。

这场比赛由面壁智能、OpenBMB联合SGLang社区和NVIDIA共同发起,旨在通过全球极客的深度协作,共同探索MiniCPM-SALA这一全球首创“稀疏+线性”混合架构模型在1M长文本推理上的性能极限。

具体来说,大赛聚焦于稀疏算子融合与编译优化等底层技术挑战,尝试在消费级GPU上实现百万Token推理且KV Cache<6GB的极致效率。比赛时间从2月11日持续到5月29日,设有总奖池超过70万人民币 的奖励。参赛者不仅能测试混合架构在真实硬件上的极限,还能探索端侧高效长文本处理的新方法。

突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

面壁为什么执着于用SALA重构长上下文?

这并不是为了“卷长上下文指标”。

正是基于对注意力机制的创新,MiniCPM-SALA模型才能足够高效、显存占用足够低,使得面壁智能首次在5090这样的消费级GPU上,真正跑通了百亿级长文本的端侧推理。

这一步一旦成立,长上下文就不再只是云端模型的特权,而成为端侧智能可以依赖的基础能力。

纵观面壁智能今年的动作,其在端侧智能上的整体思路清晰可见:从模型底层直通端侧生态,核心就是上下文。无论是模型架构的迭代,还是长文本能力的竞技,本质上都是一次针对端侧落地的“两步走”战略。而这,并非偶然。

放眼整个行业,智能体(Agent)的核心瓶颈已从单纯的参数量转向上下文能力——从模型层的Claude Opus 4.6,到应用层的Claude Cowork、Clawdbot(现OpenClaw),再到评估层的CL-Bench,行业共识已经非常明确:

能否一次吸收、理解并持续利用大量上下文,是决定Agent可用性的关键。

与此同时,基于注意力机制优化上下文处理,也已成为从学界到产业公认的主战场。去年NeurIPS 2025最佳论文授予门控注意力;产业侧,Kimi的KDA、DeepSeek的NSA、MiniMax的Lightning等新方案相继推出——几乎所有核心玩家,都在注意力这条线上持续加码。

因为这并非一个“工程调优”问题,而是架构级问题。只有真正具备AGI野心和技术纵深的公司,才有能力从底层架构一路改到上层算法。也只有真正想把模型能力推到边界的团队,才有魄力去挑战已被奉为主流、但显然仍有优化空间的Transformer传统范式。

面壁智能选择这条路,更是因为其与端侧部署的目标高度契合:

首先,端侧Agent需要处理通讯录、位置信息、聊天记录等个人数据。出于隐私保护,这些数据无法上传云端。只有让模型本身具备超长上下文能力,个人助理才能在本地真正“懂你”。

其次,通用榜单竞争已进入红海,端侧开发者关心的问题也已从特定的基准测试,转向真实世界环境中的上下文应用。这正如DeepSeek研究员苟志斌所言:

预训练能scaling,RL也能scaling,上下文也能scaling,模型仍在继续scaling。

突破百万上下文:面壁智能SALA混合注意力架构引领端侧大模型新纪元

换句话说,参数规模已不再是唯一指标,真正的竞争力在于模型或Agent在复杂上下文中持续推理和行动的能力,这将直接决定模型能否从演示走向仓库级代码助手、行业知识库Agent。

最后,也是最本质的一点:不解决长文本推理的部署成本问题,端侧智能就无法真正落地。

因此,面壁智能不只做模型,更在构建生态:从开源MiniCPM-SALA,到举办端侧长文本比赛以降低部署门槛,再到深耕开发者社区,面壁智能正在拼出一条剑指 “百万上下文时代个人智能体” 的主线。

相关资源:
– 技术报告: https://github.com/OpenBMB/MiniCPM/blob/main/docs/MiniCPM SALA.pdf
– GitHub: https://github.com/openbmb/minicpm
– Hugging Face: https://huggingface.co/openbmb/MiniCPM-SALA
– ModelScope: https://www.modelscope.cn/models/OpenBMB/MiniCPM-SALA


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/21088

(0)
上一篇 1天前
下一篇 1天前

相关推荐

  • 硅谷工程文化真相:职业开发者如何掌控AI编程,而非盲目跟随Vibe Coding

    Vibe Coding 再次被证明“被吹得有点过了”! 过去一年,自前 OpenAI 创始成员 Karpathy 引燃“Vibe Coding”概念后,整个 AI 编程赛道以十倍速热闹起来。LLM 厂商们以“肉眼都快分不清”的速度在编程能力上进行疯狂代际提升,智能编程也从最初的“超级自动补全”进化到了 Agentic 的自主编程时代。 如今,关于 Vibe …

    2025年12月31日
    10100
  • PaperBanana:北大与谷歌联手推出AI论文插图生成器,顶会级图表一键生成

    你负责写方法,AI负责画 Figure。科研打工人,终于等来「画图解放日」。 还在为论文里的方法框图熬夜画 PPT、拉箭头、对齐字体吗? 一张 Figure 2,动辄几个小时,严重的甚至能耗上几天,科研人的「隐藏副本」不是实验,而是画图。 既要忠于论文原意,又得暗暗符合顶会那套心照不宣的「学术审美」:颜色不能土,布局不能乱,箭头更不能连错。 看起来只是一张图…

    2026年2月5日
    1100
  • Nature认证的AI论文综述神器OpenScholar:终结假引用,引文准确度比肩人类专家

    AI论文综述工具OpenScholar:终结假引用,引文准确度比肩人类专家 AI辅助论文写作已不新鲜,但长期困扰学术界的假引用问题始终存在。使用大模型生成的文献综述看似规范,但核查参考文献时,常会发现论文、期刊甚至作者均为捏造。 如今,这一问题有望得到解决。《自然》杂志新发表的一篇研究显示,艾伦人工智能研究所(AI2)与华盛顿大学联合开源了一个名为OpenS…

    5天前
    800
  • 告别手动造数据:5款高效生成逼真测试数据的开发者利器

    几乎每位开发者都经历过因缺少数据而测试受阻的时刻。无论是测试一个API、一个表单还是一个数据看板,如果没有足够真实的数据输入,测试结果往往缺乏参考价值。手动编造假邮箱、手机号或地址,对付几行数据尚可,一旦需要成百上千条记录,就会变成一项耗时且枯燥的苦差事。 为了进行有效的测试,我们需要结构化且逼真的应用数据。无论是验证分页逻辑的稳健性,还是观察API在面对混…

    2025年12月5日
    12100
  • 智源Emu3登Nature:统一多模态的“世界模型”路线如何颠覆AI未来?

    一场押注AI未来的技术豪赌。 北京时间1月29日,北京智源人工智能研究院推出的多模态大模型“悟界·Emu”登上Nature正刊。这是继DeepSeek之后第二个达成此成就的中国大模型团队研究成果,也是中国首篇围绕多模态大模型路线的Nature论文。 Nature编辑在点评中指出:“Emu3仅基于‘预测下一个token’实现了大规模文本、图像和视频的统一学习,…

    2026年2月1日
    15700