在大型语言模型快速发展的当下,注意力机制的计算效率与表达能力之间的权衡已成为制约模型规模化应用的核心瓶颈。传统softmax注意力机制虽然具备强大的表达能力,但其二次方的计算复杂度在处理长序列时带来了巨大的计算和内存开销。线性注意力机制通过线性化计算将复杂度降至线性,但长期面临表达能力不足的挑战,尤其是在语言建模等复杂任务中表现欠佳。

近期,月之暗面发布的Kimi Linear混合注意力架构在这一领域取得了突破性进展。该架构的核心创新在于Kimi Delta注意力(KDA)机制,这是对Gated DeltaNet(GDN)的重要改进。KDA引入了细粒度的channel-wise门控机制,每个特征维度都保持独立的遗忘率,这与传统的head-wise遗忘门形成鲜明对比。这种设计使得模型能够更精确地调控有限状态RNN的记忆,从而在混合架构中充分释放RNN风格模型的潜力。
技术层面,KDA通过Diagonal-Plus-Low-Rank(DPLR)矩阵的专门变体来参数化其转换动态,这使得定制的分块并行算法成为可能。相较于通用的DPLR公式,该算法能显著减少计算量,同时仍与经典的delta规则保持一致。Kimi Linear采用3:1的固定比例将KDA与周期性的全注意力层交错排列,形成了独特的混合架构。这种设计在保持softmax注意力强大表达能力的同时,大幅降低了计算复杂度。


在模型实现方面,研究团队基于KDA与多头潜在注意力(MLA)的分层混合架构,预训练了激活参数为3B、总参数达48B的Kimi Linear模型。该模型在多个关键指标上表现出色:最多可将对大型KV缓存的需求减少75%,在处理长达100万个token的上下文时,能将解码吞吐量提升到完整MLA模型的6倍。这些改进在长文本处理、强化学习等场景中尤为显著。

值得注意的是,Kimi Linear的成功不仅在于技术创新,更在于其工程实现的成熟度。月之暗面团队在FLA中开源了KDA内核,并发布了用5.7万亿个token训练的两个版本模型检查点。目前,vLLM已经官宣支持Kimi Linear,这为其在实际应用中的部署提供了重要基础设施支持。

从产业格局来看,不同厂商在注意力机制的技术路线上呈现出差异化选择。Kimi押注线性注意力并推出Kimi Linear架构,Qwen也曾表示要大胆押注线性注意力,而MiniMax则更青睐全注意力机制。这种技术路线的分化反映了行业对效率与性能平衡点的不同理解。




深入分析Kimi Linear的技术细节,Kimi Delta Attention通过细粒度门控改进Delta规则,实现了对记忆衰减和位置感知的精细控制。其硬件高效的分块算法通过将递归部分展开为分块公式,显著提升了计算效率。WY Representation方法将一系列秩-1更新打包成单个紧凑表示,减少了后续计算中额外矩阵求逆的需求。UT transform算法的应用则有效减少了非矩阵乘法的FLOPs,这在训练期间对提升硬件利用率至关重要。







从长远发展来看,混合注意力架构代表了当前技术演进的一个重要方向。正如项目贡献者所言,这只是一个中间阶段,最终目标仍然是实现无限上下文模型。只要使用全局注意力,长时间解码依然受到其限制,而线性注意力背后仍然存在一些基础设施挑战。但随着Kimi Linear等创新架构的出现,以及来自不同实验室和公司的更多成果即将到来,我们有理由相信,注意力机制的效率与性能平衡问题将得到进一步解决。
未来,随着模型规模的持续扩大和应用场景的不断拓展,注意力机制的优化将成为推动大模型发展的关键驱动力。Kimi Linear的成功实践为行业提供了重要参考,其混合架构设计思路、硬件优化算法和工程实现经验,都将对下一代解码密集型LLM的发展产生深远影响。
— 图片补充 —


























关注“鲸栖”小程序,掌握最新AI资讯
本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/8574
