GPU加速

  • SonicMoE:突破细粒度MoE硬件效率瓶颈,实现高稀疏性下的极致训练加速

    混合专家(MoE)模型架构已成为当前大语言模型规模化扩展的关键技术路径,其通过稀疏激活机制,在保持计算成本相对稳定的前提下,实现了模型参数量的指数级增长。然而,随着技术演进,MoE模型正呈现出两个显著趋势:专家粒度不断细化(即专家中间层维度持续缩小)和模型稀疏性持续提升(在专家总数大幅增加的同时保持激活专家数基本不变)。这一趋势在近期开源的DeepSeek …

    2025年12月19日
    10700
  • FlashMoBA:突破稀疏注意力瓶颈,MoBA机制在长上下文处理中的硬件优化革命

    在人工智能领域,处理长上下文序列一直是大型语言模型面临的核心挑战之一。传统的密集注意力机制虽然功能强大,但其计算复杂度随序列长度呈二次方增长,这严重限制了模型处理长文本、代码或多轮对话的能力。今年2月,月之暗面提出的MoBA(Mixture of Block Attention)机制为这一难题提供了创新解决方案。MoBA将混合专家(MoE)原理引入注意力机制…

    2025年11月18日
    9400