突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升

脉冲神经网络(SNN)长期以来被视为实现超低功耗智能计算的希望,但其性能往往落后于传统人工神经网络(ANN)。传统观点认为,SNN中二进制脉冲激活导致的信息损失是性能差距的主要原因。然而,香港科技大学(广州)等单位在NeurIPS 2025发表的研究提出了颠覆性见解:SNN性能不佳的根源并非二进制激活本身,而在于脉冲神经元固有的频率偏置问题。

突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升

研究团队通过深入的理论分析和实验验证发现,脉冲神经元本质上是一个低通滤波器,会抑制高频成分并倾向于传播低频信息。这种频域上的不平衡导致SNN在处理图像等复杂数据时难以捕捉关键的细节和纹理,从而限制了其表征能力。团队通过傅里叶频谱分析直观展示了这一现象:在“输入→激活→加权”的信息流中,与传统ReLU等激活函数会扩展信号频率带宽不同,脉冲神经元会导致高频成分快速消散,进而造成特征模糊。

突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升

为了验证这一发现,研究者在脉冲Transformer中进行了对照实验,分别采用平均池化(低通)和最大池化(高通)作为token混合器。在CIFAR-100数据集上的结果显示,使用Avg-Pool的性能为76.73%,而替换为Max-Pool后性能跃升至79.12%,提升了2.39%。这一结果与ANN Transformer的研究结论形成鲜明对比——在非脉冲Transformer中,倾向于捕捉全局模式的Avg-Pool通常是更优选择,但在脉冲Transformer中,能够保留局部细节的Max-Pool反而表现更佳。

突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升

从理论层面,研究团队通过分析脉冲神经元充电过程的传递函数,证明了其本质上是一个一阶无限脉冲响应低通滤波器。尽管单个脉冲在频谱上看似“全通”,但其波形产生的高频成分是虚假的,无法在网络中有效传播。当这一过程在网络中逐层串联时,低频偏好会被急剧放大,这正是网络深层特征退化的根源。

突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升

基于这一核心洞察,研究者提出了名为Max-Former的新型脉冲Transformer架构。该架构通过两个轻量级的“频率增强镜片”来补偿SNN天生的低频偏好:一是在Patch Embedding中增加额外的Max-Pool操作,在信息输入源头就主动注入高频信号;二是用深度卷积(DWC)替代早期阶段的自注意力机制。自注意力机制虽然强大,但计算复杂且倾向于平滑特征,而深度卷积能有效保留局部高频细节,同时计算复杂度远低于自注意力。

突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升

值得注意的是,Max-Pool和DWC相对于序列长度仅需线性复杂度,且参数效率更高,这与具有二次计算复杂度的自注意力形成鲜明对比。在性能验证方面,Max-Former在多项基准测试中表现卓越:在ImageNet上,Max-Former-10-768(4时间步)取得了82.39%的Top-1准确率,以更少的参数量(63.99M vs 66.34M)大幅超越Spikformer达7.58%。

突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升

在其他小规模数据集以及神经形态数据集上,Max-Former也均达到SOTA性能。更重要的是,在实现性能突破的同时,能量消耗降低了超过30%,真正实现了性能与能效的兼得。Grad-CAM可视化进一步表明,Max-Former中的频率增强算子有效矫正了SNN的“散光”现象,使其能够更清晰地捕捉图像关键区域。

突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升

为了证明高频信息对SNN的重要性并非Transformer架构特有,研究者将这一洞察延伸到经典的卷积架构中,提出了Max-ResNet。结果显示,仅通过添加少量Max-Pooling操作,Max-ResNet-18就在CIFAR-10上达到97.17%,在CIFAR-100上达到83.06%,相比基线模型准确率分别大幅提升了2.25%和6.65%,创造了卷积类SNN的新SOTA纪录。

突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升

这项研究为理解SNN的性能瓶颈提供了全新的视角,表明SNN的优化路径不应是简单地模仿ANN的成功设计,而应针对其独特的计算特性进行专门优化。通过解决频率偏置问题,Max-Former不仅提升了SNN的性能上限,还保持了其低功耗优势,为边缘计算、物联网设备等资源受限场景的智能应用开辟了新可能。

突破SNN性能瓶颈:Max-Former揭示频率偏置是核心问题,以高频增强实现精度与能效双提升


关注“鲸栖”小程序,掌握最新AI资讯

本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/6203

(0)
上一篇 2025年11月26日 下午1:38
下一篇 2025年11月27日 上午11:40

相关推荐

  • 模型融合新范式:SoCE方法如何通过类别专家加权实现大语言模型性能突破

    在大语言模型(LLM)快速发展的今天,模型训练对算力和时间的依赖已成为制约技术迭代的关键瓶颈。传统的训练方法需要庞大的计算资源和精细的流程设计,而模型融合(Model Souping)作为一种轻量化的替代方案,通过权重平均融合多个同架构模型,在降低成本的同时实现能力互补。然而,传统的均匀平均方法往往忽视了不同任务类别间的性能差异,导致融合效果受限。近期,Me…

    2025年11月21日
    400
  • AI量化科研领导力:中美科学合作格局的算法透视与未来预测

    2024年6月发表于《美国国家科学院院刊》(PNAS)的一项研究,通过机器学习模型对全球600万篇科研论文进行深度分析,揭示了中国在国际科研合作中领导地位的快速崛起。这项由中美学者合作完成的研究,不仅提供了评估科研团队领导力的创新方法论,更预测了中国将在2030年前于人工智能、半导体、能源和材料科学等关键领域实现与美国平起平坐的领导地位。 传统上,衡量国家科…

    2025年10月29日
    200
  • 谷歌Gemini生态全面升级:Deep Research智能体与Interactions API重塑AI研究范式

    近日,谷歌在AI领域展开了一系列重要更新,不仅正式发布了增强版的Gemini Deep Research智能体,还配套推出了DeepSearchQA基准测试集以及全新的Interactions API。这一系列动作标志着谷歌正在加速构建更强大、更完整的Gemini生态系统,旨在提升AI在复杂信息检索与分析任务中的表现,特别是在减少幻觉、增强多步骤推理能力方面…

    2025年12月12日
    100
  • 图智能体革命:用图结构突破LLM Agent的四大瓶颈

    在人工智能领域,大型语言模型智能体(LLM Agent)正以前所未有的速度重塑技术格局。从自动化网页浏览、智能软件开发到复杂的具身控制系统,这些智能体展现出的自主能力令人瞩目。然而,在表面的繁荣之下,整个领域正面临深刻的系统性挑战。当前多数智能体系统在可靠规划、长期记忆维护、海量工具管理和多智能体协调等关键能力上仍显稚嫩,呈现出明显的“碎片化”发展态势和明显…

    2025年11月9日
    300
  • Gemini 3 Pro引爆创意革命:从文本到交互式应用的AI生成新范式

    在人工智能技术快速迭代的浪潮中,谷歌最新发布的Gemini 3 Pro模型以其惊人的多模态生成能力,正在重新定义创意实现的边界。这款被网友戏称为“与上一代2.5 Pro之间差出一个GPT-5.1”的模型,仅发布一天就催生了大量令人惊叹的应用实例,展现出从简单文本描述到完整交互式应用的跨越式生成能力。 从技术架构层面分析,Gemini 3 Pro的核心突破在于…

    2025年11月20日
    300

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注