深度学习

  • Kimi重磅发布《Attention Residuals》:颠覆十年残差连接,用同样算力实现1.25倍效果提升

    注意力残差:对残差连接的结构性改进 引言:一个基础性的问题 现代大型语言模型普遍采用深度神经网络架构,信息从输入层开始,逐层向上传递并接受加工,最终产生输出。然而,随着网络层数的增加,训练过程面临一个根本性挑战:梯度信号在反向传播过程中,经过数十甚至上百层的传递后,可能严重衰减或消失,导致底层参数难以得到有效更新。 2015年,何恺明团队在《Deep Res…

    1天前
    14300
  • FlashAttention-4震撼发布:Blackwell GPU上注意力机制速度媲美矩阵乘法,性能提升高达2.7倍

    经过一年的开发,FlashAttention-4 正式发布。 作为深度学习领域一项关键的底层优化技术,FlashAttention 迎来了重大版本更新。其核心作者、普林斯顿大学助理教授 Tri Dao 表示,在 Blackwell GPU 上,注意力机制的执行速度现已几乎与矩阵乘法相当,尽管两者的瓶颈截然不同。 当前,Tensor Core 的速度已变得极快…

    2026年3月6日
    33600
  • YOLO26深度解析:十年演进,如何实现CPU推理43%加速与边缘设备实时检测

    关键词:YOLO26、YOLO架构演进、单次检测算法(YOLO)、目标检测、计算机视觉、深度学习 十年来,单次检测算法(YOLO,You Only Look Once)一直是计算机视觉与深度学习领域的主流目标检测模型。本文第一部分将探究YOLO系列最新版本YOLO26的核心创新点,并系统梳理YOLO模型的发展历程。YOLO26的主要改进如下: 核心改进项 解…

    2026年2月18日
    36200
  • 从零实现30篇奠基论文:用NumPy揭秘深度学习核心思想

    在深度学习领域,Ilya Sutskever 曾有一个广为流传的判断:如果真正读懂并理解 30 篇奠基性论文,基本可以掌握人工智能 90% 的核心思想。 这不是指记住公式或复现 benchmark,而是理解模型为什么要这样设计、训练为何能收敛、哪些假设是成立的、哪些只是工程妥协。 问题在于,这 30 篇论文并不“友好”。 大量的数学推导、符号化描述、与现实代…

    2026年2月10日
    9200
  • 从AI先驱到华尔街巨鳄:Hinton首位博士生的跨界传奇

    一张照片,一段往事 最近,一张老照片在AI圈内重新引发了热议。 这张照片是1986年CMU首届联结主义夏令营的合影。 有人将这张合影誉为AI界的“索尔维会议”。对于研究神经网络、计算神经科学和计算语言学的后辈而言,几乎都能在这张照片里找到自己领域的开创者。 照片中被圈出的,是深度学习的奠基人、图灵奖得主Geoffrey Hinton。正是在他的坚持下,神经网…

    2026年1月10日
    22300
  • AI巨头论战:LeCun与哈萨比斯激辩智能本质,马斯克站队引热议

    一场关于智能本质的激烈辩论正在顶级AI研究者之间展开。 AI三巨头之一、图灵奖得主Yann LeCun近日公开表示: 纯粹就是胡扯(complete BS)。 而诺贝尔奖得主、谷歌DeepMind CEO德米斯·哈萨比斯则毫不留情地回击: LeCun的说法简直是大错特错。 这场论战引发了广泛关注,甚至让社交平台𝕏专门开辟了相关话题板块。 科技企业家埃隆·马斯…

    2025年12月24日
    22300
  • 从手工特征到端到端学习:Faster R-CNN如何重塑计算机视觉的十年征程

    在NeurIPS 2025会议上,《Faster R-CNN》论文荣获“时间检验奖”,这不仅是学术界的认可,更是对计算机视觉领域过去十年发展轨迹的深刻总结。何恺明在题为《视觉目标检测简史》的演讲中,系统梳理了从传统方法到深度学习范式的完整演进历程,揭示了现代AI视觉能力背后的技术革命。 回顾计算机视觉的发展,可以清晰地划分为三个技术时代:手工特征工程时代、深…

    2025年12月11日
    20900