大模型训练

  • Kimi重磅发布《Attention Residuals》:颠覆十年残差连接,用同样算力实现1.25倍效果提升

    注意力残差:对残差连接的结构性改进 引言:一个基础性的问题 现代大型语言模型普遍采用深度神经网络架构,信息从输入层开始,逐层向上传递并接受加工,最终产生输出。然而,随着网络层数的增加,训练过程面临一个根本性挑战:梯度信号在反向传播过程中,经过数十甚至上百层的传递后,可能严重衰减或消失,导致底层参数难以得到有效更新。 2015年,何恺明团队在《Deep Res…

    1天前
    13500
  • MIT颠覆性研究:无需强化学习,随机扰动即可解锁大模型隐藏能力

    在大型语言模型(LLM)的开发流程中,后训练阶段通常被认为是赋予模型特定能力的关键环节。传统观点认为,模型必须通过强化学习(如PPO、GRPO或RLHF)或进化策略等算法,在反复的迭代和梯度优化中调整权重,才能在特定任务上达到理想性能。 然而,MIT CSAIL的研究人员Yulu Gan和Phillip Isola在其最新论文中对此发起了挑战。他们提出了一种…

    4天前
    13200
  • 突破语言桎梏:用神经细胞自动机预训练大模型,性能提升6%,推理能力增强

    如果有一天,大语言模型不再依赖人类语言进行训练,会发生什么? 近年来,大模型能力的飞跃几乎都建立在一个前提之上:海量的文本数据。然而,随着高质量文本资源逐渐逼近极限,研究者开始提出一个更根本的问题:语言,真的是智能的起点吗? 一项最新研究给出了一个出人意料的答案:或许不是。研究团队假设,让语言模型在学习语言之前,先在完全非语言的合成数据上进行“预预训练”(p…

    5天前
    12600
  • 清华团队破解FlashAttention低精度训练玄学:BF16下数值偏置如何引爆大模型训练

    一句话总结:困扰社区多年的一个“玄学”现象终于被拆解清楚:在BF16等低精度训练中,FlashAttention并非随机出错,而是在特定条件下会触发有方向的数值偏置。这种偏置借助注意力机制中涌现的相似低秩更新方向被持续放大,最终导致权重谱范数和激活值失控,引发损失函数突然爆炸。论文同时提供了一个几乎无需修改模型、仅在safe softmax中进行的极小改动,…

    2026年3月4日
    64900
  • 智算新纪元:2026超万卡集群技术演进与产业协同全景解析

    自ChatGPT发布以来,全球科技产业迎来大模型创新浪潮,数据作为新生产要素、算力作为新基础能源、大模型作为新生产工具的格局已全面成型,各行各业从“+AI”向“AI+”的转型进入深水区。 2024至2026两年间,大模型参数量从万亿级向十万亿级跨越,多模态、超长序列、实时交互等场景的爆发式增长,推动智算基础设施迎来代际升级,超万卡集群已从“军备竞赛标配”转变…

    大模型工程 2026年2月23日
    32800
  • AI大神Andrej Karpathy开源92个高质量信息源:从nanoGPT到RSS订阅,打造深度学习知识体系

    Andrej Karpathy 是 AI 领域公认的大神。他是 OpenAI 的创始成员,之后被马斯克挖走,领导了特斯拉自动驾驶团队。离开特斯拉后,他回到 OpenAI 参与了 GPT-4 的后续研发。 现在,他成立了一家 AI 教育公司 Eureka Labs,并经常在 X 和 YouTube 上活跃。如果你想学习 AI,尤其是技术原理,Andrej Ka…

    2026年2月10日
    38700
  • 2026智算时代:GPU、AI服务器与算力架构的协同革命

    2026年,随着“东数西算”工程的深化落地、智算中心的规模化部署以及大模型技术的持续迭代,算力已成为驱动数字经济发展的核心生产要素。GPU作为释放算力的核心引擎,AI服务器作为承载算力的核心硬件,三者深度协同,共同支撑起人工智能、高性能计算(HPC)、智能制造等各类高算力需求场景。 本文基于2026年的行业现状,结合最新技术规格与市场数据,系统性地拆解算力、…

    2026年2月9日
    27900
  • DAC-RL:首个分治推理强化学习训练框架,突破链式思维局限,实现6.3%推理性能跃升

    关键词:分治推理、强化学习、测试时可扩展性、链式思维、大语言模型训练 近年来,大型语言模型(LLMs)在复杂推理任务上展现出惊人能力,尤其是基于链式思维(Chain-of-Thought, CoT) 的逐步推理方法,已成为解决数学、逻辑与编程问题的标准范式。 然而,随着问题难度提升至竞赛级别(如国际数学奥林匹克、高阶定理证明等),传统 CoT 往往显得力不从…

    2026年2月5日
    8200
  • RLVR/GRPO组内优势估计的系统性偏差:揭秘大模型训练中的隐藏陷阱

    近年来,大模型在数学推理、代码生成等任务上取得突破,其背后一个关键技术是RLVR(Reinforcement Learning with Verifiable Rewards,可验证奖励的强化学习)。 简单来说,RLVR并非让模型被动接受人工评分,而是让模型主动生成多种解法,并依据可验证的客观规则(如答案是否正确)进行自我改进。这种通过反复试错来提升性能的模…

    2026年1月30日
    22300
  • 国产算力新纪元:阿里真武810E GPU性能超越英伟达A800,开启万卡集群时代

    前言:算力突围,国产GPU迎来里程碑式突破 2026年1月29日,中国算力产业迎来历史性时刻——阿里平头哥官网上线一款名为“真武810E”的高端AI芯片,这款定位为并行处理单元(PPU)的GPU算力芯片,以“性能超越英伟达A800、支持万卡集群部署、全栈自研软硬件”三大核心亮点,瞬间引爆科技圈与资本市场。 这并非一次仓促的新品亮相,而是一场历经六年秘密研发、…

    AI产业动态 2026年1月30日
    65200