训练稳定性
-
阿里千问突破大模型强化学习稳定性难题:从序列级奖励到token级优化的理论重构与实践验证
在人工智能领域,大语言模型(LLM)的强化学习(RL)训练已成为提升模型复杂推理与问题解决能力的关键技术路径。然而,当前主流RL方法普遍面临一个根本性矛盾:奖励信号通常基于完整生成序列(序列级)进行评估,而优化过程却在单个token级别进行。这种“奖励-优化”层级的不匹配不仅引发了理论上的健全性质疑,更在实际训练中导致稳定性问题,特别是在混合专家(MoE)等…
-
ROOT优化器:华为诺亚方舟实验室如何为十亿级大模型训练构建稳健的矩阵感知引擎
在大模型训练领域,优化器的选择直接决定了模型能否高效、稳定地收敛。随着参数规模突破十亿甚至千亿级别,传统优化器在数值稳定性与训练效率之间的权衡变得日益尖锐。华为诺亚方舟实验室最新发布的ROOT(Robust Orthogonalized Optimizer)优化器,正是针对这一核心矛盾提出的系统性解决方案。 要深入理解ROOT的价值,必须首先回顾大模型优化器…