强化学习
-
Video-Thinker:小红书首创视频推理内生智能,让大模型自主导航动态时序
随着多模态大语言模型(MLLM)的飞速发展,“Thinking with Images”范式已在图像理解和推理任务上取得了革命性突破——模型不再是被动接收视觉信息,而是学会了主动定位与思考。 然而,当面对包含复杂时序依赖与动态叙事的视频推理任务时,这一能力尚未得到有效延伸。现有的视频推理方法往往受限于对外部工具的依赖或预设的提示词策略,难以让模型内生出对时间…
-
QwenLong-L1.5:一套配方三大法宝,让30B MoE模型长文本推理媲美GPT-5
作为大模型从业者或研究员,你是否也曾为某个模型的“长文本能力”感到兴奋,却在实践中发现其表现远未达到预期? 你很可能遇到过以下困境之一: 虚假的繁荣:模型在“大海捞针”(Needle-in-a-Haystack)等简单检索测试中表现出色,营造了长文本问题已解决的假象。然而,当任务升级为需要串联分散证据、整合全局信息的多跳推理(multi-hop reason…
-
LENS:首个基于强化推理的分割大模型,突破传统SFT能力天花板
文本提示图像分割(Text-prompted image segmentation)是实现精细化视觉理解的关键技术,在人机交互、具身智能及机器人等前沿领域具有重要的战略意义。该技术使机器能够根据自然语言指令,在复杂的视觉场景中定位并分割出任意目标。 然而,当前主流的技术路径,如基于监督式微调(Supervised Fine-Tuning, SFT)的方法,正…
-
阶跃星辰发布NextStep-1.1:自回归流匹配模型通过RL增强大幅提升图像生成质量
当国产大模型在年底轮番冲刺、热议不断时,阶跃星辰一度显得颇为安静。 Kimi凭借K2模型重获关注,智谱与MiniMax在发布新SOTA模型的同时推进IPO进程,DeepSeek也因新功能引发热议。相比之下,作为“六小龙”中坚持自研路线的选手,阶跃星辰近期的声量似乎有所减弱。 直到其最新图像模型 NextStep-1.1 的发布,打破了这份“安静”。 Next…
-
腾讯混元与厦大联合推出JarvisEvo:首个具备自我评估与反思能力的智能修图Agent,精准调用200+专业工具
一句话让照片变大片,比专业软件简单、比AI修图更可控! 腾讯混元携手厦门大学推出JarvisEvo——一个统一的图像编辑智能体,旨在模拟人类专家设计师,通过迭代编辑、视觉感知、自我评估和自我反思来完成图像处理。 “像专家一样思考,像工匠一样打磨”。JarvisEvo不仅能调用Lightroom等专业工具进行修图,更能“看见”修图后的变化并进行自我评判,从而实…
-
OpenAI前联合创始人深度复盘:ChatGPT本可提前问世,AGI实现或比预期晚2-3倍,上下文学习短期内无可替代
“如果早知道 Scaling 的回报这么高,那ChatGPT完全可以更早做出来!” 这是OpenAI的前联合创始人、Thinking Machines首席科学家John Schulman在最新采访中的论断。 以他的判断,放在2018-2019年,只要几位非常优秀的人工作一年左右,就可以做出接近 ChatGPT-3.5 的系统。 John Schulman是强…
-
强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题
强化学习赋能3D生成:首个文本到3D的RL范式攻克几何与物理合理性难题 在大语言模型和文生图领域,强化学习(RL)已成为提升模型思维链与生成质量的关键方法。但当我们将目光转向更为复杂的文本到3D生成时,这套方法还会管用吗? 近期,一项由西北工业大学、北京大学、香港中文大学、上海人工智能实验室、香港科技大学合作开展的研究系统性探索了这一重要问题。 论文链接: …
-
强化学习赋能文本到3D生成:从算法突破到能力边界探索
在人工智能生成内容领域,文本到3D生成技术正成为继大语言模型和文生图之后的下一个前沿阵地。这一技术旨在将自然语言描述转化为具有复杂几何结构、纹理细节和物理合理性的三维模型,其应用潜力覆盖数字孪生、游戏开发、工业设计、虚拟现实等多个关键领域。然而,与相对成熟的文本到2D图像生成相比,文本到3D生成面临着更为严峻的技术挑战:三维数据本身具有更高的维度复杂性、更强…
-
INTELLECT-3:开源RL技术栈引领大规模强化学习新范式
近日,Prime Intellect正式发布了INTELLECT-3模型,这是一款拥有106B参数的混合专家(Mixture-of-Experts)架构模型,基于其自研的强化学习技术栈进行训练。该模型在数学、代码、科学和推理等多个基准测试中取得了同规模模型中的最佳表现,甚至超越了部分参数更大的前沿模型。更重要的是,Prime Intellect将完整的训练流…
-
阿里千问突破大模型强化学习稳定性难题:从序列级奖励到token级优化的理论重构与实践验证
在人工智能领域,大语言模型(LLM)的强化学习(RL)训练已成为提升模型复杂推理与问题解决能力的关键技术路径。然而,当前主流RL方法普遍面临一个根本性矛盾:奖励信号通常基于完整生成序列(序列级)进行评估,而优化过程却在单个token级别进行。这种“奖励-优化”层级的不匹配不仅引发了理论上的健全性质疑,更在实际训练中导致稳定性问题,特别是在混合专家(MoE)等…
