INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

近日,Prime Intellect正式发布了INTELLECT-3模型,这是一款拥有106B参数的混合专家(Mixture-of-Experts)架构模型,基于其自研的强化学习技术栈进行训练。该模型在数学、代码、科学和推理等多个基准测试中取得了同规模模型中的最佳表现,甚至超越了部分参数更大的前沿模型。更重要的是,Prime Intellect将完整的训练流程——包括模型权重、训练框架、数据集、RL环境和评测体系——全部开源,旨在推动大规模强化学习研究的普及与发展。

INTELLECT-3的技术架构基于GLM 4.5 Air进行了监督微调(SFT)和强化学习训练。其核心创新在于采用了全分布式的训练范式,这在长时序智能体rollout中至关重要。研究团队在开发上一代INTELLECT-2时就已经认识到,RL的未来必然是分布式的,即始终处于轻微off-policy状态,这是避免速度瓶颈、真正扩大训练规模的唯一途径。

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

在基准测试方面,INTELLECT-3展现出了卓越的性能。在数学推理任务中,它能够处理复杂的多步证明问题;在代码生成方面,它不仅能生成功能正确的代码,还能理解上下文需求进行适应性调整;在科学推理领域,它表现出对跨学科知识的整合能力;在逻辑推理测试中,它展现了强大的演绎和归纳能力。这些成绩的取得,得益于其精心设计的训练框架和多样化的环境设置。

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

训练框架的核心是PRIME-RL,这是Prime Intellect自研的分布式RL框架。该框架支持监督微调和大规模MoE模型的强化学习,与Verifiers环境深度整合,形成了从合成数据生成、监督微调、强化学习到评估的完整后训练体系。PRIME-RL的全分布式特性使其能够在64个互联节点上的512张NVIDIA H200 GPU上高效运行,实现了前所未有的训练规模。

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

过去六个月,研究团队进行了大量关于性能、稳定性和大规模效率的消融实验。这些实验不仅优化了训练流程,还验证了分布式架构在大规模RL训练中的可行性。Prime Intellect计划在即将上线的Lab平台提供托管式PRIME-RL,让研究人员无需处理复杂的基础设施就能进行大规模RL训练,这将显著降低RL研究的门槛。

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

训练环境的构建同样体现了技术创新。INTELLECT-3的训练环境由Verifiers库构建,并托管于Environments Hub——这是Prime Intellect面向社区的RL环境与评测中心。Verifiers作为领先的开源工具,提供了模块化、可扩展的组件,让复杂环境逻辑能够以简洁方式描述,同时保持极高性能与吞吐。

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

为了支持强化学习,Prime Intellect大幅扩展并升级了自研的Sandboxes基础设施。在几千条并发rollout中安全执行外部代码是一个重大挑战,需要具备亚秒级启动、毫秒级执行延迟的容器编排层。Prime Sandboxes通过绕过Kubernetes控制面板,直接与pod通信,实现了接近本地进程的延迟,即使在大规模并发下也能在10秒内启动,每个节点可稳定运行数百个隔离沙箱。

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

算力调度方面,研究团队在64个互联节点上部署了512张NVIDIA H200 GPU,面临的最大工程挑战是如何在可能出现硬件故障的分布式系统中保持确定性与同步。解决方案包括:使用Ansible进行基础设施即代码管理、自动发现硬件并进行InfiniBand预检;通过Slurm + cgroup v2确保任务干净退出;采用Lustre提供高吞吐训练I/O,NVMe NFS作为快速元数据存储;通过DCGM + Prometheus监控系统实现快速问题发现和节点管理。

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

训练方案分为两个主要阶段:基于GLM-4.5-Air的监督微调,以及大规模RL训练。整个训练过程持续两个月,涵盖了数学、代码、科学、逻辑、深度研究、软件工程等多样化RL环境。这些环境的设计旨在全面提升模型的推理与智能体能力,所有环境均已公开在Environments Hub上,为社区研究提供了宝贵资源。

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

展望未来,Prime Intellect的工作重点包括三个方面:首先是扩展智能体式RL,通过更强调智能体环境训练,在更多任务上获得性能提升;其次是丰富RL环境,Environments Hub目前已拥有500+任务,涵盖研究、电脑使用、定理证明、自动化和专业领域,下一步是让RL覆盖更多高质量的社区任务;最后是长时序智能体研究,让模型能够自我管理上下文,实现真正可通过RL训练的长时序行为。

INTELLECT-3的发布不仅展示了一个高性能的MoE模型,更重要的是它代表了一种开放的研究范式。通过将完整的技术栈开源,Prime Intellect正在构建一个开放的超级智能生态系统,让训练前沿模型的能力不再局限于少数大型科技公司。这种开放协作的模式有望加速AI技术的发展,推动整个行业向更加民主化、可访问的方向演进。随着更多研究者和开发者能够接触和使用这些先进工具,我们有望看到RL技术在更多领域的创新应用和突破性进展。

— 图片补充 —

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式

INTELLECT-3:开源RL技术栈引领大规模强化学习新范式


关注“鲸栖”小程序,掌握最新AI资讯

本文由鲸栖原创发布,未经许可,请勿转载。转载请注明出处:http://www.itsolotime.com/archives/9860

(0)
上一篇 2025年12月10日 下午12:09
下一篇 2025年12月10日 下午12:15

相关推荐

  • PromptLocate:大模型安全防御的精准手术刀——首个能定位并清除提示注入攻击的工具深度解析

    在人工智能技术迅猛发展的今天,大模型的安全性问题日益凸显,其中提示注入攻击已成为威胁模型可靠性的核心挑战之一。近日,杜克大学与宾州州立大学联合研究团队推出的PromptLocate工具,标志着大模型安全防御迈入了精准定位与主动修复的新阶段。该工具不仅能检测数据污染,更能精准定位恶意内容的具体位置,实现数据净化和攻击溯源,为大模型的安全部署与应用提供了关键技术…

    2025年10月24日
    000
  • 文心5.0 Preview登顶LMArena全球第二:动态竞技场揭示中国大模型真实战力跃迁

    在全球人工智能大模型激烈竞争的格局中,评测基准的权威性与真实性成为衡量模型实际能力的关键标尺。近期,业界权威大模型公共基准测试平台LMArena发布的最新一期文本竞技场排名(Text Arena)引发广泛关注,其中百度文心最新模型ERNIE-5.0-Preview-1022(文心5.0 Preview)以1432分的高分跃居全球并列第二、国内第一,与Open…

    2025年11月9日
    300
  • Cartesia完成1亿美元B轮融资,SSM架构语音模型Sonic-3实现类人情感表达

    在人工智能语音合成领域,一场基于架构创新的技术竞赛正在悄然展开。近日,语音AI公司Cartesia宣布完成1亿美元B轮融资,英伟达作为投资方赫然在列。与此同时,该公司发布了新一代语音模型Sonic-3,凭借状态空间模型(SSM)架构实现了前所未有的类人情感表达能力。这一系列动作不仅标志着语音AI技术路线的多元化发展,更预示着实时交互语音应用即将迎来新的突破。…

    2025年11月3日
    400
  • 突破数据荒漠:深度机智以第一视角情境数采重塑具身智能通用性根基

    具身智能作为人工智能迈向物理世界交互的关键领域,其通用性发展长期受限于高质量交互数据的极度稀缺。当前行业普遍面临一个核心矛盾:模型在模拟环境中能够取得优异表现,但一旦部署到真实世界的复杂动态场景中,其性能往往大幅衰减甚至完全失效。这种“模拟到现实”的鸿沟,根源在于现有数据采集范式难以捕捉人类与物理世界交互的丰富语义和因果逻辑。 传统的数据采集方法主要依赖合成…

    1天前
    200
  • 从辍学生到Sora核心开发者:Gabriel Petersson如何用ChatGPT颠覆传统教育路径

    在人工智能浪潮席卷全球的背景下,一个名为Gabriel Petersson的23岁丹麦青年,以其高中辍学生的身份,成为OpenAI研究科学家和Sora核心技术贡献者,引发了关于教育体系、人才认证与AI时代学习模式的深刻反思。他的故事不仅是一个个体逆袭的传奇,更折射出AI技术对传统知识获取、职业发展路径的颠覆性冲击。 Petersson的成长轨迹与传统教育范式…

    2025年11月29日
    100

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注