清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力

近日,清华大学等机构的研究团队提出了 MARSHAL 框架。该框架利用强化学习,让大语言模型在策略游戏中进行自博弈(Self-Play)。实验表明,这种多轮、多智能体训练不仅提升了模型在游戏中的博弈决策水平,更将其推理能力有效泛化到了通用的多智能体系统中:在数学竞赛和专家级问答等一般推理任务中,显著提升了多智能体系统的整体表现。

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力

  • 论文标题:MARSHAL: Incentivizing Multi-Agent Reasoning via Self-Play with Strategic LLMs
  • 论文链接:https://arxiv.org/abs/2510.15414
  • 项目主页:https://thu-nics.github.io/MARSHAL/
  • 代码开源:https://github.com/thu-nics/MARSHAL
  • 模型仓库:https://huggingface.co/collections/nics-efc/marshal

一、 背景与挑战

尽管 DeepSeek-R1 等大模型已在数学、问答等单轮、单智能体场景中,验证了可验证奖励强化学习(RLVR)对提升推理能力的巨大价值;但在多智能体系统(MAS)复杂的多轮、多智能体交互场景中,这一方法的应用仍处于探索阶段。具体而言,将 RLVR 拓展至多智能体领域面临着两大核心技术挑战:

  • 多轮交互的信用分配:现有的单轮 RLVR 方法难以精准地将最终结果回溯并分配给每一个具体的轮次或动作,进而影响了模型的有效学习。
  • 多智能体的优势估计:不同智能体通常具有高度的异构性,其在优势估计(advantage estimation)中的优势基准(baseline)存在显著差异,导致多智能体联合训练难以收敛,策略表现波动剧烈。

为了解决上述问题,为多智能体系统训练更强的推理模型,清华大学研究团队提出了 MARSHAL(Multi-Agent Reasoning through Self-play witH strAtegic LLMs)框架,通过策略游戏中的多智能体自博弈和端到端强化学习,激发大模型在通用多智能体系统中的推理决策能力。

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 1 MARSHAL 在策略游戏的表现及通用推理基准泛化性能

核心实验结果
* 策略游戏:多智能体博弈决策表现显著提升,测试游戏胜率提升高达 28.7%。
* 泛化表现:将模型集成至通用多智能体系统中时,在一般推理任务中展现出显著泛化性 —— AIME 准确率提升 10.0%(AutoGen 框架);GPQA-Diamond 准确率提升 7.6%(MAD 框架);所有基准测试平均提升 3.5%。

二、MARSHAL 方法介绍

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 2 MARSHAL 框架概览

面向策略游戏自博弈中多轮次、多智能体训练的挑战,MARSHAL 基于 Group-Relative Policy Optimization (GRPO) 架构,提出了两项关键算法改进:

  • 轮次级优势估计器:针对多轮交互中的信用分配问题,MARSHAL 摒弃了经典单轮 GRPO 粗糙的轨迹级评估,引入精细的轮次级(Turn-level)奖励机制,并设计了“先求累计和再归一化(Sum-then-Normalize)”的方法进行稳定的优势计算。
  • 分角色的优势归一化:针对角色异构性导致的回报分布差异,MARSHAL 实施了严格区分角色的归一化策略:在计算优势时,系统不再将所有智能体混为一谈,而是根据角色的不同(例如“玩家 1”与“玩家 2”)将数据分组。

为了培养全面的多智能体推理能力,研究团队精心挑选了六款策略游戏(其中三款用于训练,另外三款用于测试),涵盖了从简单到复杂、从竞争到合作的多种博弈类型。

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 3 MARSHAL 使用的游戏集合

三、核心实验

研究团队以 Qwen3-4B 为基线模型,在三款训练游戏(Tic-Tac-Toe、Kuhn Poker、Mini Hanabi)中训练了两种类型的智能体:
* 专家智能体:仅在单一游戏上训练。
* 通用智能体:在所有三款游戏上混合训练。

游戏策略能力的泛化

MARSHAL 训练出的专家智能体在各自的同类型游戏中展现出出色的泛化性;通用智能体则在所有游戏类型中的综合表现最佳,在测试游戏中取得了高达 28.7% 的胜率提升。这些结果表明,模型并非仅仅记住了特定游戏的规则,而是真正掌握了通用的博弈逻辑(如“先手优势利用”、“信息推断”等),并能将其灵活泛化到全新的游戏环境中。

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 4 MARSHAL 专家智能体在各类策略游戏中的胜率对比

通用推理能力的泛化

这是本研究最核心的实验,研究团队将 MARSHAL 模型作为基座集成到主流的多智能体框架(MAD 和 AutoGen)中,测试其在 7 种数学和问答基准测试上的成绩,最终得到两个关键结论:
* 在策略游戏中习得的多智能体博弈能力,能够跨域泛化到通用的多智能体系统中,提升系统在一般推理任务中的表现。综合表现最强的 MARSHAL 通用智能体在数学测试 AIME 和问答测试 GPQA 中分别取得高达 10.0% 和 7.6% 的提升;在所有测试中的平均提升高达 3.5%。
* 能力泛化领域高度对齐:在竞争性多智能体系统 MAD 中,竞争性游戏(Tic-Tac-Toe)训练的模型表现更优;而在合作性多智能体系统 AutoGen 中,合作性游戏(Hanabi)训练的模型表现更优。

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 5 MARSHAL 智能体在数学和问答推理测试中的泛化表现

以上实验结果强有力地证明了自博弈是提升多智能体系统推理能力的磨刀石。此外,在扩展到 8B 模型的实验中,MARSHAL 依然保持了强劲的增长势头,验证了该方法良好的可扩展性。

四、推理模式分析:模型学到了什么?

为了探究 MARSHAL 成功泛化的原因,研究团队从定性和定量两个维度进行了深入分析。

  • 定性分析:通过对思维链(Chain-of-Thought)的深入解读,研究发现游戏训练激发了模型两项关键的涌现能力:1)角色意识,根据自身角色调整决策策略;2)意图识别,在不确定信息场景中根据其他智能体的决策动作判断其意图。

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 6 推理模型定性分析

  • 定量分析:为了进一步量化 MARSHAL 带来的多智能体推理能力的提升,研究团队对多智能体系统进行了失败模式分析。结果显示,MARSHAL 将智能体间未对齐(Inter-Agent Misalignment)的情况减少了 11.5%,显著提升了模型在跨智能体的沟通效率和理解能力。

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 7 失败模式定量分析

五、消融实验

自博弈 vs 固定对手

与固定专家对手进行训练相比,自博弈展现出了不可替代的优势。实验发现,针对固定对手训练的模型容易对训练环境过拟合,在测试游戏中性能急剧下降。

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 8 MARSHAL 自博弈和固定对手训练方式在策略游戏中的对比

优势估计算法设计

研究团队通过逐步移除核心算法组件,验证了 MARSHAL 算法设计的必要性:
1. 轮次级优势估计:其精细信用分配是处理长序列多轮决策的关键。
2. 分角色归一化:在角色回报差异显著的竞争性游戏(如 Tic-Tac-Toe)中影响巨大,而在角色回报分布相似的合作游戏(如 Hanabi)中影响则相对较小。

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 9 MARSHAL 算法设计的消融实验

清华MARSHAL框架:通过策略游戏自博弈激发大模型的多智能体推理泛化能力
图 10 角色回报分布的差异性分析

总结

本研究提出了 MARSHAL 框架,通过在策略游戏中进行自博弈,成功增强了大语言模型在多智能体系统中的推理能力,并提升了其在一般推理任务中的表现。核心结论如下:

  • 验证了策略游戏自博弈的泛化性:在简单策略游戏中通过自博弈习得的博弈技巧(如角色意识、意图识别)能够有效泛化至通用多智能体系统,在一般推理任务中带来显著效果提升。
  • 提出了有效的技术方案:通过轮次级优势估计和分角色归一化等算法设计,为多轮、多智能体强化学习的稳定训练提供了有效方案。

尽管当前工作主要聚焦于双人博弈,但 MARSHAL 为未来通向更复杂的“社会沙盒”(如多智能体协作编程、搜索、科研等)指明了潜在方向:自博弈不仅是 AlphaGo 的关键,也可能成为大模型迈向更高阶群体智能的重要引擎。

参考文献

[1] Wu, Qingyun, et al. “Autogen: Enabling next-gen llm applications via multi-agent conversation.” COLM 2024.
[2] Liang, Tian, et al. “Encouraging divergent thinking in large language models through multi-agent debate.” EMNLP 2024.


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/17506

(0)
上一篇 2026年1月9日 上午11:46
下一篇 2026年1月9日 上午11:58

相关推荐

  • SGLang发布迷你版:5千行代码实现LLM推理核心,性能媲美完整版

    SGLang团队近日发布了mini-SGLang,将原本30万行的代码库精简至仅5000行。该版本完整保留了核心优化技术,包括重叠调度、FlashAttention-3、基数缓存等,在在线服务场景下的性能表现与完整版几乎无异。 为何推出迷你版 许多开发者希望深入理解现代大语言模型推理的内部机制,但直接阅读30万行的生产级代码极具挑战。mini-SGLang正…

    2025年12月20日
    16300
  • Video-Thinker:小红书首创视频推理内生智能,让大模型自主导航动态时序

    随着多模态大语言模型(MLLM)的飞速发展,“Thinking with Images”范式已在图像理解和推理任务上取得了革命性突破——模型不再是被动接收视觉信息,而是学会了主动定位与思考。 然而,当面对包含复杂时序依赖与动态叙事的视频推理任务时,这一能力尚未得到有效延伸。现有的视频推理方法往往受限于对外部工具的依赖或预设的提示词策略,难以让模型内生出对时间…

    2026年1月2日
    7400
  • 清华联手生数开源TurboDiffusion:单卡2秒生成视频,速度提升200倍

    清华联手生数开源TurboDiffusion:单卡2秒生成视频,速度提升200倍 现在,生成一个视频可能比你刷视频还要快。 一个开源新框架,能让视频生成在保证质量的情况下,最高提速200多倍,并且仅需单张显卡即可实现。 以1.3B参数、480P分辨率的模型为例,在单张RTX 5090上生成一段5秒视频,原始方法需要约184秒。而采用新框架后,时间缩短至1.9…

    2025年12月25日
    8000
  • 美团LongCat技术突破:LoZA稀疏注意力机制实现10倍解码加速,轻松驾驭百万级长文本

    闻乐 发自 凹非寺 量子位 | 公众号 QbitAI 256K文本预加载提速超50%,并解锁了1M上下文窗口。 美团LongCat系列发布全新稀疏注意力机制LoZA。 该技术旨在集中解决长文本任务中的理解与算力难题。 相比LongCat系列之前的全注意力MLA机制,LoZA仅改造了一半的核心模块,却将模型的长文本处理能力从256K扩展到1M,同时显著提升了解…

    2026年1月13日
    6200
  • T-MAN:NPU大模型推理的革命性方案,解码速度提升3.1倍,能效比领先84%

    关键词:T-MAN、查找表 、 低比特量化 、NPU 推理 、端到端优化 当大模型遇上手机 NPU,推理速度反而比 CPU 还慢?USTC、微软研究院、清华等研究团队提出统一查找表方案 ,同时解决速度、能耗与精度三大难题。 近年来,大语言模型(LLM)正逐步“入住”我们的手机、电脑等消费设备。无论是苹果的 Apple Intelligence、谷歌的 Gem…

    2026年1月14日
    6600