本文共同一作是上海创智学院博士生乔静阳、孟炜程,通讯作者是华东师范大学张志忠副教授,项目主导人是国家优青谢源教授。
Never memorize something that you can look up.
— Albert Einstein
当前多数智能体仍处于“失忆式工作”模式:每次任务都从零开始检索,推理路径无法沉淀,失败经验也无法积累。尽管支持多轮交互,但在需要深度研究的场景中难以持续增强能力。
为解决此问题,已有研究尝试基于历史方案生成执行规划。然而,受限于预训练范式,许多智能体陷入新的困境:一个不擅长规划的“决策器”从臃肿记忆中检索出零散片段,再去驱动一个缺乏规划执行能力的“执行器”。结果是记忆不断增长,智能却未见提升。
由此引出一个关键问题:是否存在一种机制,能将经验真正转化为智能体的能力?
上海创智学院与华东师范大学联合团队近期提出的 Memory Intelligence Agent (MIA)——一个面向深度研究场景的新一代记忆智能体框架,为这一问题提供了新的解答。

- 论文地址:https://arxiv.org/abs/2604.04503
- 代码仓库:https://github.com/ECNU-SII/MIA
MIA 构建了一套基于 “Planner–Executor–Manager” 架构的记忆系统。其中,Planner 作为战术大脑,不仅能针对当前问题制定研究计划,还能通过测试时的持续学习实时调整策略。Executor 是经过训练的执行专家,能够准确解读并遵循复杂的研究蓝图。Manager 作为记忆管理员,负责优化存储以消除冗余。
与现有方法相比,MIA 的核心亮点在于:
- 构建双记忆机制:非参数记忆负责沉淀经验,参数记忆负责吸收能力,二者相互转化,形成持续进化的闭环。
- 提出 Manager–Planner–Executor 多智能体结构:将记忆管理、策略规划与任务执行解耦,并通过交替强化学习驱动 Planner 与 Executor 协同进化,实现“会规划”与“会执行”的对齐。
- 引入面向开放世界的自进化机制:结合反思与无监督学习,使智能体在开放世界的推理过程中持续修正策略、动态更新记忆,实现边做边学的在线进化。
在多项文本与多模态深度研究任务中,MIA 显著提升了智能体的稳定性与效率:


- SOTA 性能再突破:在 LiveVQA(多模态在线搜索)与 HotpotQA(纯文本沙盒搜索)的对比实验中,MIA 显著提升了现有先进大模型在调用搜索工具下的表现。
- 实现小尺寸模型的跨级超越:基于 Qwen-2.5-VL-7B 执行器的 MIA 模型在多个核心数据集上表现卓越,超越了不调用工具下的更大规模模型。
- 树立记忆方法新标杆:在与当前先进智能体记忆方法的横向评测中,MIA 在多个数据集上均取得最佳性能。
总结
智能体记忆不应仅止于记住“结果是什么”,更应让其学会“该怎么做”。MIA 的出现传递了一个清晰信号:决定智能体上限的,不再仅仅是其接入的外部工具数量,更在于它能否在每一次与世界的交互中,将繁杂的“过程信息”压缩为精炼的“执行本能”。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/30981

