小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

小米MiMo团队中,每天Agent对话次数少于100次的,就离职吧。

前脚,小米MiMo-V2-Pro模型刚登上OpenRouter调用量榜单第一。后脚,罗福莉就发文分享了自己对于团队管理的思考。热度几乎无缝衔接,网友们的目光也纷纷从模型本身转到小米MiMo团队身上。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

从发布首个推理大模型MiMo-7B至今不到一年时间,MiMo的能力曲线呈现出明显陡升,在短时间内已冲入全球一线梯队。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

相比之下,同样投入重金的Meta超级智能实验室,近期却频频跳票,被爆模型性能远不及早前发布的前沿模型。于是,不少人开始好奇:小米MiMo究竟是一支怎样的团队,竟能在几个月时间内打造出让全球关注的模型?

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

众所周知,大模型开发向来是集团军作战,模型卡片的背后往往是多位研究者的集体智慧。据内部消息透露,小米的LLM团队在内部也相当神秘,但通过梳理近半年的模型发布记录和论文,仍能捕捉到一些蛛丝马迹——核心作者大多来自北京大学,其中甚至还有罗福莉本人的师弟。更值得注意的是,北京大学也是罗福莉的老东家DeepSeek的策源地。

关于小米MiMo团队

小米MiMo团队近期的动作引发了外界广泛关注,这种关注与团队在产品侧和论文发表上的“高节奏推进”密不可分。随着多篇研究成果陆续曝光,团队核心成员也浮出水面。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型? MiMo-7B技术报告核心贡献者

肖邦骏(Bangjun Xiao),MiMo-V2-Flash的第一作者,本科及博士均就读于北京大学。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

其博士生导师为北京大学人工智能研究院副院长黄罡教授。他的研究方向聚焦于边缘计算和联邦学习,此前也曾涉猎计算机视觉和扩散模型。

Bingquan Xia,MiMo-V2-Flash核心作者之一,中科院计算技术研究所2021届研究生。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

马文晗(Wenhan Ma),自2025年9月起在北京大学计算机科学学院攻读博士,由穗志方教授指导。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

他的研究方向为大语言模型,近期主要关注提升大语言模型的推理能力。本科毕业于北京大学电子工程与计算机科学学院,专业为计算机科学与技术。值得一提的是,穗志方教授正是罗福莉在北大的导师,而马文晗则是罗福莉的同门师弟

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型? 罗福莉(后排左二)与导师穗志方教授(前排右二)合影

朱大为(Dawei Zhu),北京大学三年级博士生,导师为李素建教授,本科毕业于北京大学电子工程与计算机科学学院。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

研究方向为长上下文建模,他认为高效处理超长上下文是未来语言模型和多模态模型的关键能力,也对智能体(Agent)、对齐(Alignment)以及多模态模型的进展感兴趣。此前,他参与的《paperbanana》项目曾引起较大关注。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

董谨豪,中国人民大学信息学院/数据工程与知识工程教育部重点实验室讲师,同时也是小米大语言模型(LLM)核心团队技术顾问,主要负责与代码相关的LLM开发,包括预训练、强化学习及智能体方向。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

他主导建立了人大-小米基础大语言模型联合重点实验室,并担任技术委员会成员。他博士毕业于北京大学计算机科学学院,本科毕业于西安电子科技大学计算机科学与技术专业。

张海林,小米MiMo团队成员,专注于AI基础设施建设,为MiMo系列模型打造高效、可扩展且稳定的强化学习(RL)基础设施。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

他于2025年获得北京大学计算机科学博士学位,导师为崔斌教授,并曾获北京大学优秀博士论文奖。研究重点包括大规模大语言模型(LLMs)、深度学习推荐模型(DLRMs)、信息检索(IR)及通用分布式计算。

此外,还有诸多核心作者,但公开信息较少,部分谷歌主页如下:
小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?
小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

小米MiMo是一支怎样的团队

一支成立才一两年的团队,能一路冲到顶尖模型研发的前列,靠的绝不只是产品节奏和核心成员这么简单。仔细梳理团队的背景,会发现一个明显的共性——北大背景浓厚。从核心成员到技术骨干,很多团队成员本科或博士均来自北京大学计算机学院。

一方面,北大的同门关系、导师体系和院系传承,使得小米在大模型工业界作为后起之秀,能够源源不断地吸纳新鲜血液;另一方面,学生们也能迅速接触工业界,借助丰富的算力和资源,将科研想法高效落地与迭代。在这个过程中,罗福莉成为团队与北大学术背景之间的重要桥梁。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

除了院校背景对成员产品理念的影响外,小米MiMo团队的技术理念也深受小米企业产品基因的驱动——核心是产品层面的“性价比”和公司一贯的“互联网生态”思维。体现在MiMo模型上,最直观的就是7B参数规模、开源策略以及端侧部署方向,清晰地展现了小米的战略布局和生态思路。

因此,MiMo的成功并非偶然,而是多重因素叠加的结果:北大科研背景的厚度、核心成员的技术经验,以及小米产品与工程的基因驱动,共同铸就了这支年轻团队的迅速崛起。

还有一个颇有缘分的小细节值得一提——不久前从阿里离职的通义实验室Qwen大模型负责人林俊旸,正是罗福莉的师兄。两人硕士阶段均在北京大学从事自然语言处理相关学习研究,学术路径高度同源。毕业后又先后加入阿里达摩院,在大模型研发上有着相近的技术底色与行业视野。一个曾做Qwen,一个带MiMo。两条国内头部模型线的关键人物,曾成长于同一套学术和产业体系,这层关系本身也让不少业内人多看了一眼。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/26515

(0)
上一篇 17小时前
下一篇 2小时前

相关推荐

  • Context Engineering:2026年真正重要的6种技术(完整指南)

    Prompt Engineering 已死。Context Engineering 才是当下生产系统的工作方式。 你的 RAG 系统返回了完美的文档片段,你的提示词也打磨得无可挑剔,但大语言模型(LLM)依然在“幻觉”中编造答案。 例如,当你查询最新的退款政策时,系统可能将2018年至2026年的50份文档全部塞入上下文。LLM 看到相互矛盾的政策,陷入混乱…

    2026年2月28日
    25900
  • 构建真正会“思考”的AI:Agentic RAG全面指南

    注:本文为技术内容,诸如 RAG、Agentic、Vector Database、SQL、Embedding、Cross-Encoder、LLM 等专业术语均保留英文原文,以保证准确性与可检索性。 🤔 问题:为何多数 AI 助手显得“笨拙” 设想你向一位财务分析师提问:“我们公司表现如何?” 一位初级分析师可能会匆忙给出几个数字。而一位资深专家则会先停下来,…

    2025年11月28日
    18700
  • Gemini 3深度评测:硬核编程的SOTA王者,为何在Web开发上“翻车”?

    📌 简短结论:强得离谱,但并非全能 综合各类基准测试与我的实际体验,可以得出结论:Gemini 3 是目前我测试过最接近“真实智能”的模型。特别是在硬核编程任务上,其表现超越了包括 GPT-5 Pro 和 Gemini 2.5 Deep Think 在内的所有竞品。 ✅ 当前处于 SOTA(最优)水平的领域: 调试复杂的编译器 Bug 无逻辑错误地重构大型代…

    2025年11月22日
    20200
  • 上下文工程:AI长任务性能优化的核心策略

    Prompts 确立意图。Context 选择事实、历史和工具输出,让 AI 在长任务中保持连贯。 在 AI 应用的早期,我们沉迷于字词的斟酌。微调一个动词,增加一条约束,观察模型是否按预期响应。这些技巧常常奏效,足以让人以为这是一门手艺。直到任务变得更长、更复杂、涉及更多步骤时,一条安静的真相才浮出水面:措辞固然重要,但模型看到什么 更为关键。 Promp…

    2025年11月7日
    20200
  • AGI的物理边界:计算本质与硬件极限下的AI未来

    大模型的通用性与泛化能力正日益增强。 尽管一些新模型(例如在某些专业任务和智能水平上表现已相当出色的模型)不断涌现,但它们距离我们通常所理解的通用人工智能(AGI)依然十分遥远。 然而,这恰恰说明业界对AGI的实现仍抱有巨大的热情与信心,或许下一款突破性的大模型就能初步触及AGI的构想。 不过,卡耐基梅隆大学教授、AI2研究所科学家Tim Dettmers近…

    2025年12月21日
    24000