小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

小米MiMo团队中,每天Agent对话次数少于100次的,就离职吧。

前脚,小米MiMo-V2-Pro模型刚登上OpenRouter调用量榜单第一。后脚,罗福莉就发文分享了自己对于团队管理的思考。热度几乎无缝衔接,网友们的目光也纷纷从模型本身转到小米MiMo团队身上。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

从发布首个推理大模型MiMo-7B至今不到一年时间,MiMo的能力曲线呈现出明显陡升,在短时间内已冲入全球一线梯队。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

相比之下,同样投入重金的Meta超级智能实验室,近期却频频跳票,被爆模型性能远不及早前发布的前沿模型。于是,不少人开始好奇:小米MiMo究竟是一支怎样的团队,竟能在几个月时间内打造出让全球关注的模型?

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

众所周知,大模型开发向来是集团军作战,模型卡片的背后往往是多位研究者的集体智慧。据内部消息透露,小米的LLM团队在内部也相当神秘,但通过梳理近半年的模型发布记录和论文,仍能捕捉到一些蛛丝马迹——核心作者大多来自北京大学,其中甚至还有罗福莉本人的师弟。更值得注意的是,北京大学也是罗福莉的老东家DeepSeek的策源地。

关于小米MiMo团队

小米MiMo团队近期的动作引发了外界广泛关注,这种关注与团队在产品侧和论文发表上的“高节奏推进”密不可分。随着多篇研究成果陆续曝光,团队核心成员也浮出水面。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型? MiMo-7B技术报告核心贡献者

肖邦骏(Bangjun Xiao),MiMo-V2-Flash的第一作者,本科及博士均就读于北京大学。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

其博士生导师为北京大学人工智能研究院副院长黄罡教授。他的研究方向聚焦于边缘计算和联邦学习,此前也曾涉猎计算机视觉和扩散模型。

Bingquan Xia,MiMo-V2-Flash核心作者之一,中科院计算技术研究所2021届研究生。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

马文晗(Wenhan Ma),自2025年9月起在北京大学计算机科学学院攻读博士,由穗志方教授指导。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

他的研究方向为大语言模型,近期主要关注提升大语言模型的推理能力。本科毕业于北京大学电子工程与计算机科学学院,专业为计算机科学与技术。值得一提的是,穗志方教授正是罗福莉在北大的导师,而马文晗则是罗福莉的同门师弟

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型? 罗福莉(后排左二)与导师穗志方教授(前排右二)合影

朱大为(Dawei Zhu),北京大学三年级博士生,导师为李素建教授,本科毕业于北京大学电子工程与计算机科学学院。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

研究方向为长上下文建模,他认为高效处理超长上下文是未来语言模型和多模态模型的关键能力,也对智能体(Agent)、对齐(Alignment)以及多模态模型的进展感兴趣。此前,他参与的《paperbanana》项目曾引起较大关注。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

董谨豪,中国人民大学信息学院/数据工程与知识工程教育部重点实验室讲师,同时也是小米大语言模型(LLM)核心团队技术顾问,主要负责与代码相关的LLM开发,包括预训练、强化学习及智能体方向。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

他主导建立了人大-小米基础大语言模型联合重点实验室,并担任技术委员会成员。他博士毕业于北京大学计算机科学学院,本科毕业于西安电子科技大学计算机科学与技术专业。

张海林,小米MiMo团队成员,专注于AI基础设施建设,为MiMo系列模型打造高效、可扩展且稳定的强化学习(RL)基础设施。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

他于2025年获得北京大学计算机科学博士学位,导师为崔斌教授,并曾获北京大学优秀博士论文奖。研究重点包括大规模大语言模型(LLMs)、深度学习推荐模型(DLRMs)、信息检索(IR)及通用分布式计算。

此外,还有诸多核心作者,但公开信息较少,部分谷歌主页如下:
小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?
小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

小米MiMo是一支怎样的团队

一支成立才一两年的团队,能一路冲到顶尖模型研发的前列,靠的绝不只是产品节奏和核心成员这么简单。仔细梳理团队的背景,会发现一个明显的共性——北大背景浓厚。从核心成员到技术骨干,很多团队成员本科或博士均来自北京大学计算机学院。

一方面,北大的同门关系、导师体系和院系传承,使得小米在大模型工业界作为后起之秀,能够源源不断地吸纳新鲜血液;另一方面,学生们也能迅速接触工业界,借助丰富的算力和资源,将科研想法高效落地与迭代。在这个过程中,罗福莉成为团队与北大学术背景之间的重要桥梁。

小米MiMo团队揭秘:北大系如何打造全球顶尖大模型?

除了院校背景对成员产品理念的影响外,小米MiMo团队的技术理念也深受小米企业产品基因的驱动——核心是产品层面的“性价比”和公司一贯的“互联网生态”思维。体现在MiMo模型上,最直观的就是7B参数规模、开源策略以及端侧部署方向,清晰地展现了小米的战略布局和生态思路。

因此,MiMo的成功并非偶然,而是多重因素叠加的结果:北大科研背景的厚度、核心成员的技术经验,以及小米产品与工程的基因驱动,共同铸就了这支年轻团队的迅速崛起。

还有一个颇有缘分的小细节值得一提——不久前从阿里离职的通义实验室Qwen大模型负责人林俊旸,正是罗福莉的师兄。两人硕士阶段均在北京大学从事自然语言处理相关学习研究,学术路径高度同源。毕业后又先后加入阿里达摩院,在大模型研发上有着相近的技术底色与行业视野。一个曾做Qwen,一个带MiMo。两条国内头部模型线的关键人物,曾成长于同一套学术和产业体系,这层关系本身也让不少业内人多看了一眼。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/26515

(0)
上一篇 2026年3月19日 下午8:04
下一篇 2026年3月20日 上午11:04

相关推荐

  • 揭秘16层架构:如何构建成本优化、全链路可观测的生产级知识图谱系统Agentic GraphOS

    面向企业生产的、成本优化且全链路可观测的 GraphRAG 操作系统 Agentic GraphOS | 生产可用 · 多智能体 · 思维速度级扩展 本文将从零开始,完整介绍如何构建一套可投入生产的知识图谱系统——GraphOS。你将了解如何架构一个多智能体平台,智能地将查询路由到最具性价比的检索策略,在保持研究级准确率的同时实现 30–50% 的成本优化。…

    2026年1月8日
    36900
  • 从Jupyter到Web应用:用Python、FastAPI与LangChain构建可部署的AI工具

    从Jupyter到Web应用:用Python、FastAPI与LangChain构建可部署的AI工具(第1/2部分) 为何需要将AI脚本转化为Web应用 在Jupyter Notebook中成功验证一个AI模型(如问答或文本摘要)后,其价值往往受限于本地环境。团队无法协作,用户无法访问,模型的价值难以释放。 核心在于:AI的价值不仅在于模型本身,更在于其可访…

    2025年11月30日
    35800
  • 9张图速览大模型核心技术:从Transformer到AI Agent的全面解析

    在 AI 工程领域,RAG(检索增强生成)、LLM(大语言模型)和 AI Agent(智能体)是当前最核心的技术方向。本文通过 9 张可视化图表,系统性地解析其核心概念、技术差异与应用场景,旨在帮助读者快速把握技术脉络。 1. Transformer 与 混合专家 (Mixture of Experts) 混合专家(MoE)是一种改进Transformer模…

    2025年5月8日
    30000
  • 大模型流式输出打字机效果的前后端实现

    1. 背景 在使用ChatGPT时,发现输入 prompt 后,页面是逐步给出回复的,起初以为使用了 WebSckets 持久化连接协议,查看其网络请求,发现这个接口的通信方式并非传统的 http 接口或者 WebSockets,而是基于 EventStream 的事件流,像打字机一样,一段一段的返回答案。 ChatGPT 是一个基于深度学习的大型语言模型,…

    2025年10月1日
    73001
  • DeepSeek发布Mega MoE:将MoE流水线焊死,GPU利用率飙升的底层重构

    昨天下午,DeepSeek 对其开源代码库 DeepGEMM 进行了一次重要更新。此次更新的核心是引入了一个名为 Mega MoE 的新项目。 Mega MoE 由 DeepSeek 基础设施团队的 Chenggang Zhao 等人贡献,相关代码已提交至 GitHub(链接:https://github.com/deepseek-ai/DeepGEMM/p…

    3天前
    13800