DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者

DeepSeek核心工程师郭达雅被曝离职。作为公司V2、V3、R1等一系列模型的核心作者,他的动向备受关注。

这位曾被导师寄予厚望成为“中山大学雷军”的技术天才,在学术与竞赛领域有着近乎传奇的履历:自述在博士入学第三天便完成了毕业所需的论文发表要求;多次在腾讯广告算法大赛中蝉联冠军,并在ATEC科技精英赛和微信大数据挑战赛中斩获头筹,被调侃“还没毕业就有着百万奖金”。

此外,他还曾出现在以程序员为主题的真人秀《燃烧吧!天才程序员》中,作为仅有的两名SSS级“巨佬”选手之一,在60小时的极限挑战中展现了顶尖的编码实力。

消息传出后,也引发了外网网友的关注,有人表示希望这不会给DeepSeek-V4的研发带来影响。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

毕竟,郭达雅自2023年博士毕业后加入DeepSeek,便深度参与了从Coder、Math等专项模型,到V2、V3乃至R1的完整研发链条,且均是核心作者。

那么,郭达雅究竟是怎样的“天才少年”?

DeepSeek多款模型的核心贡献者

郭达雅于2023年博士毕业后加入DeepSeek,专注于代码智能与大语言模型推理方向。

他加入DeepSeek的原因,与一位师姐的介绍直接相关。据他本人所述:

当时,我的一位师姐在DeepSeek工作,她找到了我,跟我聊了DeepSeek的愿景——追求AGI,推动人类社会的加速发展。这跟我的价值观是相合的。同时,DeepSeek有比较多的资源投入研发,领导层也希望打造一个有创新氛围和自由的公司。我有这样的热情去做这件事,我也想追求这样的工作环境。最终,我选择加入了DeepSeek。

目前,郭达雅的个人主页信息尚未更新,仍显示为DeepSeek研究员。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

在DeepSeek任职期间,郭达雅是公司一系列重要模型的核心贡献者,包括V2、V3、R1,以及Math、Coder、Prover和V2-Prover等专项模型。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

按时间线梳理其核心贡献:

  • 2024年1月 – DeepSeek-Coder:该项目推出了从1.3B到33B的一系列开源代码模型,在多项基准测试中达到了当时的开源代码模型SOTA水平。
    DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
  • 2024年2月 – DeepSeek-Math:该项目以DeepSeek-Coder-Base-v1.5 7B为基础,针对数学推理能力进行了继续训练,额外使用了120B数学相关token。其论文中提出的新型强化学习方法GRPO,后来成为了R1推理模型的关键技术。
    DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
  • 2024年5月 – DeepSeek-Prover:该项目面向Lean 4定理证明,核心方法是大规模合成形式化证明数据,并在此基础上微调DeepSeek-Math 7B。模型在Lean 4 miniF2F基准上取得了优于GPT-4的成绩,标志着DeepSeek的模型能力从一般数学推理延伸到了更硬核的形式化推理领域。
    DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
  • V2、V3与R1系列:在这一系列核心模型的研发过程中,DeepSeek证明了不依赖人工标注的推理轨迹,仅通过纯强化学习也能有效激发大模型的推理能力,并自然涌现出自反思、验证、动态策略调整等行为模式。其中,DeepSeek-R1的相关论文后来登上了《自然》(Nature)杂志封面。该论文披露,R1的训练成本仅约29.4万美元(折合人民币约208万元)。
    DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

总体而言,郭达雅在DeepSeek的任职并非参与单点项目,而是深度参与了贯穿公司一整段主线模型的完整研发过程

“希望他成为中山大学的雷军”

郭达雅对计算机科学的兴趣始于中学时代。他就读于珠海一中时,通过学校的信息课首次接触到编程,并被其严谨的逻辑性和无限的创造力所吸引,这促使他在高考后坚定地选择了计算机专业。

2014年,郭达雅被中山大学计算机学院录取,并随后在本校直博深造。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

大四时,他入选中山大学与微软亚洲研究院(MSRA)的联合培养博士生项目,师从印鉴教授和周明博士(后者后来在大模型浪潮中创办了澜舟科技),研究方向为自然语言处理。京东探索研究院副院长、阶跃星辰Tech Fellow段楠的博士生导师也是周明,两人算是师出同门。

据中山大学的采访报道,郭达雅自称在博士刚入学的第三天,就完成了学校博士毕业所要求的论文发表条件。

读博期间,他在MSRA实习,并完成了CodeBert以及GraphCodeBert的研究,相关成果分别发表在EMNLP 2020 Findings和ICLR 2021上。其中,CodeBert开发了首个能同时处理自然语言与编程语言混合输入的双模态预训练模型;GraphCodeBert则首次将代码的数据流结构纳入预训练,深化了模型对代码的理解。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

2023年,他的博士论文《基于预训练的程序理解与生成》获评中山大学优秀博士学位论文。从学术研究到在DeepSeek的工作,郭达雅的研究主线始终紧密围绕“代码”展开。

在DeepSeek-V3发布后,他的导师印鉴教授曾特别寄语,希望他能成为 “中山大学的雷军”

截至目前,郭达雅已在NeurIPS、ACL、EMNLP等国际顶级AI会议发表论文十余篇,谷歌学术引用量超1300次。

在竞赛方面,郭达雅同样战绩斐然:
* 2021、2022年,连续两年夺得蚂蚁集团主办的ATEC科技精英赛冠军。
* 2022年,在3200支队伍参与的微信大数据挑战赛中带队夺冠,赢得30万元大奖。
DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
* 最具代表性的是在腾讯广告算法大赛中实现连续夺冠。作为DYG战队核心成员,他在2019年获得冠军,2020年成功卫冕,2021年再度夺冠,堪称该赛事的名人堂级选手。

One More Thing

除了学术与竞赛,郭达雅还有颇为“出圈”的一面——参加综艺节目

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

在以程序员为主题的真人秀《燃烧吧!天才程序员》中,郭达雅作为仅有的两名SSS级“巨佬”选手之一,与其他15名选手共同经历了60小时的代码极限挑战。其出场时便被标注为“神一样的存在”,展现了顶尖程序员实力之外的个人魅力。

如今,随着这位核心工程师的离职,其未来的动向无疑将成为业界关注的焦点。

谁又能得到郭达雅呢?

参考链接:
[1] https://www.reddit.com/r/LocalLLaMA/comments/1rzu7rc/deepseek_core_researcher_daya_guo_rumored_to_have/
[2] https://guoday.github.io/
[3] https://mp.weixin.qq.com/s/bYztba9PwPHePhwufd4L7Q
[4] https://sai.sysu.edu.cn/node/545

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/27012

(0)
上一篇 11小时前
下一篇 10小时前

相关推荐

  • AI智能体能力动态化革命:Skills系统架构解析与Minion开源实现

    在人工智能技术快速演进的当下,AI智能体(Agent)正从简单的指令执行者向具备专业能力的智能助手转变。最近,Claude推出的Skills系统标志着这一转变的关键里程碑——它让AI智能体能够像人类专家一样,在需要时动态加载专业能力,而非将所有知识预先装入有限的上下文窗口。这一设计理念不仅解决了传统AI智能体开发中的核心矛盾,更为开源社区提供了可复用的架构模…

    2025年12月15日
    31300
  • Anthropic CEO:Scaling Law远未撞墙,2026年将迎激进加速 在近期的一次行业会议上,Anthropic 的首席执行官 Dario Amodei 对当前 AI 发展的核心驱动力——Scaling Law(规模定律)——给出了明确判断:我们并未看到其撞墙,相反,一场激进的加速即将到来。 他的核心观点是:Scaling Law 不仅没有失效…

    2026年3月5日
    10100
  • 港大开源轻量AI助手nanobot:仅4000行代码,支持多平台与主流LLM,GitHub狂揽1.3万星

    香港大学数据科学实验室开源了名为 nanobot 的超轻量级个人 AI 助手项目。该项目高度注重代码可读性、研究友好性、快速启动以及易于集成多模型与多聊天通道。 项目开源不久,便在 GitHub 上获得了超过 1.3 万颗星标。 nanobot 的设计灵感来源于 Clawdbot。其代码库仅包含约 4000 行代码,相较于原版 Clawdbot 的约 43 …

    2026年2月11日
    49400
  • 英伟达豪掷260亿美元进军开源大模型:从AI基础设施霸主到亲自下场淘金

    昨日,我们解读了英伟达CEO黄仁勋发表的长篇博客。他在文中指出,人工智能是当今塑造世界最强大的力量之一,它并非单一应用或模型,而是如同电力和互联网一般的关键基础设施。 他将人工智能基础设施划分为“五层蛋糕”:能源 → 芯片 → 基础设施 → 模型 → 应用。目前,英伟达自身已成为人工智能时代基础设施的核心部分,尤其在芯片及“AI工厂”类基础设施领域占据主导地…

    2026年3月12日
    13100
  • 颠覆认知:扩散模型表征对齐中,空间结构竟比全局语义更重要

    在扩散模型的训练优化领域,表征对齐(REPA)技术自去年十月问世以来,一直被视为加速扩散Transformer训练的关键突破。该方法通过将预训练视觉编码器的表征蒸馏为中间扩散特征来指导生成式训练,显著提升了训练效率。然而,一个根本性问题长期悬而未决:对于生成任务而言,目标表征的哪个维度更为关键?是编码器捕获的全局语义信息(通常以ImageNet-1K分类准确…

    2025年12月13日
    18200