DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者

DeepSeek核心工程师郭达雅被曝离职。作为公司V2、V3、R1等一系列模型的核心作者,他的动向备受关注。

这位曾被导师寄予厚望成为“中山大学雷军”的技术天才,在学术与竞赛领域有着近乎传奇的履历:自述在博士入学第三天便完成了毕业所需的论文发表要求;多次在腾讯广告算法大赛中蝉联冠军,并在ATEC科技精英赛和微信大数据挑战赛中斩获头筹,被调侃“还没毕业就有着百万奖金”。

此外,他还曾出现在以程序员为主题的真人秀《燃烧吧!天才程序员》中,作为仅有的两名SSS级“巨佬”选手之一,在60小时的极限挑战中展现了顶尖的编码实力。

消息传出后,也引发了外网网友的关注,有人表示希望这不会给DeepSeek-V4的研发带来影响。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

毕竟,郭达雅自2023年博士毕业后加入DeepSeek,便深度参与了从Coder、Math等专项模型,到V2、V3乃至R1的完整研发链条,且均是核心作者。

那么,郭达雅究竟是怎样的“天才少年”?

DeepSeek多款模型的核心贡献者

郭达雅于2023年博士毕业后加入DeepSeek,专注于代码智能与大语言模型推理方向。

他加入DeepSeek的原因,与一位师姐的介绍直接相关。据他本人所述:

当时,我的一位师姐在DeepSeek工作,她找到了我,跟我聊了DeepSeek的愿景——追求AGI,推动人类社会的加速发展。这跟我的价值观是相合的。同时,DeepSeek有比较多的资源投入研发,领导层也希望打造一个有创新氛围和自由的公司。我有这样的热情去做这件事,我也想追求这样的工作环境。最终,我选择加入了DeepSeek。

目前,郭达雅的个人主页信息尚未更新,仍显示为DeepSeek研究员。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

在DeepSeek任职期间,郭达雅是公司一系列重要模型的核心贡献者,包括V2、V3、R1,以及Math、Coder、Prover和V2-Prover等专项模型。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

按时间线梳理其核心贡献:

  • 2024年1月 – DeepSeek-Coder:该项目推出了从1.3B到33B的一系列开源代码模型,在多项基准测试中达到了当时的开源代码模型SOTA水平。
    DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
  • 2024年2月 – DeepSeek-Math:该项目以DeepSeek-Coder-Base-v1.5 7B为基础,针对数学推理能力进行了继续训练,额外使用了120B数学相关token。其论文中提出的新型强化学习方法GRPO,后来成为了R1推理模型的关键技术。
    DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
  • 2024年5月 – DeepSeek-Prover:该项目面向Lean 4定理证明,核心方法是大规模合成形式化证明数据,并在此基础上微调DeepSeek-Math 7B。模型在Lean 4 miniF2F基准上取得了优于GPT-4的成绩,标志着DeepSeek的模型能力从一般数学推理延伸到了更硬核的形式化推理领域。
    DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
  • V2、V3与R1系列:在这一系列核心模型的研发过程中,DeepSeek证明了不依赖人工标注的推理轨迹,仅通过纯强化学习也能有效激发大模型的推理能力,并自然涌现出自反思、验证、动态策略调整等行为模式。其中,DeepSeek-R1的相关论文后来登上了《自然》(Nature)杂志封面。该论文披露,R1的训练成本仅约29.4万美元(折合人民币约208万元)。
    DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

总体而言,郭达雅在DeepSeek的任职并非参与单点项目,而是深度参与了贯穿公司一整段主线模型的完整研发过程

“希望他成为中山大学的雷军”

郭达雅对计算机科学的兴趣始于中学时代。他就读于珠海一中时,通过学校的信息课首次接触到编程,并被其严谨的逻辑性和无限的创造力所吸引,这促使他在高考后坚定地选择了计算机专业。

2014年,郭达雅被中山大学计算机学院录取,并随后在本校直博深造。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

大四时,他入选中山大学与微软亚洲研究院(MSRA)的联合培养博士生项目,师从印鉴教授和周明博士(后者后来在大模型浪潮中创办了澜舟科技),研究方向为自然语言处理。京东探索研究院副院长、阶跃星辰Tech Fellow段楠的博士生导师也是周明,两人算是师出同门。

据中山大学的采访报道,郭达雅自称在博士刚入学的第三天,就完成了学校博士毕业所要求的论文发表条件。

读博期间,他在MSRA实习,并完成了CodeBert以及GraphCodeBert的研究,相关成果分别发表在EMNLP 2020 Findings和ICLR 2021上。其中,CodeBert开发了首个能同时处理自然语言与编程语言混合输入的双模态预训练模型;GraphCodeBert则首次将代码的数据流结构纳入预训练,深化了模型对代码的理解。

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

2023年,他的博士论文《基于预训练的程序理解与生成》获评中山大学优秀博士学位论文。从学术研究到在DeepSeek的工作,郭达雅的研究主线始终紧密围绕“代码”展开。

在DeepSeek-V3发布后,他的导师印鉴教授曾特别寄语,希望他能成为 “中山大学的雷军”

截至目前,郭达雅已在NeurIPS、ACL、EMNLP等国际顶级AI会议发表论文十余篇,谷歌学术引用量超1300次。

在竞赛方面,郭达雅同样战绩斐然:
* 2021、2022年,连续两年夺得蚂蚁集团主办的ATEC科技精英赛冠军。
* 2022年,在3200支队伍参与的微信大数据挑战赛中带队夺冠,赢得30万元大奖。
DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才
* 最具代表性的是在腾讯广告算法大赛中实现连续夺冠。作为DYG战队核心成员,他在2019年获得冠军,2020年成功卫冕,2021年再度夺冠,堪称该赛事的名人堂级选手。

One More Thing

除了学术与竞赛,郭达雅还有颇为“出圈”的一面——参加综艺节目

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才

在以程序员为主题的真人秀《燃烧吧!天才程序员》中,郭达雅作为仅有的两名SSS级“巨佬”选手之一,与其他15名选手共同经历了60小时的代码极限挑战。其出场时便被标注为“神一样的存在”,展现了顶尖程序员实力之外的个人魅力。

如今,随着这位核心工程师的离职,其未来的动向无疑将成为业界关注的焦点。

谁又能得到郭达雅呢?

参考链接:
[1] https://www.reddit.com/r/LocalLLaMA/comments/1rzu7rc/deepseek_core_researcher_daya_guo_rumored_to_have/
[2] https://guoday.github.io/
[3] https://mp.weixin.qq.com/s/bYztba9PwPHePhwufd4L7Q
[4] https://sai.sysu.edu.cn/node/545

DeepSeek核心工程师郭达雅离职:V2、V3、R1模型核心作者,从“中山大学雷军”到百万奖金天才


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/27012

(0)
上一篇 2026年3月23日 上午8:31
下一篇 2026年3月23日 上午8:54

相关推荐

  • DeepMind CEO揭秘:后Gemini3时代,谷歌如何用AI仿真环境攻克所有疾病?

    Gemini 3 Deep Think 的发布,在业界引发了巨大震动。谷歌这款最前沿的模型,以惊人的速度将聊天机器人推向了新的高度,使其成为一个能力超越普通人、甚至博士水平的强大科研助手。这一切的背后,都离不开一个曾被马斯克、奥特曼等人视为“危险人物”的名字:Demis Hassabis。 从击败围棋世界冠军的AlphaGo,到解决蛋白质折叠难题的Alpha…

    AI产业动态 2026年2月13日
    30500
  • 视觉压缩革命:VIST框架如何让大语言模型像人类一样高效阅读长文本

    在人工智能领域,大语言模型(LLM)的上下文长度扩展与计算效率之间的矛盾日益凸显。NeurIPS 2025会议上,南京理工大学、中南大学、南京林业大学联合研究团队提出的VIST(Vision-centric Token Compression in LLM)框架,通过创新的视觉压缩机制,为大语言模型的长文本处理提供了突破性解决方案。这一技术路径与近期备受关注…

    2025年11月10日
    41900
  • 从文本生成到任务执行:AI能力跃迁的三年革命与人类角色的重新定义

    在人工智能发展的历史长河中,过去三年无疑构成了一个独特而关键的转折期。从2022年底ChatGPT引爆全球关注至今,AI技术不仅完成了从实验室到大众应用的跨越,更在功能形态上实现了从被动响应到主动执行的质变。这一进程不仅重塑了技术本身的能力边界,更在深层次上重构了人类与智能系统之间的协作关系。 回顾三年前的技术图景,GPT-3所展现的文本生成能力曾被视为革命…

    2025年11月30日
    35100
  • 谷歌AI战略全面开花:千亿美元营收背后的全栈式布局与能源挑战

    谷歌2025年第三季度财报的发布,标志着这家科技巨头在人工智能时代迈入了全新的发展阶段。季度营收首次突破千亿美元大关,达到1023亿美元,同比增长16%,净利润349.8亿美元,同比增长33%。这一成绩不仅超越了市场预期,更在市值层面实现了超过3000亿美元的增长,达到3.55万亿美元。 深入分析这份财报,可以发现谷歌的AI战略已经从概念验证阶段全面进入商业…

    2025年10月30日
    38100
  • 华为诺亚方舟实验室突破Transformer推理瓶颈:高阶注意力机制Nexus的架构革命

    在人工智能领域,Transformer架构凭借其强大的序列建模能力,已成为大语言模型(LLM)和各类生成式AI应用的基石。然而,随着模型规模和应用场景的不断扩展,其核心组件——自注意力机制(Self-Attention)在处理复杂逻辑推理任务时的局限性日益凸显。传统注意力机制本质上是一种基于配对比较的线性投影操作,擅长捕捉长距离依赖和表面关联,但在面对需要多…

    2025年12月5日
    41800