清华姚班天才陈立杰全职加盟OpenAI,保留伯克利教职,理论计算机科学迎来新星

清华大学「姚班」校友、加州大学伯克利分校(UC Berkeley)助理教授陈立杰(Lijie Chen)已正式加入 OpenAI。

知情人士透露,陈立杰此次是以全职身份加入 OpenAI 开展研究工作。与此同时,他目前在伯克利的状态为 On Leave(停薪留职),即他保留了在大学的教职,并未离职。

陈立杰是理论计算机科学领域的顶尖青年学者,本科毕业于清华姚班,博士毕业于麻省理工学院(MIT),在计算复杂性理论等领域拥有卓越的学术成就。

截至目前,其个人主页和 LinkedIn 页面尚未更新。

清华姚班天才陈立杰全职加盟OpenAI,保留伯克利教职,理论计算机科学迎来新星
清华姚班天才陈立杰全职加盟OpenAI,保留伯克利教职,理论计算机科学迎来新星

从 IOI 金牌到伯克利助理教授

陈立杰高中就读于杭州外国语学校。他在信息学竞赛(OI)领域表现突出,是当时知名的竞赛选手。

2011 年,他获得全国青少年信息学奥林匹克竞赛(NOI)金牌;2013 年,他代表中国队出征第 25 届国际信息学奥林匹克竞赛(IOI),不仅夺得金牌,更取得了全球第一名的成绩。

清华姚班天才陈立杰全职加盟OpenAI,保留伯克利教职,理论计算机科学迎来新星

进入清华大学姚班后,陈立杰逐渐将重心从程序设计竞赛转向计算机科学理论研究。2016 年,他获得清华大学本科生特等奖学金。在特等奖学金答辩会上,陈立杰曾立下宏愿:「有生之年,希望能看到 P vs NP 问题被解决。」

清华姚班天才陈立杰全职加盟OpenAI,保留伯克利教职,理论计算机科学迎来新星

大三时期,他曾赴 MIT 进行科研交换,师从著名量子信息科学家 Scott Aaronson 教授。2017 年,作为大四本科生的他在 FOCS(IEEE 计算机科学基础年会)上发表了论文,成为首位在该顶级会议上发文的中国本科生。

清华姚班天才陈立杰全职加盟OpenAI,保留伯克利教职,理论计算机科学迎来新星

该论文是他在 MIT 访问期间与 4 名博士研究生及博士后合作完成的,解决了 John Watrous 于 2002 年提出的关于「量子统计零知识证明」(QSZK)的开放性问题,引入了「量子区分复杂度」这一新概念,证明了其与 QSZK 查询复杂度的关系,解释了传统分析方法的局限性。

  • 论文地址: https://arxiv.org/pdf/1609.02888

本科毕业后,陈立杰赴 MIT 攻读博士学位,师从计算复杂性权威 Ryan Williams 教授。这一时期,他在计算复杂性、电路复杂度、伪随机性等领域取得了实质性突破,主要贡献包括:

  • 硬度放大: 他与合作者发现了一条绕过「自然证明」壁垒的潜在路径:证明某些问题在极弱的电路模型下是困难的,可以自动「放大」推导出它们在极强电路模型下也是困难的(即推导出 P ≠ NP)。严谨的是,他也提出了「局部性壁垒」,客观指出了目前技术在利用这一发现时面临的实际困难。
  • 非黑盒去随机化: 他提出了一种新框架,证明在比传统要求更弱的假设下,可以去除算法中的随机性。他还证明了在特定条件下,随机性对于计算可能是「无用」的。
  • 量子霸权的理论基石: 他参与证明了存在一个 Oracle,使得量子多项式时间(BQP)不包含在多项式层级(PH)中。这为量子计算机在理论上超越经典计算机提供了坚实的数学支撑。

他在博士期间多次获得理论计算机顶级会议的最佳学生论文奖,包括 STOC 2019(Danny Lewin Award)和 FOCS 2019(Machtey Award)。2022 年,他的博士论文获得 ACM 博士论文奖荣誉提名以及 MIT George M. Sprowls 最佳博士论文奖。

清华姚班天才陈立杰全职加盟OpenAI,保留伯克利教职,理论计算机科学迎来新星

2022 年博士毕业后,陈立杰获得了 UC Berkeley 米勒基础科学研究所的 Miller Fellowship。这是一项面向全球杰出青年科学家的全额资助计划,历史上曾诞生过多位诺贝尔奖和菲尔兹奖得主。作为米勒研究员,他拥有完全的学术自由,在三年内专注于自己感兴趣的前沿课题。

他于 2025 年 7 月入职 UC Berkeley 电气工程与计算机科学系(EECS)担任助理教授,继续从事教学与科研工作。


关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/18136

(0)
上一篇 2026年1月15日 上午11:38
下一篇 2026年1月15日 下午12:05

相关推荐

  • LangGraph 2026版:从核心概念到实战,构建自适应AI Agents的完整指南

    用 LangGraph 构建 AI Agents(2026 版):保姆级指南 过去两年里,LangGraph 已成为我在 AI 领域构建各类应用的核心工具。无论是聊天机器人、MCP助手、语音机器人还是内部自动化智能体,只要涉及推理、工具调用或多步骤工作流,我几乎都会选择 LangGraph。它反复出现在我的客户项目、个人实验乃至日常的生产系统中。 去年我撰写…

    2026年1月24日
    53000
  • 黄仁勋揭秘AI基建狂潮:6600亿美元投入背后,算力翻倍收入或翻四倍的商业逻辑

    上周,英伟达股价创下近一年来的单日最大涨幅,达到7.9%,公司总市值回升至4.5万亿美元。这一强劲表现,与核心客户近期在财报会议上释放的积极信号密切相关。 Meta、亚马逊、谷歌和微软等科技巨头均向投资者表示,计划在2026年大幅增加数据中心和专用芯片的资本支出,合计金额预计高达6600亿美元。这一数字较2025年的4100亿美元和2024年的2450亿美元…

    2026年2月9日
    38300
  • 突破视觉AI能效瓶颈:清华团队提出类人主动感知新范式AdaptiveNN

    视觉是人类认知物理世界的核心通道,赋予计算机类人视觉能力是人工智能领域长期追求的目标。这一能力对多模态基础模型、具身智能、医疗AI等前沿方向具有基础性支撑作用。过去数十年间,计算机视觉技术取得显著进展,在图像识别、目标检测、多模态理解等任务上已达到甚至超越人类专家水平。然而,当前主流的高精度视觉模型在实际部署中面临严峻挑战:这些模型通常需要激活数亿参数来处理…

    2025年11月28日
    17900
  • Yann LeCun离职Meta:世界模型与LLM的路线之争,AI未来何去何从?

    近日,AI界传来重磅消息:图灵奖得主、Meta首席AI科学家Yann LeCun即将离职。这一事件不仅标志着Meta内部AI战略的重大调整,更折射出当前人工智能领域关于技术路线的深刻分歧。LeCun作为深度学习奠基人之一,其离职背后是LLM(大语言模型)与“世界模型”两种AI发展路径的激烈碰撞,值得我们深入分析。 LeCun离职的直接导火索,是Meta内部A…

    2025年11月16日
    18200
  • Scaling Law的AGI之路:从DeepMind历史到谷歌Gemini的工程化实践

    在近期Axios AI+峰会上,DeepMind联合创始人兼CEO Demis Hassabis发表了对Scaling Law(缩放定律)的坚定立场,认为其不仅是当前AI发展的核心驱动力,更是实现通用人工智能(AGI)的必经之路。这一观点与OpenAI首席科学家Ilya Sutskever此前提出的“Scaling遇到瓶颈”论形成鲜明对比,引发了业界对AI技…

    2025年12月8日
    25000