DeepSeek核心成员郭达雅离职传闻:从学术天才到综艺“巨佬”的履历全解析
DeepSeek V2、V3及R1等核心模型作者郭达雅被曝离职,引发行业对大厂人才争夺的关注。郭达雅拥有中山大学直博背景,在代码理解、数学推理及形式化证明领域成果显著,并曾连续多年斩获腾讯广告算法大赛冠军。其参与构建了DeepSeek从Coder到R1的完整研发链条,且论文曾登上Nature封面,是业界公认的技术骨干。
事件概述
DeepSeek 核心工程师郭达雅(Daya Guo)被曝已离职,目前其个人主页仍显示为 DeepSeek 研究员。作为 DeepSeek-V2、V3 及 R1 等一系列关键模型的核心作者,他的动向引发了外界对大厂人才争夺战及 DeepSeek 后续研发稳定性的关注。
核心履历与贡献
学术与竞赛成就
- 教育背景:2014 年考入中山大学计算机学院,后入选微软亚洲研究院(MSRA)联合培养博士生项目,师从印鉴教授和周明博士。2023 年获博士学位,博士论文获评优秀博士学位论文。
- 科研效率:入学博士后第三天即完成毕业所需的论文发表要求。
- 竞赛战绩:
- 腾讯广告算法大赛:2019 年、2020 年(卫冕)、2021 年连续三年夺冠,利用 BERT 算法拿下高额奖金。
- ATEC 科技精英赛:2021 年、2022 年蝉联冠军。
- 微信大数据挑战赛:2022 年带队夺冠,获 30 万元奖金。
- 学术产出:在 NeurIPS、ACL、EMNLP 等国际顶级会议发表论文十余篇,谷歌学术引用量超 1300 次。
DeepSeek 研发历程
郭达雅于 2023 年博士毕业后加入 DeepSeek,专注于代码智能和大语言模型推理,参与了贯穿公司主线的一系列核心项目:
- DeepSeek-Coder (2024 年 1 月):推出 1.3B 至 33B 系列开源代码模型,多项基准达到当时 SOTA。
- DeepSeek-Math (2024 年 2 月):基于 Coder 进行继续训练,引入 120B 数学 Token,并提出 GRPO 强化学习方法,成为 R1 推理的关键技术基础。
- DeepSeek-Prover (2024 年 5 月):面向 Lean 4 定理证明,通过大规模合成数据微调,在 miniF2F 上 Whole-proof generation 准确率达 46.3%-52%,显著高于 GPT-4。
- V2、V3 及 R1 系列:全程参与研发,验证了不依赖人工标注轨迹、仅通过纯强化学习激发大模型自反思与动态策略调整的能力。其中 R1 相关论文登上《Nature》封面,披露训练成本约 29.4 万美元。
其他亮点
- 综艺经历:曾参加程序员真人秀《燃烧吧!天才程序员》,作为仅有的两名 SSS 级“巨佬”选手之一,在 60 小时极限挑战中展现顶尖编码实力。
- 导师寄语:DeepSeek-V3 发布后,其导师印鉴教授曾寄语希望他成为“中山大学的雷军”。
