GPT Image 2 背后的华人师徒网:人才生态才是 AI 竞争核心
2026/04/23 15:44阅读量 2
OpenAI GPT Image 2 由仅 13 人的精锐团队研发,其中华人成员占据半壁江山,以 241 分在竞技场中遥遥领先。该团队核心成员多源自 MIT、浙大等高校师门及微软、谷歌等大厂,通过“传帮带”和跨学科背景构建了极高密度的信任网络。这种基于共同学术背景和工程语言的人才生态,大幅降低了创新磨合成本,揭示了 AI 竞争本质是人才生态的比拼而非单纯的技术或资本对抗。
事件概述
GPT Image 2 正式发布后,在大模型竞技场中以 241 分的绝对优势领跑。其背后是由 OpenAI 组建的一支仅 13 人的核心团队,其中华人成员占比高达 50%。深入分析该团队的履历发现,成员间存在紧密的师门、同窗及前同事关系,形成了一张覆盖全球顶尖科研机构的华人人才网络。
核心成员与师承脉络
- 陈博远(核心成员):成长轨迹典型体现了华人学术界的“传帮带”。
- 引路人:高中时期结识 Google DeepMind 资深研究员夏斐,后者在其本科及博士阶段提供关键支持,助其发表首篇影响力论文并两次邀请至 DeepMind 实习。
- 师承:MIT 博士期间师从 Vincent Sitzmann 教授,研究“世界模型”方向。Sitzmann 实验室的研究思路直接影响了 GPT Image 2 的技术路线。
- 同门:团队成员 Kiwhan Song 同为 Sitzmann 教授门下弟子,两人曾联合发表关于扩散模型与序列生成结合的论文。
- 工业界经验注入:
- Jianfeng Wang:前微软首席研究员(任职近 9 年),专注于大规模多模态表示学习,负责提升模型的指令遵循能力和世界知识理解。
- Bing Liang:前谷歌高级软件工程师(深耕 5 年多),参与过 Imagen 3、Veo 及 Gemini 系列研发,负责图像生成相关研究。
- 价值:二人将竞争对手多年积累的工程经验及避坑指南带入团队,显著减少了研发弯路。
多元背景与交叉创新
- Weixin Liang & Yuguang Yang:两人均毕业于浙江大学竺可桢学院。
- Yuguang Yang:拥有工程、计算化学物理与机器学习等多学科背景,曾在亚马逊 Alexa 和微软 Bing 工作,其跨学科积累在模型演示中得到体现。
- Weixin Liang:斯坦福 AI 实验室博士,实习期间提出《Mixture-of-Transformers (MoT)》架构。该架构通过模态解耦的混合专家模型,将多模态预训练计算成本降低 66%,被视为推动多模态理解与生成统一的奠基性贡献。
- 其他关键成员:
- Kenji Hata:斯坦福硕士,前 Google Research,参与 Sora 2 及 GPT-Image-1 研发。
- Ayaan Haque:前 Luma AI 研究员,具备高维时序数据处理能力,负责思考模式研发。
- Dibya Bhattacharjee:耶鲁本硕,前谷歌员工,负责模型输出格式优化。
- Mengchao Z.:上海交大本科,德克萨斯 A&M 硕士,负责技术产品化转化。
底层逻辑与行业启示
- 高密度信任网络:由师门、同窗和前同事织就的网络,天然形成了统一的价值观和工程语言,使得创新磨合成本几乎为零。
- 组织约束对比:大厂层级结构虽利于商业化,但可能对需要自由探索的基础研究形成约束。单纯挖角个别天才难以复现这种自然涌现的创新生态。
- 竞争本质:AI 的竞争归根结底是“人”的故事。关键在于搭建能让顶尖人才自然相遇、互相成就的生态系统,而非单纯的技术或资本比拼。
