纽约客调查揭露:OpenAI CEO奥特曼被指“撒谎成性”且具反社会人格

2026/04/07 13:40阅读量 11

《纽约客》历时18个月的调查报道披露,OpenAI前首席科学家Ilya Sutskever曾提交70页备忘录指控CEO山姆·奥特曼“持续撒谎”,导致其2023年被董事会解雇。报告同时指出,奥特曼存在讨好型与反社会型人格的矛盾结合,且公司曾承诺投入20%算力用于AI安全对齐,实际仅分配1-2%并随后解散该团队。这些内部文件揭示了奥特曼对权力的渴望及其掌控AGI可能带来的潜在风险。

事件概述

《纽约客》发布了一篇历时18个月的深度调查报道,首次公开了OpenAI内部核心人物对CEO山姆·奥特曼(Sam Altman)的严厉指控。报道基于前首席科学家Ilya Sutskever编写的70页秘密备忘录,以及Anthropic联合创始人Dario Amodei保留的200余页私人笔记,揭示了奥特曼在沟通诚信、资源分配及人格特质方面的严重问题。

核心事实与指控

1. “撒谎成性”的行为模式

  • Sutskever的指控:2023年,Sutskever联合其他同事整理数百份内部文件,向董事会提交备忘录,首项罪名即为奥特曼“持续撒谎”。
  • Amodei的笔记:Anthropic创始人Dario Amodei在其私人记录中明确写道:“奥特曼说过的几乎肯定都是bullshit(胡扯)”,并将OpenAI面临的最大问题归咎于奥特曼本人。
  • 董事会反应:2023年11月,董事会以奥特曼“沟通不够坦诚”为由将其解雇。尽管奥特曼当时正在拉斯维加斯观看F1比赛,并通过视频电话得知消息,但公司在不到一周后因瘫痪被迫召回他,随后投赞成票的董事退出,Sutskever也辞去董事席位并离职。

2. 安全承诺与实际执行的背离

  • 算力分配造假:OpenAI曾公开宣称将投入公司20%的算力给“超级对齐”(Superalignment)团队以确保AI安全,由Sutskever和Jan Leike主导。然而实际执行中,该团队仅获得1-2%的算力,且使用的是过时芯片。
  • 团队解散与人才流失:2024年,“超级对齐”团队解散。负责人Jan Leike离职加入Anthropic,并公开表示“安全文化和流程让位于炫目的产品”,对领导层失去信任。CTO Mira Murati也曾暗示该承诺本身不现实。
  • 背景关联:Anthropic的成立部分源于OpenAI内部安全研究人员长期得不到足够支持,这反映了OpenAI在AI安全方向上的摇摆不定。

3. 双重人格特征分析

  • 性格组合:多位前董事会成员及高管指出,奥特曼同时具备强烈的“讨好型人格”(渴望被所有人喜爱)和“反社会型人格”(对欺骗后果漠然)。
  • 行为逻辑:这种组合使其极具说服力,能迅速赢得信任,但一旦承诺无法兑现,最亲近的合作伙伴(如Sutskever、Amodei等)最终都会对其失去信任。
  • 自我认知:据称在逼宫事件中,奥特曼曾回应“我无法改变我的性格”,虽本人否认说过此话,但这被视为其最诚实的时刻之一。前人力资源官Diane Yoon认为,奥特曼并非传统意义上的恶棍,而是活在自己构建的世界里,缺乏现实逻辑。

4. 权力扩张与潜在风险

  • 商业版图:奥特曼个人投资超过400家公司,并与微软、亚马逊等巨头存在双重独家协议争议。OpenAI估值或达万亿美元,并与中东政权达成500亿美元AI基础设施协议。
  • 技术伦理担忧:Sutskever在备忘录中警告,掌握改变文明技术的往往是“对权力感兴趣的人”而非“能承担责任的人”。
  • 军方合作:报道提及OpenAI向军方开放技术,涉及移民执法、监控及自主武器领域。

值得关注的影响

  • 信任危机:奥特曼的人格缺陷可能导致其难以建立长期的合作伙伴关系,进而影响OpenAI在关键技术研发上的稳定性。
  • AGI控制权:随着OpenAI向营利模式转型及估值飙升,关于谁应掌控通用人工智能(AGI)定义权的争论愈发激烈,内部制衡机制似乎已失效。
  • 行业警示:此次事件为AI行业敲响了警钟,即企业领导者的道德风险与人格特质可能直接决定技术发展的安全边界。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。