OpenAI签署国防合同引发信任危机:70万用户流失与核心人才集体出走

2026年3月,OpenAI与美国国防部达成服务合约,导致ChatGPT订阅用户在短时间内激增295%的取消率,超70万用户选择离开。与此同时,公司因战略转向服务国防而遭遇内部剧烈震荡,包括机器人业务负责人在内的多位高管及9位联合创始人中的大部分相继离职,安全团队亦经历两次解散。这一系列事件标志着OpenAI从“造福人类”的科研理想向“服务国防”的商业化急转弯,引发了关于企业伦理、组织文化及未来生存能力的严峻质疑。

事件概述

2026年3月,OpenAI在推进IPO进程的战略背景下,与美国国防部达成AI服务合约,并宣布激进扩员计划(年底前员工规模从4500人增至8000人)。然而,这一决策迅速引爆了外部舆论与内部危机:

  • 用户用脚投票:消息官宣当天,ChatGPT用户删除率飙升295%,超过70万订阅用户取消服务。
  • 核心团队崩塌:公司内部爆发激烈反对声浪,首位公开决裂的是机器人业务负责人Caitlin Kalinowski。随后,11位联合创始人中仅剩山姆·奥特曼(Sam Altman)和伊利亚·苏茨克维(Ilya Sutskever)之外的9人陆续出走,包括Mira Murati等顶尖大牛。
  • 安全体系瓦解:负责AI安全管控的“超级对齐团队”于2024年解散,负责使命把控的“使命协调团队”于2026年2月再次解散,独立的安全职能被嵌入各产品线,不再具备独立否决权。

核心背景:伦理红线的分野

此次风波源于2026年2月美国国防部的招标竞争,两家AI巨头做出了截然不同的选择:

  • Anthropic的坚守:面对国防部要求“无限制访问所有合法用途”的压力,Anthropic划出两道不可逾越的红线——严禁技术用于针对美国公民的大规模国内监控,且不得应用于完全自主的致命武器系统。尽管因此被贴上供应链风险标签并被踢出国防生态圈,但赢得了部分企业客户的信任。
  • OpenAI的妥协:在Anthropic拒绝后,OpenAI火速接盘。其合作条件相对宽松,名义上接受所有合法用途,仅通过模糊的安全原则承诺禁止大规模国内监控和保障武力使用的人类责任,未写入刚性的法律条款。

战略转向与组织危机

OpenAI的冒险抉择背后是明确的资本驱动逻辑:

  1. IPO野心:2025年底启动红色代码战略,目标冲刺5000亿美元估值,将企业客户收入占比提升至50%。政府订单被视为稳定的收入来源及技术合规性的背书。
  2. 能力缺口:国防合作要求模型部署至机密网络、员工具备涉密许可及FedRAMP/IL级别合规经验。OpenAI在安全人才断层的情况下,被迫依赖AWS借道入局,自身政企服务能力几乎为零。
  3. 文化撕裂:早期员工多受“造福全人类”的理想吸引,如今面临科研让位于销售、使命从普惠变为服务国防的价值观冲突。激进扩员计划中,工程与销售类岗位占比高达60%-70%,研究类仅占10%-15%,进一步加剧了结构性矛盾。

竞争围剿与未来信号

竞争对手正利用OpenAI的内部动荡加速蚕食其市场份额:

  • Anthropic:凭借伦理坚守,首次采购AI产品的企业中,选择Anthropic的比例是OpenAI的三倍,旗下Claude Code编程工具周贡献约10亿美元年化收入。
  • 其他竞品:谷歌、DeepMind、xAI等纷纷加大招聘力度,大量吸纳从OpenAI流失的顶尖人才,强化各自在金融、编程等场景的能力。

OpenAI能否度过此次危机,取决于以下三个关键信号:

  1. 组织架构调整:是否设立独立的联邦业务部以隔离合规与文化冲突。
  2. 人才留存情况:未来6个月内,安全与对齐领域的研究员是否停止大批量出走。
  3. 交付模式验证:新设的“技术大使”岗位能否真正打通客户需求到研发优化的闭环,而非沦为高级客服。

奥特曼虽公开道歉并承诺追加禁止国内监视条款,但核心人才流失与用户抵制已造成不可逆的伤害。这场关乎生死的考验表明,当企业使命发生根本性偏移时,人心的凝聚与文化的重塑比战略制定更为关键。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。