Anthropic安全人设崩塌:从政策妥协到内部泄露的生存博弈
Anthropic因CMS配置失误导致3000份内部文件泄露,同时其新版《负责任扩展政策》(RSP 3.0)删除了“风险不可控即暂停训练”的硬性条款,暴露出安全承诺在商业竞争下的弹性变形。面对美国国防部强制解除军事限制的通牒,公司虽通过诉讼赢得初步禁制令并拒绝全自主武器合作,但接受了作战规划等灰色地带业务。这一系列事件揭示了AI行业在监管真空下,企业因囚徒困境而被迫将安全原则让位于生存压力的深层矛盾。
事件概述
Anthropic近期遭遇双重危机:一方面因基础配置失误导致大量敏感内部文件泄露,另一方面其核心安全政策发生实质性调整。这两起事件共同戳穿了该公司以“安全第一”为核心的公关人设,折射出AI行业在资本压力、国家意志与基础安全实践之间的剧烈冲突。
核心事实梳理
1. 安全政策的“软着陆”转型
- 政策变更:2026年2月发布的《负责任扩展政策》(RSP 3.0)中,Anthropic删除了旧版中“若风险不可控则暂停训练”的硬性条款。
- 新机制:取而代之的是每3至6个月发布一次前沿安全路线图和风险报告,由内部专家起草并经独立评审后提交董事会。
- 官方解释:首席科学家Jared Kaplan承认,在竞争对手飞速发展的背景下,单方面暂停训练已无实际意义,这标志着从“硬刹车”转向“透明披露”。
- 估值背景:Anthropic当前估值约3800亿美元,面临OpenAI(超8500亿美元)、Google及xAI的激烈竞争,自我设限被视为商业自杀。
2. 军事合作的底线博弈
- 政府施压:2026年2月24日,美国国防部长皮特·赫格塞斯向Anthropic CEO达里奥·阿莫迪下达最后通牒,要求解除Claude模型的所有军事用途限制(含进攻性网络行动),否则将面临《国防生产法》强制接管或被列为供应链风险企业。
- 谈判破裂:截止期限过后,双方未能达成协议,美国政府随即下令联邦机构停止使用Anthropic技术。
- 法律反击:3月9日,Anthropic起诉美国政府;3月26日,加州北区联邦地区法院批准初步禁制令,叫停封杀令。法院采信了关键证据:Anthropic模型在军方封闭环境中部署后,公司无法远程控制,从而反驳了安全风险指控。
- 妥协现状:尽管拒绝了全自主武器合作,Anthropic仍继续参与作战规划和情报分析等军事相关项目,显示出安全原则在现实博弈中的妥协性。
3. 内部管理的低级失误
- 泄露原因:因CMS内容管理系统配置错误,导致3000份内部文件在互联网上公开可查。此非黑客攻击,而是类似AWS S3存储桶权限未关闭的基础操作失误。
- 泄露内容:包括员工育儿假记录、CEO闭门峰会细节以及内部安全评估报告等敏感信息。
- 讽刺性警告:泄露文件中包含一句极具警示性的描述:“模型将以远超防御者努力的速度来利用漏洞”,直接暴露了安全实践与宣传口号的巨大割裂。
行业影响与结论
- 监管真空下的囚徒困境:缺乏统一的行业红线迫使企业不敢单方面采取激进的安全措施,安全承诺逐渐沦为应对资本市场的公关语言。
- 劣币驱逐良币风险:当主要竞争对手加速推进时,坚持高安全标准的企业反而可能面临竞争劣势。
- 信任危机:Anthropic作为以安全立身的代表,其自身流程的漏洞和政策的反复修改,引发了对整个AI行业安全叙事可信度的质疑。
- 核心启示:在算力趋同的背景下,企业的护城河不再仅仅是模型能力,更在于组织流程的严谨性与对基本承诺的坚守。
