微软罕见力挺被封杀AI公司Anthropic:军事依赖与言论自由的博弈
美国国防部以“供应链风险”为由封杀AI公司Anthropic,引发后者起诉联邦政府并获微软等科技巨头公开支持。冲突核心在于Anthropic拒绝将AI用于自主致命武器及公民监控,而美军在近期对伊朗行动中高度依赖其模型。微软作为最大政府承包商之一提交法庭之友简报,质疑封杀令的自相矛盾与法律依据,事件或将重塑AI在战争与监控领域的法律边界。
事件概述
2026年3月13日,AI初创公司Anthropic在加州北区联邦地方法院及华盛顿特区巡回法院提起诉讼,将美国国防部、财政部、国务院等十余个联邦机构列为被告。诉状指控美国政府因“供应链风险”标签惩罚企业言论自由,这是美国企业首次以此理由起诉国防部,也是政府首次给本土公司贴上此类标签。
与此同时,作为美国政府最大承包商之一的微软,罕见地提交法庭之友简报,呼吁法院发布临时禁令阻止封杀令。此举被视为冒着得罪白宫、损失数十亿美元联邦合同的风险,为同行辩护。
核心冲突:军事依赖 vs. 伦理底线
1. 美军的深度依赖
尽管面临封杀威胁,Anthropic的Claude大模型仍是美军作战的关键工具。在近期针对伊朗的大规模空袭中,Anthropic与Palantir(提供大数据分析框架)、AWS(云服务)构成“铁三角”:
- 功能定位:Claude充当Palantir Maven Smart System的“认知引擎”,负责分析卫星图像和信号情报、评估威胁、定位优先打击目标(包括领导层驻地及战略设施),并模拟打击序列预测附带伤亡。
- 实战数据:据媒体报道,美军在开战后24小时内打击了1000个目标,效率前所未有。五角大楼中央司令部明确使用Claude进行情报评估与实时目标定位。
- 矛盾现状:在政府下令全面停止使用Anthropic技术的同时,美军仍暂时无法脱离该模型继续执行大规模空袭任务。
2. 不可逾越的底线
双方决裂的核心原因在于AI用途的界定:
- Anthropic立场:不拒绝AI用于对外作战,但坚决抵制将其用于“自主致命武器”及对“美国公民的大规模监控”。诉讼文件指出,允许监控公民是对民众的背叛。
- 五角大楼立场:国防部长赫格赛斯(Peter Hegseth)指责Anthropic傲慢,认为只要符合法律就不应限制使用,并将Anthropic定性为国家安全供应链风险对象。
- 潜在影响:被列入“供应链风险”意味着任何持有政府合同的承包商不得与Anthropic合作。鉴于Anthropic80%收入来自企业客户,且刚完成300亿美元G轮融资(估值3800亿美元)并筹备IPO,此举可能导致其营收崩盘及上市计划搁置。
行业反应与法律进程
1. 多方声援
- 科技界:OpenAI和谷歌的37名工程师、研究员(包括DeepMind首席科学家Jeff Dean)提交联名简报,主张国防部不应将本土公司打成安全风险,且当前AI系统尚无法安全处理完全自主的致命打击任务。
- 退役将领:22名退役高级将领(含前海军/空军/陆军部长及前CIA局长麦克海登)发表声明,质疑在法律缺乏坚实依据的情况下将公司定性为安全风险是危险举动。
- 公众反应:Anthropic起诉后,其应用一度登顶苹果App Store免费软件排行榜。
2. OpenAI的尴尬处境
在Anthropic被禁几小时后,OpenAI CEO奥特曼宣布与五角大楼达成新协议,引发内部员工辞职抗议及外部信任危机。尽管奥特曼随后增加禁止监控条款,但外界批评其行动时机显得机会主义,损害了公共信任。
3. 微软的罕见表态
微软在法庭文件中强调:“战争部需要可靠获取美国最好的技术,但必须确保不将AI用于内部大规模监控或无人类控制的战争。”微软指出五角大楼封杀令存在逻辑矛盾:一方面要求承包商立即切换配置,另一方面又给予六个月过渡期,且在封杀令生效数小时内美军即发动了对伊朗的空袭,证明Claude不可或缺。
后续关注
- 听证会时间:法官已确定于3月24日召开关于是否下达临时禁令的听证会。
- 案件意义:此案不仅决定Anthropic的未来,更将确立AI在战争决策与公民监控领域的法律先例,定义未来AI技术的合规边界。
