Skip to content
Published:阅读时间: 19 min read | 字数: 4890

一场价值2亿美元的合同纠纷,为何正在重塑整个AI行业与政府权力的边界?

引言:一个CEO的公开抗命

2026年2月28日晚间,Anthropic首席执行官Dario Amodei坐在CBS的镜头前,做了一件硅谷CEO极少做的事情:公开、详细地解释自己为何拒绝了五角大楼的要求

“我们接受98%到99%的使用场景,“Amodei对CBS记者说,“只有两个领域,我们不能同意。”

这两条”红线”是:大规模国内监控全自动武器系统

就在几小时前,特朗普总统已签署行政命令,要求所有联邦机构”立即”停止使用Anthropic的技术。国防部长Pete Hegseth更进一步,将这家估值3800亿美元的AI公司列为”供应链风险”——一个通常只针对与外国对手有关联的实体才会使用的标签

这不是一个简单的合同纠纷。这是一场关于AI时代企业自主权边界的标志性对峙,其影响将远超Anthropic与五角大楼之间的博弈本身

一、冲突全貌:从2亿美元合同到”供应链风险”

合作的起点

理解这场冲突,需要先回到合作的蜜月期。

Anthropic曾是唯一一家其大型语言模型获批在五角大楼使用的商业AI公司。通过与Palantir的合作,Claude成为第一个在美军保密网络上运行的前沿AI模型。2025年夏天,双方签下了一份价值高达2亿美元的合同。Anthropic还主动将Claude部署到国家实验室,并为限制中国关联实体使用Claude”牺牲了数亿美元的收入”——这是Amodei在其公开声明中的原话

换言之,Anthropic不是一个”反军方”的公司。恰恰相反,它在国家安全领域的合作积极性在硅谷同行中名列前茅

谈判破裂

矛盾的核心在于合同条款的措辞。五角大楼要求Claude可被用于”所有合法用途”(all lawful purposes),不接受任何附加限制。Anthropic则坚持两条底线不可谈判:Claude不得被用于对美国公民的大规模监控,也不得被用于全自动武器系统

Anthropic的理由是双重的。在技术层面,Amodei认为前沿AI系统”还不够可靠,不足以驱动全自动武器”,这样做会危及美国军人和平民的安全。在价值观层面,他认为大规模国内监控”与民主价值不相容”,因为强大的AI”能够将分散的数据自动拼合成任何人生活的全景画面——自动化地、大规模地”

五角大楼认为这些顾虑是多余的——它表示自己对这两种用途并无兴趣。但关键分歧在于:五角大楼拒绝将这种承诺写入合同,只愿意声称会遵守现行法律

2月24日,国防部长Hegseth向Amodei发出最后通牒:在2月27日下午5:01之前同意无限制使用,否则后果自负

惩罚性升级

Anthropic没有屈服。后续的惩罚来得迅速而严厉:

  • 合同终止:价值2亿美元的军方合同被取消
  • 全政府禁令:特朗普签署命令,要求所有联邦机构停止使用Anthropic产品(五角大楼有6个月过渡期)
  • 供应链风险标签:Hegseth宣布,与美国军方有业务往来的任何承包商、供应商和合作伙伴,均不得与Anthropic进行任何商业活动
  • 人身攻击:美国战争部副部长Emil Michael在社交媒体上称Amodei是”骗子”,有”上帝情结”,指控他试图”个人控制美国军方”

二、商业账本:一笔精明的损失?

数字不会说谎

从纯粹的财务角度看,Anthropic选择对抗的”成本”远小于外界想象

2亿美元的合同上限听起来很大,但五角大楼去年实际支付给Anthropic的金额仅为200万美元。而Anthropic当前的年化收入(ARR)已达140亿美元,较2025年1月的10亿美元增长了14倍。仅Claude Code一个产品线的年化收入就已突破25亿美元,且在2026年初以来翻了一番以上

公司在2月刚完成了由GIC和Coatue领投的300亿美元G轮融资,投后估值达到3800亿美元——比2025年9月的上一轮融资翻了一倍多。年消费超过10万美元的企业客户数量在过去一年增长了7倍。财富10强企业中有8家是Claude的客户

简而言之:Anthropic押上的是不到总收入0.02%的军方合同,换回的是一个价值数百亿美元的品牌叙事——“有原则的AI公司”

投资者的微妙反应

并非所有投资者都认同Amodei的选择。据报道,一些支持者担忧与特朗普政府对抗可能损害公司的品牌,让Anthropic看起来”敌对”和”反美”。但Amodei对公司方向的坚定控制力让多数风投”即便不同意,也选择了沉默”

更多的投资者则持务实立场:政府业务在Anthropic的收入结构中占比微乎其微,核心增长引擎——企业客户和开发者生态——并未受到影响。Amodei本人也指出,自公司在AI军事使用问题上持立场以来,“公司的估值和收入只增不减”

“Anthropic股票”(该公司尚未上市)的搜索热度在禁令后飙升,Renaissance Capital将其列为全球第三大未上市公司,仅次于OpenAI和SpaceX,并预计2026年可能IPO

一个反直觉的商业现实正在浮现:在AI安全焦虑弥漫的市场中,“有底线”本身就是一种竞争优势

三、法律迷宫:一个为钢铁厂设计的法律能管住AI吗?

供应链风险标签的法律困境

五角大楼对Anthropic使用的”供应链风险”标签,在法律界引发了广泛质疑。Lawfare的分析文章指出了一个核心矛盾:

很难将Hegseth对Anthropic的”供应链风险”定性与《国防生产法》(DPA)命令的前提协调起来——后者的逻辑基础是Anthropic的技术对国防至关重要、政府必须强制获取。要么Anthropic是国防部的风险,应当被驱逐出系统;要么它对国防部不可或缺,国家安全离不开对它的无限制访问。两者不可能同时成立

这一标签此前从未被用于一家美国公司。它通常针对的是被认为是外国对手延伸的实体。将其用于一家总部在旧金山、由前OpenAI研究副总裁创立的公司,在法律先例上是前所未有的

《国防生产法》的适用争议

如果政府选择援引DPA来强制Anthropic解除限制,法律地形同样复杂。DPA赋予总统两类核心强制权力:

  1. 优先访问权(Priority Access):政府可以要求企业优先履行政府合同。这一权力比较成熟,但本质上是”排队插队”,不是改变产品本身

  2. 强制签约与分配权(Compelled Contracting & Allocation):更具扩展性,允许总统”要求接受和履行”合同,并”分配”对国防必要的材料、服务和设施。但这一权力自朝鲜战争以来”基本未经检验”

关键的法律问题在于:如果政府只是要求Anthropic取消使用政策中的限制(不改变产品本身),这可能被视为修改销售条款。但如果要求Anthropic重新训练模型、剥离内置在训练中的安全护栏,这就更明确地构成了要求创造一个”新产品”——DPA的授权对此并不明确,且可能涉及第一修正案的保护,如果模型训练被认定为受保护的编辑表达

Anthropic的法律策略

Amodei的法律团队已亮出底牌。他在CBS采访中表示:“当我们收到某种正式行动时,我们会审视它,理解它,并在法庭上挑战它。”

Anthropic援引了联邦法典10 USC 3252条,主张供应链风险标签的法律效力仅限于五角大楼的合同范围内——它不能延伸到阻止军方承包商在为其他客户服务时使用Claude。如果法庭认可这一解释,Hegseth的”全面封杀”命令在法律上将大打折扣

四、竞争棋局:OpenAI的”完美时机”与行业的微妙团结

几小时内的角色互换

这场纠纷中最具戏剧性的一幕发生在2月27日。就在特朗普签署对Anthropic禁令的同一天,OpenAI CEO Sam Altman宣布其公司已与五角大楼签署协议,为军方保密系统提供AI工具

然而,这笔交易中隐藏着一个耐人寻味的细节:五角大楼同意了OpenAI提出的安全红线——而这些红线与Anthropic所要求的几乎完全相同

OpenAI在声明中表示:“我们最重要的两条安全原则是禁止国内大规模监控和要求人类对武力使用负责,包括自主武器系统。国防部同意这些原则,将其反映在法律和政策中,并将其纳入了我们的协议。”

这就产生了一个难以回避的问题:如果五角大楼能接受OpenAI的同等限制,为何不能接受Anthropic的?两家公司的差别,到底是技术层面的,还是政治层面的?

Axios的报道更加直白:从公开信息来看,OpenAI的交易条款与Anthropic所要求的之间”没有明显区别”。核心差异似乎在于框架(framing)——OpenAI将限制表述为”信任五角大楼会遵守现行法律”,而Anthropic则坚持要求这些限制作为明确的合同条款写入

员工的跨公司声援

另一个出人意料的动向是来自竞争对手内部的声援。超过300名Google员工和60多名OpenAI员工联名签署公开信,呼吁各自公司的领导层支持Anthropic的立场

信中写道:“他们试图用恐惧分化每一家公司,让它们担心对方会让步。这种策略只有在我们都不知道彼此立场的时候才会奏效。”

公开信要求各大AI公司”放下分歧,团结一致”,继续拒绝五角大楼对使用AI进行”国内大规模监控和在无人类监督下自主杀伤”的要求

这种跨公司的集体行动在科技行业中极为罕见。上一次出现类似的业内团结,还要追溯到2018年Google因内部员工抗议而退出五角大楼的Project Maven——一个使用AI分析无人机影像的项目。但这一次的规模和跨公司程度,已经远超当年

五、历史镜鉴:硅谷与华盛顿的第N次碰撞

从IBM到Google:政企关系的钟摆

科技公司与政府之间的张力并非始于AI时代

冷战时期,IBM、洛克希德·马丁等企业与政府形成了紧密的军工复合体。但自互联网时代以来,硅谷与华盛顿的关系变得更加复杂。2013年斯诺登泄露NSA大规模监控项目后,科技公司开始系统性地与政府保持距离——苹果拒绝为FBI解锁iPhone(2016年San Bernardino案),Google退出Project Maven(2018年),微软员工抗议HoloLens军事合同(2019年)

然而,AI时代正在改写这一格局。前沿AI技术的军事应用潜力巨大到各国政府都不愿放手,而AI公司的估值增长又在很大程度上依赖于政府合同所传递的”信任信号”

Anthropic的案例标志着这一张力的新高峰:这不再是”要不要与军方合作”的二元选择,而是”在什么条件下合作”的精细博弈。

“觉醒”标签的政治武器化

在围绕这场冲突的舆论战中,“woke”(觉醒)一词被频繁用来攻击Anthropic。五角大楼的官员和支持者将Amodei的红线定性为”哲学性的”和”觉醒主义的”企业越界行为。Emil Michael指控Amodei试图”将企业法律强加给美国人”

但这一叙事面临一个尴尬的事实:如果Anthropic的立场是”觉醒的”,那么在几小时后接受了几乎完全相同条款的OpenAI,是否也是”觉醒的”?如果不是,那么”觉醒”标签的真正功能是什么?

更深层来看,将企业的技术安全判断(“前沿AI不够可靠,不应驱动全自动武器”)与政治立场标签混为一谈,本身就模糊了一条重要的边界:技术伦理判断与政治表态之间的区别

六、治理真空:当技术跑在法律前面

Amodei的呼吁

在CBS采访中,Amodei提出了一个也许是整场纠纷中最重要的观点:“我认为国会需要介入……正确的长期解决方案不应该是一家私人公司与五角大楼争论这件事。”

这指向了一个系统性问题:美国目前没有一套全面的AI治理框架

在自动驾驶领域,NHTSA制定了安全标准。在制药领域,FDA负责审批流程。在金融领域,SEC监管算法交易。但在AI军事应用领域,目前的规则体系还停留在模拟时代——《国防生产法》写于1950年,针对的是钢铁厂和坦克工厂;现有的武器出口管控框架(ITAR/EAR)在纯软件产品面前存在大量灰色地带

结果就是:**AI的军事使用边界,正在由一家私人公司和一位国防部长在推特上打口水仗来决定。**无论你站在哪一边,这都不是一个令人满意的治理模式

全球竞争的压力

治理真空的另一面是全球竞争的紧迫性。中国在AI军事应用方面投入巨大,俄罗斯也在加速发展自主武器系统。这种竞争压力使得”为了安全而放慢脚步”的主张在政策圈子里面临巨大阻力

Anthropic自己也承认这一点——公司并不反对AI在军事中的广泛应用,只是反对在两个特定领域的无限制使用。但在”不能落后”的叙事框架下,任何限制都容易被解读为削弱国家竞争力

真正的挑战在于:**如何在不牺牲安全底线的前提下保持技术竞争力?**这个问题不应该由任何一家公司来回答,而应该由立法机构通过民主程序来决定

七、前瞻:这场冲突会如何收场?

短期博弈

就目前态势而言,最可能的近期走向是法律战。Anthropic已明确表态将在法庭上挑战供应链风险标签。如果法院受理,这将成为AI领域首个涉及《国防生产法》适用范围的重大案例

五角大楼方面有6个月的时间逐步淘汰Anthropic的产品。在此期间,OpenAI将填补空缺。但讽刺的是,OpenAI的协议中包含了类似的安全条款——这意味着实际的使用限制可能并没有本质改变

中期格局

对Anthropic来说,短期的政府合同损失与长期的品牌价值和企业客户信任之间的权衡,目前看来倾向于后者。在企业市场中,“有底线”和”可预测”是极其重要的采购决策因素——CIO们需要确信AI供应商不会为了政治压力而突然改变安全政策

VentureBeat的分析建议企业客户对此保持关注,但无需恐慌——Anthropic的核心业务基本面未受实质影响

长期影响

这场冲突真正的遗产可能不在商业层面,而在制度层面。它暴露了一个无法回避的现实:AI技术已经进入了传统法律框架无法充分覆盖的领域

无论是自主武器的使用规则、AI监控的边界、还是政府强制征用AI技术的权力范围——所有这些问题都需要新的立法来回答。Amodei的呼吁也许是自利的,但它指向了一个真实的制度缺陷

如果说斯诺登事件催生了对数字隐私的全球性讨论,那么Anthropic-五角大楼之争,或许正在催生一场关于AI治理的同等规模的对话

结语:一个行业的成人礼

回到Amodei在CBS镜头前说的那句话:“与政府持不同意见,是世界上最具美国精神的事情。”

无论你是否认同这一美式自由主义框架,这句话都指向了一个无法回避的全球性问题:在AI改变权力格局的时代,谁有权设定边界?

答案不应该是一家公司,也不应该是一位国防部长的推文。它应该来自一个经过充分辩论、公开透明的民主立法过程

Anthropic的红线之战,无论结局如何,已经将这个问题推到了不可忽视的位置。在这个意义上,它不仅仅是一场商业纠纷——它是AI行业面对的一次成人礼

信息截至2026年3月1日。事态仍在快速演变中