
新智元报道
近日,美国五角大楼正对 Anthropic 加大压力,要求解除其大型语言模型 Claude 在军事领域的使用限制。会后,该公司发布了新的政策声明。
据知情人士透露,在最近的几天里,一场气氛紧张的会议在五角大楼内部举行。
会议上,双方代表的是截然对立的利益和立场。
美国国防部长皮特·海格塞斯(Pete Hegseth)代表了政府强硬的安全政策态度及监管宽松的趋势。

Anthropic 公司的首席执行官达里奥·阿莫代(Dario Amodei),则以坚守 AI 安全为己任,强调技术开发与伦理规范并重的原则。

会议并非友好的交流性质,而是一次充满火药味的谈判。
国防部向 Anthropic 发出最后通牒,要求其在规定时间内全面解除 Claude 在军事机密系统中的使用限制,并允许军方将其用于所有合法目的。
如若拒绝,国防部将考虑动用《国防生产法》强制修改代码,或者直接标记为供应链风险,使其与军方及其他联邦承包商断绝商业往来。
面对压力,Anthropic 作出了妥协,同意放宽部分限制条件,但保留了两条红线:禁止用于大规模监控民众和开发无需人类介入的致命武器。
然而,在五角大楼看来,这种做法是对军事决策权的挑战。
随着这场紧张博弈的发生,Anthropic 内部也在悄然进行调整。公司发布了新版《负责任扩展政策》,宣布放弃其之前的暂停大模型训练的安全承诺。

这份文件表明,在技术发展与大国竞争交织的时代背景下,原本坚持理想主义的 Anthropic 不得不向现实妥协。
在此次僵局之前,国防部已与 Anthropic 签署了一份价值两亿美元的合作协议。Claude 是目前美国军方机密网络中唯一运行中的 AI 模型,广泛应用于情报分析、武器开发和战场行动等领域。
今年年初,在委内瑞拉的一次军事行动中,Claude 就发挥了关键作用。
然而,海格塞斯的备忘录打破了原有的默契。他要求所有供军方使用的 AI 技术必须无限制使用,并促使双方重新谈判合同条款。
在这种高压态势下,xAI 的模型 Grok 获得授权进入机密系统并接受军方标准,成为了五角大楼向 Anthropic 施压的有利筹码。
同时,谷歌和 OpenAI 也在加紧与国防部的合作谈判。谷歌的 Gemini 模型被视为可能的替代品;而尽管 ChatGPT 目前尚未获得授权,但其前景备受关注。
面对这样的压力环境,Anthropic 的首席科学官杰瑞德·卡普兰(Jared Kaplan)在采访中解释了政策调整的原因:行业监管滞后、同行竞争激烈以及缺乏成熟的风险评估标准等现实问题促使他们作出改变。

新的政策强调从绝对风险转向边际风险的评估体系,承认 AI 安全需要整个行业的共同努力。为了保持技术领先和竞争力,Anthropic 必须放弃其之前的暂停训练承诺。
公司还引入了更加透明的风险报告机制,并定期更新前沿安全路线图以应对不断升级的技术挑战。
非营利组织 METR 的政策主管克里斯·佩因特(Chris Painter)形容这一转变是进入了“分诊模式”,意味着在资源有限的情况下,Anthropic 必须优先考虑最紧迫的安全问题。
他担心这种做法可能让社会逐渐滑向危险的边缘而缺乏明确警报机制来提醒人们注意潜在风险。
面对来自五角大楼的压力,阿莫代依然坚守在大规模监控和致命自主武器这两项核心伦理原则上的立场。但他也意识到,在这个由算力、资本与国家意志驱动的巨大体系中,仅靠闭门修行的初创公司难以保持独立性。
如果拒绝五角大楼的要求,Anthropic 可能会被视为敌视国家安全,并失去拥有丰富资源和技术优势的重要市场,最终被竞争对手超越。
为了留在牌桌上并保持技术领先,他们必须放弃当年立下的那份阻碍扩张步伐的誓言。从坚持绝对安全到寻求相对安全;从单方面暂停训练到只求在技术狂飙中加装更好的刹车片——Anthropic 的转变史映射出硅谷 AI 理想主义在现实土壤上的蜕变。
技术精英们曾经深信能够用算法和政策为人类锁住潘多拉的魔盒,但在地缘政治压力与商业竞争面前,他们不得不重新审视自己的立场并作出妥协。在这条通往高级智能的路上,最终发现比机器失控更早到来的是对按下暂停键无能为力的人类自己。
Claude 是目前美国军方机密网络中唯一获得授权并正在运行的 AI 模型。
在敏感情报分析、武器开发以及战场行动中,军方人员常常将 Claude 与数据分析巨头 Palantir 的技术结合使用。
一月份发生在委内瑞拉的「马杜罗突袭」行动中,Claude 就曾深度参与并发挥了关键作用。
防务官员们毫不讳言 Claude 的强大。
正是因为 Claude 的性能在同行中一骑绝尘,五角大楼才容忍了 Anthropic 至今。
然而,海格塞斯(Pete Hegseth)在今年 1 月发布的一份备忘录打破了原有的默契。
备忘录要求所有提供给军方的 AI 技术必须移除限制,这直接导致了双方合同的重新谈判。
在海格塞斯(Pete Hegseth)强硬的施压策略背后,是一套精心编织的替代方案。
就在阿莫代(Dario Amodei)被传唤至五角大楼的几乎同一时间,埃隆·马斯克旗下的AI公司 xAI 与五角大楼达成了协议,同意让其模型 Grok 进入机密系统,并完全接受了军方「用于所有合法目的」的标准。

https://www.axios.com/2026/02/23/ai-defense-department-deal-musk-xai-grok
xAI 的妥协为五角大楼提供了向 Anthropic 施压的绝佳筹码。
不仅如此,谷歌(该公司曾声称信条是: Don't be evil)和 OpenAI 也在紧锣密鼓地与军方接洽。

https://www.nytimes.com/2026/02/23/us/politics/pentagon-anthropic-ai.html
知情人士透露,五角大楼正以前所未有的紧迫感推动与这两家巨头的谈判。
谷歌为了专门服务政府已经投入巨资建设数据中心,其 Gemini 模型被视为极具潜力的替代品。
虽然 OpenAI 的 ChatGPT 目前仍在机密网络之外,且由于复杂的安全问题距离达成协议尚有距离,但大门已经敞开。

https://www.nytimes.com/2026/02/23/us/politics/pentagon-anthropic-ai.html
这构成了对 Anthropic 的极限施压。
军方官员直言不讳地指出,如果 Anthropic 不让步,就让其彻底出局。
将 Anthropic 列为「供应链风险」是一项极具毁灭性的惩罚。
这意味着任何希望与国防部做生意的企业,都必须提供证明,确保其工作流程中没有使用 Claude。

https://www.axios.com/2026/02/24/anthropic-pentagon-claude-hegseth-dario
对于一家估值高达 3800 亿美元、年化收入正以十倍速度疯涨的明星独角兽而言,这无疑是切断了其在政府(To G)与企业级市场(To B)最丰厚的一条主脉。
更为极端的威胁是《国防生产法》。
这项在新冠疫情期间曾被用来强制生产呼吸机和疫苗的法案,此刻被异化为一种带有敌意的行政大棒。
五角大楼试图借此绕过商业谈判,以国家安全的名义直接剥夺一家科技公司对其核心产品的控制权。
尽管有顾问指出 Anthropic 可以在法庭上抗辩,证明 Claude 是为政府敏感用途定制的软件而非普通商品,但这种旷日持久的法律消耗战同样是初创公司难以承受之重。
「暂停键」的消亡与绝对安全的幻灭
就在外界的目光聚焦于华盛顿的政治交锋时,Anthropic 内部正在进行一场痛苦的路线修正。
Anthropic 由达里奥·阿莫代(Dario Amodei)及其妹妹丹妮拉·阿莫代(Daniela Amodei)等一众前 OpenAI 核心成员创立。

妹妹 Daniela Amodei
这群人当年离开 OpenAI 的初衷,正是担忧资本的过度介入会使得 AI 的安全被抛之脑后。
成立之初,Anthropic 就确立了将安全性作为最高信仰的企业文化。
2023 年出台的第一版《负责任的扩展政策》更是将这种信仰条文化。
那份政策中有一个被外界广泛赞誉的条款,即如果模型能力超越了特定的安全阈值,且公司无法保证相应的风险缓解措施到位,Anthropic 将无条件暂停新模型的训练和部署。
当时的 Anthropic 高层曾天真地认为,这种单边承诺能够产生一种「向上攀比」的示范效应。他们希望借此倒逼整个行业将安全置于速度之上,并最终促成具有约束力的国家法规甚至国际条约。
3 年的时间足以让任何乌托邦式的幻想破灭。
Anthropic 的首席科学官杰瑞德·卡普兰(Jared Kaplan)在接受采访时道出了变更政策的实情。

全球 AI 立法的步伐不仅没有跟上技术的发展,反而出现了严重的倒退。
美国新一届政府高举放松监管的大旗,甚至试图废除部分州一级的 AI 监管法案。
国际间的协同治理更是遥遥无期。与此同时,同行间的算力军备竞赛已经进入白热化。
「如果我们停下脚步,而竞争对手正在毫无顾忌地全速前进,这对于任何人都没有好处。」卡普兰的这番话解释了RSP 3.0 的核心逻辑。
新版政策完成了从「绝对风险」向「边际风险」的评估体系转移。
Anthropic 在文件中坦承,AI造成的灾难性风险取决于全行业多个参与者的共同行动。
如果一家负责任的开发者为了实施安全措施而暂停开发,那些缺乏安全保障的开发者就会主导技术的前沿。
结果将是一个更加不安全的世界,因为负责任的公司会因此丧失对前沿技术的理解力,进而失去进行安全研究的能力。
这是一个充满宿命感的悖论。
为了确保 AI 的安全,必须让它足够强大;
为了研究前沿的风险,必须自己先触及前沿。
Anthropic 最终得出的结论是:在大模型时代,没有公司可以停在原地。
这种转变也源于科学评估的困境。
早期的政策设想中,安全阈值被设定为一条条清晰的红线。
然而实际操作中,红线变成了模糊的渐变色。
以生物武器研发风险为例,现有的 Claude 模型已经具备了相当程度的生物学知识,能够轻易通过各项基准测试。
这使得 Anthropic 无法证明该模型风险很低。
缺乏能够量化严重灾难风险的成熟科学标准,让 Anthropic 在试图说服竞争对手或政府放慢脚步时显得极其缺乏说服力。
没有退路的前沿实验
作为对放弃「单边暂停」承诺的补偿,Anthropic 在 RSP 3.0 中引入了更为密集的透明度机制。
他们承诺每 3 到 6 个月发布一次详尽的「风险报告」(Risk Reports)(特别写明了:「部分内容会进行删减」),并在必要时引入无利益冲突的第三方进行严格的外部审查。

https://www.anthropic.com/news/responsible-scaling-policy-v3
公司还会定期更新「前沿安全路线图」(Frontier Safety Roadmap),将未来的安全目标公之于众,作为一种不具强制法律约束力却能接受公众监督的软性承诺。
非营利组织 METR 的政策主管克里斯·佩因特(Chris Painter)将 Anthropic 的这一转变形容为进入了「分诊模式」(Triage mode)。

在医疗急救中,分诊意味着放弃对轻伤者的即时救治,集中有限的资源抢救最危重的病人。
在 AI 安全领域,这意味着 Anthropic 承认现有的评估和缓解手段已经跟不上模型能力增长的速度,他们只能在不断升级的风险中做最坏打算。
佩因特表达了对这种「温水煮青蛙」效应的担忧:当二元化的安全红线被取消,由一项项具体的风险评估取而代之时,社会可能会在不知不觉中滑向危险的深渊,却再也不会有一个明确的触发机制来拉响警报。
回望五角大楼那间气氛凝重的会议室,我们或许能更深刻地理解 Anthropic 眼下的处境。
面对军方的极限施压,阿莫代依然拒绝在「大规模监控」和「致命自主武器」这两项直接关乎人命与公民权利的应用层面上妥协——至少在明面上要维持住公司体面的「人设」。
他们已经意识到,在这个由算力、资本和国家意志共同驱动的庞大齿轮前,一家试图通过闭门修行的初创公司是极其脆弱的。
如果拒绝五角大楼,将被贴上敌视国家安全的标签,被驱逐出拥有无穷资源的市场,进而被那些没有道德包袱的竞争对手碾压。
为了留在牌桌上,他们必须保持技术领先;
为了保持领先,他们必须放弃当年立下的那份会阻碍扩张步伐的誓言。
从坚持绝对安全,到寻求相对安全;
从单方面暂停训练的果决,到只求在狂飙的列车上加装更好刹车片的妥协。
Anthropic 的蜕变史,就是一部硅谷 AI 理想主义在现实土壤上的降级史。
技术精英们曾经深信自己可以用算法和政策为人类锁住潘多拉的魔盒,但地缘政治的压力和商业竞争的残酷重塑了游戏的规则。
在这条通往 ASI 的单行道上,人类最终会惊恐地发现,比机器失控更早到来的,是人类自己对按下暂停键的无能为力。
参考资料:
https://www.anthropic.com/news/responsible-scaling-policy-v3
