2月24日,星期二。华盛顿,五角大楼。

Anthropic CEO Dario Amodei坐在国防部长Pete Hegseth对面。据NPR和CNN多家媒体援引知情人士透露,会面的气氛‘礼貌’,但内容一点都不客气。

Hegseth给出了一个明确的最后通牒:周五下午5:01前,必须允许五角大楼将Claude用于‘所有合法用途’,包括自主武器瞄准和国内大规模监控;否则,将取消2亿美元合同,启动《国防生产法》强制征用,并将其列为‘供应链风险’,等同于列入俄罗斯与中国敌对实体黑名单。

同一天,Anthropic发布了第三版‘负责任扩展政策’(RSP 3.0),悄悄删掉了自公司成立以来最核心的一条承诺:若无法保证安全措施到位,就不训练更强大的模型。

也是同一天,Elon Musk在X上发帖称:“Anthropic大规模窃取训练数据,这是事实。”同时,X社区笔记补充报道,该公司因使用盗版书籍训练Claude,已支付15亿美元和解金。

七十二小时内,这家自称有‘灵魂’的AI公司,同时扮演了三个角色:安全殉道者、知识产权窃贼、五角大楼的叛徒。哪个才是真的?也许都是。

五角大楼的“要么服从,要么滚”

故事的第一层很简单。

Anthropic是首家获得美国国防部机密级访问权限的AI公司。去年夏天拿到的合同上限为2亿美元。OpenAI、Google、xAI随后也各获得同等规模合同。

据Al Jazeera报道,Claude曾被用于今年1月的一次美军行动,涉及委内瑞拉总统马杜罗的绑架。

但Anthropic划了两条红线:不支持全自主武器瞄准,不支持对美国公民的大规模监控。其理由是当前人工智能的可靠性不足以操控武器,且尚无法律法规规范其在大规模监控中的应用。

五角大楼不买账。

白宫AI顾问David Sacks去年10月在X上公开指控Anthropic‘以恐惧为武器,搞监管俘获’。

竞争对手已全面让步。OpenAI、Google、xAI均同意军方将其AI用于‘所有合法场景’。Musk的Grok本周刚获批进入机密系统。

Anthropic是最后一个站着的。

截至发稿,该公司在最新声明中表示并未打算让步。但周五5:01的大限,已近在眼前。

一位匿名前司法部与国防部联络员对CNN表示困惑:“你怎么能同时宣布一家公司是‘供应链风险’,又强迫它为军队服务?”

好问题,但这不在五角大楼考虑范围之内。他们关心的是:若Anthropic不妥协,将采取强制手段,或直接将其视为弃儿。

“蒸馏攻击”:一场打脸式的控诉

2月23日,Anthropic发布一篇措辞激烈的博客,指控三家中国AI公司对Claude实施了‘工业级蒸馏攻击’。

被告为DeepSeek、Moonshot AI、MiniMax。

Anthropic称,对方通过2.4万个伪造账户,发起超过1600万次交互,定向提取Claude在智能体推理、工具调用和编程方面的核心能力。

该公司将此定性为国家安全威胁,声称蒸馏后的模型‘不太可能保留安全护栏’,可能被威权政府用于网络攻击、虚假信息和大规模监控。

叙事看似完美,时机也极为巧妙。

恰好在特朗普政府放宽对华芯片出口管制之后,恰好在Anthropic需要为自身芯片出口管制立场寻找弹药之时。

但Musk一枪命中:‘Anthropic大规模窃取训练数据,还为此支付了数十亿美元和解金。这是事实。’

AI基础设施公司IO.Net联合创始人Tory Green指出:‘你们用全网数据训练模型,然后别人用你们的公共API学习你们,就叫蒸馏攻击了?’

在AI行业,蒸馏本是常态。OpenAI用它压缩GPT-4,Google用它优化Gemini,连Anthropic自己也在做。唯一不同的是,这次被蒸的是它自己。

据新加坡南洋理工大学AI教授Erik Cambria对CNBC表示:‘合法使用与恶意利用之间的边界往往是模糊的。’

更讽刺的是,Anthropic刚为使用盗版书籍训练Claude支付15亿美元和解金。它用全网数据训练模型,却指控他人用其公开接口学习。这不是双标,这是三标。

Anthropic本想扮演受害者,结果被扒成了被告。

安全承诺的拆除:RSP 3.0

就在与五角大楼对峙、与硅谷互撕的同一天,Anthropic发布了第三版负责任扩展政策。

首席科学家Jared Kaplan表示:‘我们觉得停止训练对任何人都没有帮助。在AI快速发展的背景下,单方面做出承诺……而竞争对手全速推进,这没有意义。’

换句话说,别人不讲武德,我们也不装了。

RSP 1.0和2.0的核心是一条硬性承诺:一旦模型能力超过安全措施覆盖范围,立即暂停训练。这条承诺让Anthropic在AI安全圈建立了独一无二的声誉。

但3.0版本中,该条款已被删除。

取而代之的是一个更‘灵活’的框架:将内部安全措施与需全行业协作的建议分为两条轨道。每3至6个月发布一份风险报告,并邀请外部专家审阅。

听起来很负责?

来自非营利组织METR的独立审查员Chris Painter看完草案后表示:‘这说明Anthropic认为需要进入‘分诊模式’,因为评估和缓解风险的方法跟不上能力增长的速度。这更多地证明了社会对AI潜在灾难性风险没有做好准备。’

根据TIME报道,此次政策改写耗时近一年,CEO Amodei与董事会全票通过。官方解释是,原政策旨在推动行业共识,但现实是行业根本没跟上。特朗普政府对人工智能采取放任态度,甚至试图废除各州相关法规。联邦层面的人工智能法律遥遥无期。尽管2023年建立全球治理框架尚有可能,但三年过去,这扇门已关闭。

一位长期跟踪AI治理的匿名研究员直言:‘RSP是Anthropic最值钱的品牌资产。删掉暂停训练承诺,就像一家有机食品公司悄悄把‘有机’两个字从包装上撕下来,然后告诉你他们现在的检测更透明了。’

3800亿估值下的身份撕裂

2月初,Anthropic以3800亿美元估值完成300亿美元融资,亚马逊为锚定投资者。自成立以来,已实现140亿美元年化收入,过去三年每年增长超10倍。

然而,五角大楼正威胁将其列入黑名单。Musk公开指控其数据盗窃。核心安全承诺被删除。其人工智能安全负责人Mrinank Sharma辞职后在X上写道:‘世界正处于危险之中。’

矛盾?

或许矛盾正是Anthropic的基因。

这家公司由前OpenAI高管创立,初衷是防止后者在安全问题上走得太快。但他们自己建了一家更快构建更强模型的公司,同时告诉全世界这些模型有多危险。

商业模式可概括为一句话:我们比任何人都更害怕AI,所以你应该出钱让我们来造AI。

这个叙事在2023至2024年运作良好。AI安全是华盛顿热词,Anthropic是最受欢迎的游说者。

2026年,风向变了。

‘woke AI’成为攻击标签,州级监管法案遭白宫阻击。尽管支持的加州SB 53已签署成法,但联邦层面一片荒芜。

Anthropic的安全牌,正从‘差异化优势’滑向‘政治负资产’。

它在玩一场复杂的平衡术:既要足够‘安全’维持品牌,又要足够‘灵活’避免被市场和政府抛弃。问题是,两头的容忍空间都在缩小。

安全叙事,还值多少钱?

把三件事叠在一起看,画面就清楚了。

指控中国公司蒸馏Claude,是为了强化芯片出口管制的游说叙事;为了在军备竞赛中不掉队,删除了安全暂停承诺;拒绝五角大楼的自主武器要求,是为了保住最后一层道德外衣。

每一步都有逻辑,但每一步之间又互相矛盾。

你不能一边说中国公司‘蒸馏’你的模型会危害国家安全,一边删掉防止你自己的模型失控的承诺。如果模型真的那么危险,你应该更谨慎,而不是更激进。

除非你是Anthropic。

在AI行业,身份不是由你的声明定义的,而是由你的资产负债表定义的。Anthropic的‘安全’叙事,本质上是一种品牌溢价。

在AI军备竞赛早期,这种溢价值钱。投资者愿为‘负责任的AI’支付更高估值,政府愿为‘可信赖的AI’开绿灯,客户愿为‘更安全的AI’付费。

但2026年,这个溢价正在蒸发。

Anthropic现在面临的,不是‘要不要妥协’的选择题,而是‘先向谁妥协’的排序题。向五角大楼妥协,品牌受损;向竞争对手妥协,安全承诺作废;向投资者妥协,两头都得让。

周五下午5:01,Anthropic将交出它的答案。

但无论答案是什么,有一件事已经确定:那个曾经靠‘我们和OpenAI不一样’立足的Anthropic,正在变得和所有人一样。

身份危机的终点,往往是身份的消失。