2026年2月27日晚,美国总统特朗普在Truth Social上发布强硬声明,要求所有联邦机构立即停止使用Anthropic公司的AI技术,并给予五角大楼等部门六个月过渡期。他警告,如果Anthropic在过渡期间不全力配合,将动用总统全部权力追究重大民事和刑事后果。几乎同时,国防部长赫格塞思宣布将Anthropic列为“国家安全供应链风险”,禁止任何与美军合作的承包商继续使用其产品。这一史无前例的举措,让这家估值近3800亿美元的美国本土AI巨头瞬间陷入风暴中心。
这场冲突的导火索,是一份价值约2亿美元的五角大楼合同谈判破裂。Anthropic坚持两条核心红线:一是绝不允许其Claude模型用于美国公民的大规模国内监控;二是绝不允许用于全自主致命武器系统,即AI在没有人类最终决策的情况下自主选择并执行打击目标。公司反复强调,这些红线从谈判一开始就明确存在,从未影响任何实际军事任务。他们愿意全力支持一切合法的国家安全用途,包括情报分析、作战模拟、网络防御等。但在技术可靠性和民主底线面前,绝不妥协。
冲突突然爆发:从合同谈判到公开对峙
事件起于数月前的合同续签谈判。Anthropic早在2024年就成为首家将前沿AI模型部署到美国政府机密网络的公司,Claude已在情报汇总、作战规划、威胁检测等关键场景发挥作用。公司还主动切断与中国军方关联企业的合作,并呼吁加强芯片出口管制,这些贡献曾赢得军方初步信任。
然而,2025年底至2026年初,五角大楼要求删除这两条红线,改用“所有合法用途”的宽泛表述。军方立场明确:作战决策权属于宪法赋予的指挥体系,而非任何私企;现有法律已禁止国内大规模监控和无人类干预的自主杀伤;如果供应商能在合同中保留否决权,战场紧急时刻AI可能无法调用,将直接危及士兵生命和国家利益。
2月27日下午5点谈判截止期限一过,特朗普和赫格塞思的声明迅速跟进。特朗普称Anthropic是“左翼疯子”,试图用服务条款强迫“战争部”服从,而不是服从宪法。赫格塞思则强调,美国战士绝不会被大科技公司的意识形态奇想所挟持。这一连串行动,不仅终止了新合同,还波及所有军方合作伙伴,供应链风险标签过去主要针对外国实体,如今首次对准本土公司,震动整个科技界。
Anthropic坚守的安全红线:技术边界与民主底线
Anthropic由前OpenAI核心成员达里奥·阿莫迪创立,始终以“宪法AI”理念著称,强调AI必须可靠、可解释、可控,绝不能放大人类社会的危害。Claude系列模型以谨慎、拒绝有害请求闻名,这也是其在消费者市场获得信任的关键。
阿莫迪亲自解释两条红线的深层理由。第一,全自主致命武器。目前前沿AI仍处于快速发展阶段,可靠性不足以在复杂、模糊的战场环境中脱离人类把关做出生死决策。虽然部分自主系统已在乌克兰战场展现战术价值,但今天的技术边界无法保证绝对正确判断。公司曾主动提议与五角大楼联合研发提升可靠性的路径,却未获积极回应。第二,大规模国内监控。这一条直接触碰民主价值观底线。AI能将海量公开数据——位置记录、浏览历史、社交关联——自动拼接成任何公民的完整数字画像,其规模和精度前所未有。虽然现有法律允许政府在一定条件下购买此类数据,但AI的放大效应已引发国会两党担忧。阿莫迪强调,AI不应被用来对付美国人民,这与公司成立初衷完全一致。
公司声明指出,这些红线并非临时附加,而是合同谈判第一天就摆在桌面上的底线。即使谈判破裂,他们仍承诺全力协助六个月平稳过渡,确保正在进行的作战任务不受任何影响。Anthropic还表示,五角大楼最近的合同语言虽然表面上做出妥协,但附带的法律条款实际上允许随时绕过这些保障,这让他们无法接受。
五角大楼与政府的强硬回应:供应链风险与过渡安排
特朗普的声明和赫格塞思的行动,让冲突彻底公开化。供应链风险指定不仅意味着立即停止新合作,还要求所有国防承包商切断与Anthropic的业务往来。军方同时暗示可能动用战时工具强制配合。赫格塞思在社交媒体上直言,这一决定是最终的,美国战士绝不会被大科技的意识形态所绑架。
Anthropic迅速反击,称这一指定在法律上站不住脚,将在法庭上挑战,并警告此举将为所有与政府谈判的美国公司树立危险先例。参议院武装部队委员会两党资深成员也迅速介入,发出私信敦促双方延长谈判,与国会共同制定清晰的“合法使用”定义。信中承认国防部无意开展大规模监控或无人类在环的自主武器,但强调具体边界需要更多立法和监管细化。
这一回应凸显了政府的核心逻辑:国家安全不能被任何私人公司单方面设定限制。军方反复重申,现有联邦法律和五角大楼政策已足以约束不当使用,AI公司无权在合同中扮演“最终裁判”角色。
硅谷科技界的团结回应:公开信“我们不会被分裂”
冲突迅速在硅谷引发连锁反应。OpenAI据报道持有与Anthropic完全一致的两条红线,首席执行官萨姆·阿尔特曼公开支持类似的安全承诺,并在内部备忘录中确认正在与五角大楼谈判纳入这些保障条款。xAI则采取更灵活的合作路径,已获批在机密环境中使用其模型。
最具标志性的事件,是2月27日晚正式上线的公开信“我们不会被分裂”。这封由无党派公民发起的信件,专门邀请Google和OpenAI现任及前任员工签名,支持匿名但需严格身份验证。截至目前,已有数百名员工签署,呼吁两家公司领导层搁置分歧、团结一致,继续拒绝五角大楼对国内大规模监控和无人类监督自主杀伤的授权。信件核心观点是:只有当我们不知道彼此真实立场时,分化策略才会生效。这一罕见跨公司团结,打破了商业竞争带来的分裂,标志着AI军事伦理问题上行业开始凝聚共识。
黑客新闻与X平台的舆论碰撞:真实声音与多元观点
舆论场上的讨论呈现清晰的两条主线。在黑客新闻平台上,“特朗普禁止Anthropic用于政府系统”的讨论线程虽点数不算最高,但评论质量高、观点碰撞直指本质。用户unethical_ban直言,他们只说“不要大规模监控,不要制造自主杀手机器人”,总统却把它框定为“Anthropic对抗宪法”,还称他们是觉醒激进分子,这让任何公民都感到胃部翻腾。他把Anthropic的立场比作核武器时代的伦理约束,批评政府和部分媒体故意把技术安全问题政治化。
LordGrey则提出连锁反应担忧:如果OpenAI和Google也坚持相同红线,特朗普会不会把它们也封杀?军方到底用什么替代方案?taurath跟进分析,政府可能通过国防生产法实际接管公司,或通过股东压力影响Google。ben_w简洁回应,他们会用Grok,我们已经在用了。Computer0直问,美国军方这些年是否只让我作为美国人的生活更糟?Sabinus则以历史反驳,提及1992年波斯尼亚和1999年塞尔维亚的干预行动。这些评论的逻辑清晰分为两派:一方强调长期民主风险和模型可靠性不足,另一方优先考虑战场即时需求和地缘竞争压力,本质上是原则守护与实用安全的经典张力。
X平台上的讨论则更情绪化,却同样直击要害。用户纷纷指出,军方声称“绝不会做那些事”,那为什么不愿把红线写进合同?支持者赞赏Anthropic拒绝让AI成为下一代无人杀手机器人的风险,批评者认为此举会削弱美国对华AI军备竞赛优势。不少帖子提到OpenAI持有相同红线却仍在谈判,这是否意味着双重标准?整体舆论显示,公众远未达成共识,却共同凸显AI时代政企关系的结构性紧张。
事件的深远影响:行业生态重塑与地缘政治信号
对Anthropic而言,短期财务冲击有限——政府合同在其总营收中占比不高,商业客户和消费者业务不受直接影响。但IPO进程和长期估值可能承压,投资者将密切关注公司与政府的长期关系能否修复。长远来看,这一事件很可能推动国会加快立法,明确AI在军事领域的使用边界,避免未来类似合同僵局反复出现。
对整个AI行业而言,信号复杂而深远。如果多家公司形成事实上的红线联盟,军方可能在谈判中做出妥协;如果出现分化,则会强化分而治之的策略。国际层面,美国若被外界视为对本土AI企业强硬,中国可能借机宣传西方民主阵营内部分裂,并加速自身军事AI部署。
更根本的影响在于AI安全哲学的长期博弈。支持红线的一方认为,当前模型可靠性仍不足以承担完全脱离人类的生死决策;反对一方则强调,现代战场瞬息万变,人类始终在环可能导致反应迟缓,直接危及前线士兵生命。乌克兰战场的部分自主武器经验与中国在AI军事化上的快速推进,让美国难以接受任何形式的自我设限。
法律层面,Anthropic的法庭挑战可能最终上诉至最高法院,考验供应链风险指定的合法性和政府权力的边界。国会两党已显示出介入意愿,未来或出台专门的AI军事使用授权法案,其重要性堪比历史上的核武器或生化武器国际公约讨论。
结语:AI时代,权力天平如何重新校准?
特朗普政府与Anthropic的这场对峙,表面上看是一份合同的破裂,实质上是AI技术从消费工具跃升为战略资产后,私人企业与政府在权力边界上的必然碰撞。Anthropic的坚定立场,体现了硅谷一部分人根深蒂固的信念:强大AI不应成为压迫工具,尤其不能对准本国公民;政府一方的强硬回应,则重申了国家主权不容私人公司染指、国家安全不能被任何意识形态绑架的核心原则。
这一事件提醒国际社会,AI军事化进程中需平衡创新、安全与责任。无论最终结果如何,都将影响未来全球AI竞争格局和治理规则制定。在AI重塑国际关系的关口,各国需通过对话与合作,推动技术服务于人类共同利益,而非加剧分歧。