
今天,2026年3月1日,一大早,新闻推送铺天盖地——伊朗最高领袖哈梅内伊,身亡。
美以联合空袭,他在领袖办公室里被炸死。连同他的女儿、女婿在内,4名亲属一起遇难。
伊朗媒体公布了他生前最后一句被记录下来的话:
"当人们遭受炮火袭击时,我和我的家人为什么要躲进避难所?"
他没躲。然后他死了。
伊朗宣布全国哀悼40天。特朗普在社交媒体上发了一个词:"已死。"然后补了一句:轰炸继续。
这件事本身已经足够震撼。但真正让我后背发凉的,不是导弹,不是爆炸,不是地缘政治的剧变——
而是杀死他的那套系统背后,站着一个AI。
01 空袭背后的AI
根据目前已知信息,美军在这次对伊朗的空袭准备阶段,深度使用了Anthropic公司的Claude Gov模型,部署在美国国防部机密网络上的版本。
它干了什么?
第一,情报合成。
伊朗的核设施在哪,领导层藏在哪,导弹阵地分布,防空系统部署——这些情报来自卫星图像、信号情报、地面线人、公开信源,数据量是天文数字。传统的人工分析团队处理这些,需要几天甚至几周。Claude在几分钟之内就能完成优先级排序和风险链分析,直接输出可执行的"目标包"。
第二,作战规划与模拟推演。
空袭路线怎么飞能避开伊朗防空网?打击序列怎么排最优?伊朗可能的报复场景有哪些?每一种"如果……那么……"的推演,AI都能在极短时间内跑完。据报道,Claude与Palantir的系统集成后,直接接入了美军中央司令部的作战工作流。
第三,网络战辅助。
分析伊朗的网络威胁能力,制定电子战干扰预案。
需要说清楚的是:AI没有按下发射按钮。所有致命决策仍然是人类做的——特朗普下的令,指挥官拍的板,飞行员投的弹。Claude是"规划阶段的超级大脑",不是"执行阶段的杀手"。
但这个区分,正在变得越来越模糊,越来越不重要。
因为一个残酷的事实是:如果没有AI把那片情报海洋在几分钟内变成一张清晰的作战地图,这次空袭不会来得这么快、这么准、这么致命。
美国国防部内部人士对Defense One说过一句话,大意是:如果现在突然切断Claude,"我们需要好几个月才能找到替代方案。"
这不是一个可有可无的辅助工具。这是作战链条的一部分。
02 前脚封杀,后脚真香
现在故事来到了最荒诞的部分。
就在空袭发生的前一天——2月27日——特朗普刚刚签署命令,对Anthropic实施全面封杀。
事情的起因是这样的:五角大楼向Anthropic、OpenAI、谷歌等AI公司提了一个要求——移除安全护栏,开放模型供所有军事用途使用。
OpenAI态度灵活,谷歌在观望,马斯克的xAI直接拥抱。
只有一家公司硬顶了回去。
Anthropic说:不行。
创始人达里奥·阿莫迪明确拒绝让Claude用于"国内大规模监控"和"全自动致命武器系统"。这是他的底线,也是这家公司从成立第一天起就刻进基因里的东西。
特朗普暴怒。他在社交媒体上骂Anthropic是"试图强迫战争部服从其服务条款的左翼疯子",说他们"危及国家安全"。
然后,封杀令下来了:
联邦政府所有机构立即停用Anthropic技术,6个月过渡期;
国防部长海格塞斯将Anthropic列为"供应链风险"——这个标签,以前只用来对付外国敌对势力;
所有想跟美军做生意的承包商,必须切断与Anthropic的商业往来。
一家估值3800亿美元、刚融完300亿美元、年收入140亿美元的美国本土AI巨头,就这样被自己的政府定点清除。
2月27日签封杀令。一天之后,用着Claude的系统炸死了哈梅内伊。
6个月过渡期,系统不会一夜之间拔掉。所以炸死哈梅内伊的那套作战规划系统里,大概率还跑着Anthropic的模型。
03 AI改变战争的速度,超乎想象
把时间轴再拉远一点看。
2026年1月3日,美军执行代号"绝对决心"的行动,150多架飞机从20个基地起飞,直升机贴着海面30米高度飞行,突入委内瑞拉首都加拉加斯,把总统马杜罗和他妻子从住所里抓走,送上军舰。
全程4小时43分钟。从特朗普下令到马杜罗被押上船——不到5个小时。
美军参联会主席凯恩的描述听起来像科幻小说:"情报团队数月的努力",锁定了马杜罗的移动模式、住所位置、出行路线、饮食习惯、着装偏好,甚至他养的宠物。然后选择了一个天气转晴的夜晚,瓦解防空系统,直升机突入,抓人,撤离,全程保持"行动的突然性"。
这种级别的情报精度和行动节奏,在AI介入之前几乎不可能实现。
还记得找本·拉登花了多长时间吗?
将近10年。
从2001年"9·11"之后开始追踪,到2011年海豹突击队突入巴基斯坦阿伯塔巴德的那座院子,美国用了将近十年时间,才把这个世界上被追踪最紧的人找到并击毙。中间经历了无数次情报断裂、假线索、政策摇摆。
2026年,锁定一个国家元首的位置、行动模式和最佳突袭窗口,可能只需要几周。
这就是AI带来的变化。不是武器变了,是"找到你"和"决定怎么打你"的速度变了。
04 AI战争时代已经来了
这不是从今天才开始的。
以色列军方从加沙战争起就在使用AI目标识别系统——代号"福音"(Gospel)和"薰衣草"(Lavender)。"薰衣草"系统能在海量数据中自动标记潜在的军事目标人物,据报道,人类审核员平均只花20秒就批准一个AI生成的打击建议。20秒,决定一个人的生死。
美军自己的Project Maven,从2017年就开始用AI分析无人机视频画面,自动识别目标。当时谷歌员工爆发了大规模抗议,4000多人签署请愿书,十几人辞职。谷歌最终退出了这个项目。
但军方没有停。Project Maven活得好好的,只是换了承包商。
在乌克兰战场上,AI控制的无人机蜂群已经不是概念,而是实战武器。小型无人机依靠机器视觉自主识别目标、自主决定攻击路径,成本低到可以像弹药一样消耗。
Palantir的战场决策系统已经部署在多个战区,能把卫星、无人机、地面传感器、情报数据库的信息实时融合成一张作战图——指挥官看到的不再是一堆散乱的报告,而是一个AI消化过的、带建议的、几乎可以直接下令的作战方案。
现在,Claude被推上了国防部的机密网络。
你看到趋势了吗?
从分析视频,到标记目标,到融合情报,到规划空袭路线,到模拟推演整场战争——AI在战争中承担的角色,正在一层一层往上叠加。
而"人类最终决策"这条防线,正在被速度压缩成一个形式。
当AI在几分钟内就能给你一份完整的打击方案,标好了目标、算好了路线、预判了对方反应、评估了附带损伤——你作为指挥官,你有多大概率会说"不,让我花三天自己重新算一遍"?
你不会的。没有人会的。战场不等人。
"人类在环"正在从一个实质性的决策环节,变成一个盖章程序。
05 最深的矛盾
所以我们回到Anthropic的故事。
这家公司的创始人达里奥·阿莫迪,从OpenAI出走,创办Anthropic,核心理念就是做"安全的AI"。他们的模型叫Claude,他们的宪法叫Constitutional AI,他们的口号是"负责任地开发前沿AI"。
他们是认真的。当五角大楼说"把安全护栏拆了",只有他们说了不。
代价是什么?
被自己的国家封杀。被总统在社交媒体上辱骂。被贴上"供应链风险"的标签——跟俄罗斯、伊朗、朝鲜的实体一个待遇。3800亿美元的估值面临自由落体。
与此同时,他们的技术仍然在军方的机密网络上运行,仍然在帮助规划那些他们试图设限的军事行动。
而马斯克的xAI已经接入了军方网络。OpenAI和谷歌正在排队填补Anthropic留下的空间。
550名谷歌和OpenAI员工签署公开信声援Anthropic。但公开信改变不了合同,改变不了利润,改变不了权力的逻辑。
海格塞斯说得很直白:"五角大楼需要的是没有意识形态约束的AI。军方的AI绝不能是觉醒的。"
翻译成人话就是:我们需要一个没有道德感的超级大脑。你要么听话,要么滚。
06 冷兵器到热兵器之后,下一次跃迁
人类战争史上有过几次根本性的跃迁。
从冷兵器到火药,战争的杀伤半径从几米扩展到几百米。从火药到核武器,杀伤半径扩展到了整座城市。
AI带来的不是杀伤半径的扩展,而是决策速度的坍缩。
以前,从"发现威胁"到"实施打击",中间隔着漫长的情报收集、分析研判、方案制定、多层审批。这个时间差,某种程度上是人类的安全阀——它给犹豫留了空间,给谈判留了窗口,给"要不再想想"留了余地。
AI正在把这个时间差压缩到接近于零。
当"找到目标"和"生成打击方案"之间只隔几分钟,当AI能在你还没想清楚的时候就把一份完美方案摆在你面前——战争的门槛不是变高了,而是变低了。
杀一个人的决策成本,从十年变成了几周。
这才是哈梅内伊之死真正让人不寒而栗的地方。
死的不只是一个人。死的是人类用了几千年才建立起来的、那套缓慢而笨拙但至少给和平留了缝隙的战争决策机制。
07 写在最后
我是一名科技博主,我相信AI是这个时代最强大的工具。
但今天,看着这三条新闻放在一起——
哈梅内伊被AI辅助的系统定位并炸死; 马杜罗被AI辅助的情报体系锁定并抓走; 而提供这项技术的公司,因为坚持"不用于全自动杀人"这条底线,被自己的政府封杀——
我第一次觉得,"AI改变世界"这句话,沉重得让人喘不过气。
Anthropic做错了吗?
说不清。如果他们顺从了,Claude可能已经被用于更多无约束的军事行动。如果他们不顺从,结果你也看到了——技术照样被用,只是未来会换成一个没有任何底线的替代品。
这就是2026年最残酷的悖论:
有良心的AI公司被赶走了,没良心的AI公司顶上了。技术不会因为你设了红线就停下来,它只会绕过你继续往前跑。
达里奥·阿莫迪试图证明,一家AI公司可以既强大又负责任。他可能是对的。但权力的逻辑不在乎你对不对,只在乎你听不听话。
550名硅谷工程师联名声援的公开信,在一纸行政令面前,轻如鸿毛。
有人可能会说:AI只是工具,刀不杀人,人杀人。
这话没错,但只对了一半。
菜刀是工具,你得走到人面前才能用。枪是工具,你得看到人才能开。导弹是工具,你得知道人在哪才能打。
AI改变的,恰恰是"知道人在哪"这个环节的速度和精度。
它把战争中最关键的瓶颈——情报、判断、决策——从人类的生理极限中解放了出来。以前你的安全靠的是"他们找不到我",或者"他们来不及反应"。现在,AI让"找不到"和"来不及"同时失效。
哈梅内伊说"我不躲"。
在AI时代,躲不躲,可能已经不重要了。
2026年才刚过去两个月。
1月,美军用AI辅助抓走了一个国家的总统。 2月,美军用AI辅助炸死了另一个国家的最高领袖。 同一个月,提供AI技术的公司被自己的政府封杀,因为它拒绝交出最后的安全阀。
三件事连在一起看,你会发现一条清晰的逻辑线:
AI已经成为战争机器的核心组件。而谁来给这台机器设刹车——这个问题,目前没有答案。
唯一试图踩刹车的人,已经被踢下了车。
我不知道这篇文章该怎么结尾。因为这个故事没有结尾。
六个月过渡期之后,Claude会从美军系统中被彻底移除。替代它的,可能是马斯克的Grok,可能是OpenAI的下一代模型,可能是某个我们还不知道名字的军用AI。
但有一件事是确定的:
替代品不会有Anthropic的红线。
不会有"不用于全自动致命武器"的限制。 不会有"不用于国内大规模监控"的底线。 不会有一个创始人站出来对总统说"不"。
那时候,AI在战争中的角色,会从"规划阶段的超级助手"变成什么?
我不敢想。
但我觉得每一个人都应该想一想。
这不是科幻。这是今天的新闻。