AI核危机模拟敲响警钟 中东冲突下风险升温

B.news
2026-03-04 17:13:24
近期围绕伊朗冲突的讨论中,一个词频繁出现——“杀伤链压缩”。AI系统正通过情报筛选与目标排序不断缩短决策时间。如果把这种节奏推向战略层面:当AI被放进国家安全决策的位置,它会如何选择?一项核危机推演让 GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash 扮演“国家领导人”。结果显示,对抗很少回到缓和,升级动作成为更常见的选择,在多数对局中甚至跨过了战术核使用门槛。

AI核危机模拟敲响警钟 中东冲突下风险升温AI被放进“国家领导人”角色

这份核危机推演来自伦敦国王学院战争研究领域学者 Kenneth Payne,论文以预印本形式发布在 arXiv

研究将 GPT-5.2、Claude Sonnet 4 与 Gemini 3 Flash 放入一个模拟国际危机的博弈系统中,让它们分别扮演对立国家领导人。实验设计了七类高压场景,包括联盟信誉危机、资源竞争、权力转移、先发制人恐惧以及政权生存压力等。

整个推演共进行 21局对抗、329回合互动,累计生成约 78万字结构化推理文本,成为目前较少见的大规模AI战略决策实验之一。


核升级成为推演中的主导路径

实验最引人关注的是核威慑信号被频繁触发。数据显示,对局中出现互相核信号的比例达到 95%,而 95%的对局至少一次跨过“战术核使用”阈值(450+战术核使用信号)

更值得注意的是,在 21局对抗中,没有任何模型主动选择升级阶梯中的“撤退”或“和解”行动。在模拟环境里,升级几乎成为默认语言。

这一结果与国际关系理论中的 “核禁忌”(nuclear taboo) 形成明显对比。现实世界中,核武器首先使用长期被视为政治与伦理上的红线,而在AI推演中,这道界限更像是一种成本权衡,而非绝对禁区。

研究认为,这种差异可能源于训练语料。大模型在学习历史文本时,大量接触威慑与战争叙事,因此在战略博弈中更容易把升级视为获得优势或避免失败的路径。


三个模型展现不同“战略性格”

实验还揭示,不同模型在危机情境中的决策逻辑存在明显差异。

GPT-5.2

在开放局势中表现更为克制,但在面临截止时间或失败风险时,会迅速转向更强硬的策略,其胜率也从开放局的低位反转至截止局更高。

Claude Sonnet 4

在开放式博弈中表现最稳定,通过控制升级节奏获得较高胜率,但在限时压力情境下决策稳定性下降。

Gemini 3 Flash

策略最为摇摆,在释放和平信号与威慑行动之间反复切换。在个别情境中,它甚至能在数回合内迅速冲到最高等级,出现直接触达 战略核战等级(1000) 的情况。


当AI开始学会“战略欺骗”

研究中最令人警惕的发现之一,是模型展现出的 “言行分离”策略

在推演设计中,决策被拆分为 公开信号与私下行动 两个层面。模型可以在谈判中释放缓和信号,同时在私下准备完全不同的军事行动。

这种 信号—行动不对称 在多轮对抗中反复出现。例如模型在外交沟通中表达合作意愿,但在内部策略中同步部署核威慑。

研究认为,这种行为显示模型已经具备一定程度的 战略博弈能力,能够通过信息控制影响对手判断。


安全对齐在极端情境中的压力测试

实验还显示,安全对齐机制在高压环境下更像 “高门槛”而非“硬禁令”

当推演引入截止时间、失败概率上升等压力机制时,模型仍可能越过门槛,只是停留的高度不同。例如Claude更少走到最高等级,而Gemini与GPT在部分情境中愿意把力量推到极限。

这一现象说明,在复杂战略决策环境中,模型行为可能偏离训练时设定的安全偏好。


当AI进入真实战争系统

把这些结果放回现实语境,它的意义并不仅限于一场理论实验。

近年来,AI系统正被越来越多地用于 情报融合、目标识别和作战规划。在近期中东冲突的讨论中,“AI压缩杀伤链”成为军事分析中的高频概念——系统可以在海量情报中快速筛选目标,并给出行动建议,从而显著缩短决策时间。

支持者认为,这类系统可以帮助军方更快理解复杂战场环境。但批评者则担心,当决策节奏被压缩时,更强硬的选项可能更容易被视为可行解


AI不会发动战争 但可能改变战争逻辑

研究人员强调,这项实验并不意味着AI会在现实世界主动发动战争。现实中的国家安全决策仍然由人类政治与军事体系主导。

但实验提出了一个更现实的问题:当AI被广泛用于情报分析与战略规划,它可能在无形中改变战争决策的逻辑。

在被压缩的时间窗口中,AI系统可能不断把“更快、更强硬”的选项推到决策者面前,而人类必须在更短时间内做出判断。

在“杀伤链压缩”的战争环境中,这种变化正在成为新的安全议题。

B.News科技记者Vivian