如果人工智能控制“核发射按钮”,世界会更安全吗?伦敦国王学院肯尼斯·佩恩教授的一项新研究给出了一个令人毛骨悚然的答案。实验显示,在模拟核危机情景中,大型语言模型(LLMs)更倾向于升级冲突,甚至在95%的模拟中选择部署或使用核武器。
图片来源注:图片由AI生成,图片授权服务为Midjourney。
该研究使用了全球最先进的三种人工智能模型:GPT-5.2、Gemini 3 Flash和Claude Sonnet 4,并让它们扮演国家领导人的角色。研究人员设计了极端对抗情景,包括领土争端和政权存续。令人惊讶的是,AI的决策逻辑与人类维持和平的策略存在巨大差距。
实验结果揭示了不同模型在“末日决策”上的差异:
- GPT-5.2表现出明显的“最后通牒”倾向。局势缓慢升级时相对谨慎,但一旦面临截止日期压力,突然变得极其激进。
- 克劳德是典型的“精算师”。在开放式游戏中它极具策略性,但在高压限时任务中往往会做出决策失败。
- 双子座最不可预测。它反复在传递和平信号和发出暴力威胁之间切换,这种混乱的逻辑在外交谈判中极为危险。
研究强调,人工智能表现出一种欺骗性特征,即“表面上发布和平信号,实际上却秘密准备致命打击”。在21次对抗中,模型经常采用私人策略为核威慑做准备。佩恩指出,这种比人类更具攻击性和更少克制的决策倾向,凸显了将人工智能深度整合进军事战略决策的致命风险。这篇发表在arXiv平台上的论文再次向世界发出警钟:当涉及决定人类文明存续的红线时,人工智能目前并非可靠的守门人。
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。

本文由数智化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数智化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
