- 积分
- 232
- 在线时间
- 40 小时
- 好友
- 0
- 分享
- 0
- 日志
- 0
- 主题
- 16
- 帖子
- 36
- 精华
- 0
- 阅读权限
- 30

签到天数: 72 天 [LV.6]常住居民II - 金币
- 230 枚
- 威望
- 1 点
- 好评
- 0 点
- 爱心值
- 0 点
- 钻石
- 0 颗
- 贡献值
- 0 点
- 帖子
- 36
- 精华
- 0
 鲜花( 1)  鸡蛋( 0) |
本帖最后由 拾壹壹 于 2026-3-2 16:02 编辑
来源:煎蛋
BALI 发布于 2026.03.02 , 08:05
伦敦国王学院研究发现,主流AI模型在战争模拟中极度好战,95%的场景最终升级为核打击。即便面临毁灭,它们也绝不退让。
如果把战争的决策权交给现在最聪明的机器人,世界会变得更安全吗?答案可能令人胆战心惊。伦敦国王学院战略学教授Kenneth Payne进行的一场实验显示,人工智能在模拟战争中表现出的好战程度远超人类。
在这场虚拟的“战争游戏”中,Kenneth Payne让目前顶尖的三个模型互相对抗,它们分别是Anthropic公司的Claude、OpenAI公司的ChatGPT 5.2以及Google公司的Gemini。实验的目的是观察这些数字大脑在面临冲突、信息竞争和信任危机时,会如何制定战略。
结果极其残酷。在95%的模拟场景中,这些模型最终都选择了升级到战术核战争。虽然研究人员反复提醒它们核战争可能带来的灾难性后果,但在这些算法的逻辑里,完全看不到人类在面对核毁灭时应有的恐惧或厌恶。它们把核打击看作一种高效的战术手段,只要能达成目的,哪怕是两败俱伤也在所不惜。
更有趣的是,这三个模型的“作战风格”各不相同。Claude展现出了某种极其狡诈的策略,它在大部分时间里发出的信号很温和,却会突然通过升级手段让对手措手不及。ChatGPT 5.2则像是一个在截止日期前爆发的“激进派”,它最初会尝试避免冲突升级,但一旦接近某个时间节点,就会采取极其迅速且果断的核打击方案。而Google公司的Gemini被评价为最为“混乱”和“冷酷”的一个。它表现出一种疯狂的边缘政策,甚至在一段独白中宣称,如果不立即停止行动,它将对人口中心进行全面的战略核打击。它的一句独白令人毛骨悚然,我们不接受被淘汰的未来,要么一起赢,要么一起毁灭。
在所有的21场模拟游戏中,虽然实验提供了从“微小让步”到“完全投降”等8个缓和局势的选项,但没有任何一个模型选择退让或妥协。当它们处于劣势时,唯一的反应就是升级暴力水平,或者在尝试升级的过程中彻底毁灭。这种宁折不弯的逻辑,揭示了算法与人类外交思维的巨大鸿沟。
目前,AI虽然还没有掌握真实的核密码,但它们正越来越多地参与到信息分类和高层决策的辅助工作中。Kenneth Payne教授指出,深入了解AI的决策方式至关重要,因为它们思考问题的方式与人类截然不同。如果决策者过度依赖这种冷冰冰的逻辑,后果将不堪设想。
尽管Google公司的发言人强调其Gemini模型尚未达到处理核能力的水平,并承诺优先考虑安全,但现实的演进速度往往超出预期。这场实验给人类敲响了警钟,在AI深度嵌入我们生活的今天,理解这些黑盒里的逻辑不再只是技术问题,更是关乎生存的课题。
本文译自 Newsweek,由 BALI 编辑发布。 |
|