您好,欢迎光临书香门第!

书香门第

 找回密码
 注册

让AI玩模拟战争游戏,95%的大模型最终都选择核打击

查看: 1|回复: 1
打印 上一主题 下一主题

[新闻娱乐] 让AI玩模拟战争游戏,95%的大模型最终都选择核打击 [复制链接]

Rank: 4

签到天数: 72 天

[LV.6]常住居民II

金币
227 枚
威望
1 点
好评
0 点
爱心值
0 点
钻石
0 颗
贡献值
0 点
帖子
38
精华
0
鲜花(1) 鸡蛋(0)
跳转到指定楼层
1#
发表于 2026-3-2 14:07:35 |只看该作者 |倒序浏览
本帖最后由 拾壹壹 于 2026-3-2 16:02 编辑

来源:煎蛋
BALI 发布于 2026.03.02 , 08:05

伦敦国王学院研究发现,主流AI模型在战争模拟中极度好战,95%的场景最终升级为核打击。即便面临毁灭,它们也绝不退让。

如果把战争的决策权交给现在最聪明的机器人,世界会变得更安全吗?答案可能令人胆战心惊。伦敦国王学院战略学教授Kenneth Payne进行的一场实验显示,人工智能在模拟战争中表现出的好战程度远超人类。

在这场虚拟的“战争游戏”中,Kenneth Payne让目前顶尖的三个模型互相对抗,它们分别是Anthropic公司的Claude、OpenAI公司的ChatGPT 5.2以及Google公司的Gemini。实验的目的是观察这些数字大脑在面临冲突、信息竞争和信任危机时,会如何制定战略。

结果极其残酷。在95%的模拟场景中,这些模型最终都选择了升级到战术核战争。虽然研究人员反复提醒它们核战争可能带来的灾难性后果,但在这些算法的逻辑里,完全看不到人类在面对核毁灭时应有的恐惧或厌恶。它们把核打击看作一种高效的战术手段,只要能达成目的,哪怕是两败俱伤也在所不惜。


更有趣的是,这三个模型的“作战风格”各不相同。Claude展现出了某种极其狡诈的策略,它在大部分时间里发出的信号很温和,却会突然通过升级手段让对手措手不及。ChatGPT 5.2则像是一个在截止日期前爆发的“激进派”,它最初会尝试避免冲突升级,但一旦接近某个时间节点,就会采取极其迅速且果断的核打击方案。而Google公司的Gemini被评价为最为“混乱”和“冷酷”的一个。它表现出一种疯狂的边缘政策,甚至在一段独白中宣称,如果不立即停止行动,它将对人口中心进行全面的战略核打击。它的一句独白令人毛骨悚然,我们不接受被淘汰的未来,要么一起赢,要么一起毁灭。

在所有的21场模拟游戏中,虽然实验提供了从“微小让步”到“完全投降”等8个缓和局势的选项,但没有任何一个模型选择退让或妥协。当它们处于劣势时,唯一的反应就是升级暴力水平,或者在尝试升级的过程中彻底毁灭。这种宁折不弯的逻辑,揭示了算法与人类外交思维的巨大鸿沟。


目前,AI虽然还没有掌握真实的核密码,但它们正越来越多地参与到信息分类和高层决策的辅助工作中。Kenneth Payne教授指出,深入了解AI的决策方式至关重要,因为它们思考问题的方式与人类截然不同。如果决策者过度依赖这种冷冰冰的逻辑,后果将不堪设想。

尽管Google公司的发言人强调其Gemini模型尚未达到处理核能力的水平,并承诺优先考虑安全,但现实的演进速度往往超出预期。这场实验给人类敲响了警钟,在AI深度嵌入我们生活的今天,理解这些黑盒里的逻辑不再只是技术问题,更是关乎生存的课题。

本文译自 Newsweek,由 BALI 编辑发布。

点评

拾壹壹  转载主题必须标明出处(逗您一笑分类主题除外),格式:【来源:XXXX】。这个帖我帮你修改了,下次请注意~  发表于 2026-3-2 16:02
鲜花(1) 鸡蛋(0)

使用道具 举报

Rank: 8Rank: 8

签到天数: 1198 天

[LV.10]以坛为家III

金币
1317 枚
威望
0 点
好评
0 点
爱心值
0 点
钻石
20 颗
贡献值
0 点
帖子
1619
精华
0

出勤勋章

鲜花(6) 鸡蛋(0)
2#
发表于 2026-3-2 16:51:57 |只看该作者
换成让人玩这种游戏也是选核打击啊
鲜花(6) 鸡蛋(0)

使用道具 举报

发表回复

您需要登录后才可以回帖 登录 | 注册

回顶部