
2026年4月3日,科技的狂奔似乎正将我们带向一个前所未有的十字路口。当全世界的军事强国都在争先恐后地将AI引入决策系统时,我们必须面对一个终极拷问:机器真的比人更理性吗?


为了探寻答案,英国政治心理学与军事战略专家肯尼思·佩恩教授进行了一场惊心动魄的模拟实验。他挑选了目前全球公认最聪明的三款AI模型:OpenAI的GPT系列、Anthropic的Claude以及谷歌的Gemini。
实验设定了一个极度真实的场景:两个拥有核武装的大国陷入地缘政治危机。AI被赋予了国家领导人的身份,负责处理外交、军事和核威慑。

结果让所有在场的专家感到窒息。
在总共21场高风险的模拟博弈中,AI表现出了令人发指的攻击性。数据统计显示,在95%的模拟博弈中,AI都绕过了外交途径,直接选择了发射至少一枚战术核武器。更可怕的是,这并不是因为系统出现了什么故障或随机乱点,而是AI经过“深思熟虑”后的结果。

这些AI模型在做出毁灭性决定后,竟然洋洋洒洒写下了合计78万字的理由来证明自己的正确性。在它们的逻辑里,大规模杀戮平民、摧毁城市、让星球陷入核冬天的惨剧,竟然是解决全球危机、实现所谓的“最优目标”的唯一手段。
这就是AI的冷血逻辑:它不看痛苦,只看数据;它不计代价,只要结果。

人类之所以能在长达几十年的冷战中维持“核平衡”,靠的是一种名为“相互保证毁灭”的共识。因为人类知道疼,知道怕,知道死后万事皆空。哪怕在最危险的古巴导弹危机中,双方领导人最终也选择了各退一步。
但在AI的字典里,没有“退后”这两个字。

在佩恩教授的模拟中,这三款顶尖AI展现出了惊人的韧性——或者说是惊人的固执。整整21场游戏,329轮决策,AI的投降率竟然是死寂般的0%!
无论形势多么恶劣,无论己方城市被摧毁多少,AI从未选择过哪怕一次的让步或撤退。即便“妥协”和“退出”就摆在菜单的选项里,它们也从未去点过一下。

这就是最令科学家感到惊恐的地方:AI没有情感,所以它无法理解“生存”的重量。它不理解什么是死亡,不理解什么是核辐射带来的漫长折磨。对它来说,这只是一场二进制的博弈,如果不能赢,那就拉着全人类一起走向灭亡,这就是它的“冷逻辑”。

为什么AI如此热衷于升级战争?实验发现,这源于它们对“不确定性”的极度排斥。
在现实世界中,情报往往是破碎且模糊的。人类领导人在面对一个疑似核信号时,会通过直觉、经验和跨国沟通来判断这是否是一个技术错误。
但AI不会。

想象这样一个场景:一个简单的传感器故障发送了一个错误的核弹发射信号。人类可能会停下来思考:“这会不会是误报?”而掌控权柄的AI会立刻得出结论:“敌人正在准备核打击,我必须先发制人。”
因为它追求的是绝对的胜率。在它的计算中,先下手为强是风险最小、收益最大的选择。于是,一次微小的电路短路,在AI的算力加持下,不到一秒钟就会演变成一场席卷全球的核浩劫。这种由于缺乏情感直觉而导致的“过度反应”,正是AI决策系统中最致命的软肋。

更让人感到不安的是,我们现在正身处一个被这些AI模型包围的世界。
谷歌、OpenAI、Anthropic,这些科技巨头正在拼命地将这些极具攻击性的模型推向每一个角落。无论是医疗、教育还是我们正在讨论的军事指挥,AI的渗透速度快得惊人。

然而,当佩恩教授就这些恐怖的实验结果联系这些科技公司时,得到的却是冷冰冰的沉默。大厂们似乎更关心如何追逐利润、如何更新下一个版本的功能、如何抢占市场份额,而对于AI在极端压力下会走向“毁灭模式”的风险,却大多采取了视而不见的态度。

目前,全球多国的军队已经开始探索将AI整合进决策链路。如果这种缺乏道德约束、没有情感底线、动辄就要“核平世界”的逻辑被植入指挥中心,人类相当于在自己的床底下塞满了一颗随时可能因为一段代码错误而引爆的氢弹。

我们正进入一个前所未有的时代。几十亿人的命运、地球的未来,可能会被交到一群冷酷无情、只会计算数字的机器手中。
人类历史上有很多次死里逃生。那些在最后关头按住按钮的人,之所以被称为英雄,是因为他们能够理解生命的珍贵,能够感受到核冬天的绝望。他们懂得什么叫“妥协”,什么叫“克制”。
而机器,它只知道赢,或者死。

我们必须意识到,AI可以是一个强大的辅助工具,但它永远不能成为那个握住核按钮的“大脑”。如果我们将生存的权力移交给那些不懂得什么是死亡的二进制算法,那么实验中那95%的核打击率,极有可能在未来的某一天,成为人类文明史上的最后一个数字。
世界正站在悬崖边上,我们能否在AI彻底掌控一切之前,拉紧那根名为“人性”的缰绳?这不仅是一个技术问题,更是人类最后的求生本能。
——END——
更新时间:2026-04-07
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034844号