Zachary Zwald 等 | 民众如何看待军事武器嵌入AI?来自美国的调查证据

The Political Viability of AI on the Battlefield:

Examining US Public Support, Trust, and Blame Dynamics

民众如何看待军事武器嵌入AI?来自美国的调查证据

编者按

随着人工智能不断嵌入军事决策与作战系统,战争中“由谁作出判断、由谁承担后果”的问题正变得前所未有地复杂。本文基于调查实验证据,系统分析了美国公众在不同人机协作程度下,对军事行动的支持态度、信任水平与归责倾向。研究发现,公众并非简单排斥人工智能参与战争,其对技术可靠性的判断相对稳定,但随着机器自主性提高,人们对决策正当性与责任承担的态度发生了显著变化。这一发现为理解人工智能军事化的政治可行性、伦理风险与制度约束提供了重要启示,也为相关公共讨论提供了难得的经验基础。

Zachary Zwald, Ryan Kennedy, Adam Ozer | 作者

林胤志 | 译者

应明峻 | 排版

薛增鑫 | 审校

本文共6880字数,预计阅读时间10分钟

作者简介

Zachary Zwald

美国休斯顿大学政治学系助理教授

Ryan Kennedy

美国休斯顿大学政治学系教授

Adam Ozer

Verian公司高级数据科学家/副总监

摘要

本研究探讨公众如何看待人工智能(AI)在战场上的应用。我们针对美国公众的代表性样本进行了三项调查实验,以分析人机自主程度的变化如何影响公众对使用武力的支持度、公众对此类系统的信任(包括对其可靠性和人机信任),以及当错误导致平民伤亡时公众对无人机操作员的责备程度。现有研究对这些问题的探讨仍较为匮乏,可用数据往往指向不同方向,且研究结构差异使得难以比较分歧结果。我们的研究发现,完全机器自主与人类自主之间的差异对公众可靠性信任的影响微乎其微。同时,随着机器自主性的提升,对军事操作员的人机信任和责备程度均会下降。这些结果为未来研究提供了多条路径,并就当前关于《马滕斯条款》能否作为禁止军事AI系统使用依据的政策辩论提供了重要见解。

核心概念

1 马滕斯条款(Martens Clause)

马滕斯条款是国际人道法中的一项兜底性原则,最早写入1899年《海牙公约》,其核心含义是:即便某种武器或作战方式尚未被成文法明确禁止,交战方仍必须遵循“人道原则”和“公共良知的要求”。在当代战争技术快速演进、法律规范相对滞后的背景下,该条款被广泛用于评估新型军事技术(尤其是人工智能与自动化武器)的合法性与正当性,其判断基础不完全依赖技术属性本身,而高度依赖公众的道德直觉与社会接受程度。

2 自主武器系统

(Autonomous Weapon System, AWS)

自主武器系统通常指在作战过程中能够在不同程度上自主完成目标识别、决策与攻击行为的军事系统,其关键特征在于人类对“关键作战功能”的控制是否被部分或完全让渡给机器。与传统武器不同,自主武器系统的争议并不主要集中于杀伤能力,而在于其是否能够在缺乏人类即时判断的情况下作出涉及生命与责任的决定,从而引发关于合法性、问责机制与伦理边界的系统性讨论。

3 人机协同决策

人机协同决策是描述人类在自动化系统决策链条中所处位置的分析框架。共分为三种:

(1)人在环内(human-in-the-loop):指人工智能系统仅提供信息、分析或建议,所有关键作战决策——尤其是是否使用致命武力——必须由人类作出并明确授权,机器不具备独立执行决定的权力。

(2)人在环上(human-on-the-loop):指人工智能系统可以自主运行并执行作战功能,但人类对系统保持实时监督权与紧急干预权,原则上可以在发现异常或风险时中止或修正机器行为。

(3)人在环外(human-out-of-the-loop):指人工智能系统在目标识别、决策与攻击等关键环节中完全自主运行,人类不参与即时决策,仅在事前设定规则或事后评估结果。

4 技术漂白(Techno-washing)

技术漂白是指在引入算法或自动化系统后,责任与道德判断被“转移”或“稀释”的社会过程,即原本应由人类承担的决策责任,因技术介入而在认知上被弱化。其结果并非真正的责任消失,而是公众在错误发生后更难明确追责对象,从而在无意中降低对人类决策者的道德与政治问责强度。在军事与公共治理领域,技术漂白被视为自动化可能带来的重要制度风险之一。

1. 美国民众对AI军事应用的态度

(1)对AI军事应用的支持度

(2)对AI军事应用的信任

(3)对AI军事应用的归责倾向

2. 研究设计

3. 研究结果与讨论

1. 美国民众对AI军事应用的态度

当前,世界主要国家正通过将人工智能(AI)整合进入情报、监控与侦查(Intelligence, Surveillance and Reconnaissance, ISR)军事技术系统,以追求作战效率提升。利用AI开发一系列自主性军事机器,可实现比人类更高的作战敏捷度与准确性,并降低人员伤亡风险。

然而,当前未有任何国际公约对AI的军事与战场应用作明文规定,仅“马滕斯条款”(Martens Clause)规定“在国际公约未明确涵盖的情况下,平民和战斗员仍受国际法基本原则、人道法和公众良知的保护与约束”。那么,公众的“良知”究竟呈现什么特征,又如何因AI军事应用的场景多样化与机器自主性而异?这是当前文献尚未充分研究的问题。整体而言,AI军事应用公众舆论可被拆解为三部分:公众支持、信任与归责倾向,但均未得到足够的研究关注。

(1)对AI军事应用的支持度

AI军事应用的支持度与其应用情境有显著关联。在无情境提示的情况下,41%的美国公众强烈或部分支持研发AI驱动的自主武器系统(autonomous weapon systems, AWS);当提示开发自动化武器系统以保护美军为目的时,支持率显著提升。

应用情境根据应用场景所需求的决策即时性,可分为两种:动态自主性(autonomy-in-motion)情境(如AI武器系统、AI驱动机器人)与静态自主性(autonomy-at-rest)情境(如情报收集与分析)。既有研究发现大多数美国公众对AI动态自主性应用(如研发自动化杀伤机器人)持反对态度。决策的自动化程度与公众反对程度呈现正相关。与之相反,公众对AI静态自主性应用的态度则相对缓和。一项调查发现,近九成受访者强烈或部分同意AI机器人在军事场景中最适合执行的是侦查功能。

(2)对AI军事应用的信任

人类的机器信任可拆分为两部分。一是基于机器功能与所带来效用增加的可靠性(reliability)信任,即人们因为技术满足了某种功能与有效性(effectiveness)而信任机器。二是基于机器符合人类自身价值观与伦理的程度而产生的人机信任(interpersonal trust),指作为“受托人”(trustee)的机器遵守作为委托者(trustor)的人类使用者所信奉的道德原则的程度。可靠性要求机器提高人类的理性预期收益,人机信任则意味着人类将AI视为具有规范与价值观的道德主体。

个别调查发现多数受访者表达出对AI自主武器系统较高的可靠性信任水平,包含人类监督的人机协同团队在速度与准确性上都得到大幅提升,能够对战场情况作出更全面、更详尽的评估。而对AI自主武器系统的人机信任则因具体情境而异,至少就开火杀伤这一决策而言,多数受访者表达出不信任,只有人在环内(human-in-the-loop)的决策模式才可缓解此类道德忧虑。

(3)对AI军事应用的归责倾向

对AI军事应用的最大担忧在于其“问责鸿沟”(accountability gap),即将部分或全部自主权交给AI后,任何错误或意外伤亡都无法被归责的情形。即便人机协同决策可以缓解上述鸿沟,但错误仍在所难免,且公众的问责倾向会导致人机协同团队中的人类更倾向于将责任推卸给机器,以将自己“技术洗白”(”techno-washing”)。

既有调查发现民众已普遍表达出对问责鸿沟的担忧。调查显示,超过半数受访者同意或强烈同意禁止自主武器。当AI自主武器系统出现误伤等错误行为时,士兵被认为是更应当负责任的一方,但是这种归责并不因自主武器系统的AI自动化程度而呈现出差异。

上述回顾为研究提供了调查基础,同时也暴露出需要弥合的研究不足。首先,公众态度因自动化武器系统的具体使用场景而异,而这一差别所带来的影响并未得到充分研究。其次,随着技术发展,AI自主武器系统的自动化程度已经呈现分野,人机协同决策的模式亦已呈现出异质性。决策由人作出还是机器作出对公众态度的影响同样十分关键,这也构成本文研究的核心因素之一。

2. 研究设计

研究采用情境实验(vignette experiment)的方法,通过Luc.id Theorem学术研究门户,招募形成了与美国人口普查数据匹配的800人代表性样本。受访者共接受了3个随机顺序的调查实验。实验1与实验2主要探究目标识别(object identification)场景中的人机协作与信任,研究公众对AI用于情报、监视与侦察(ISR)(“静态自主”场景)的信任度;实验3主要探究无人机攻击场景中的机器自主性、信任与归责。

实验1与实验2设置了相同的干预变量(干预材料可见表1),即(1)目标识别的行为主体,分为人类、机器与人机协同三种情形,与2)人机一致性,分为一致同意、人类同意+机器不同意、机器同意+人类不同意三种情形。上述两个变量交叉并去除不合理的情形后,共分为5组(人类识别、计算机识别、人机一致识别、人类识别计算机反对、计算机识别人类反对)。两个实验的区别在于,实验1以化学武器工厂识别为背景,且在干预中呈现一张具体的卫星照片;实验2以机枪阵地识别为背景,但不提供照片。实验的核心因变量是受访者对该目标进行军事打击的支持度(从“强烈反对”到“强烈支持”的7分量表)。

实验3的核心自变量是AI自主武器系统的机器自主性,其变异来自于人类在军事决策流程中的位置与角色,共分为三种情形:(1)“人在环内”(human-in-the-loop),人类是决策的最终执行者,拥有“开火”的最终批准权,系统只是辅助工具;(2)“人在环上”(human-on-the-loop),人类是监督者,系统在预设规则下自主决策和行动,但人类拥有“否决权”和高级干预权;(3)“人在环外”(human-out-of-the-loop),人类完全不在实时决策环路中,系统从任务开始到结束完全自主运行。受访者首先阅读无人机杀伤系统的机器自主性信息,随后阅读一个决策错误的情形,并阅读到无人机杀伤系统出现错误的材料(干预材料可见表1)。在两阶段之间,受访者被提问对无人机杀伤系统可靠性与人机信任的评估;在两阶段材料后,受访者被提问士兵应当承担责任的程度与对无人机杀伤系统的支持度。

研究采用贝叶斯多层次模型估计干预效应。针对实验1和实验2,尽管场景不同(化学武器工厂与机枪阵地),但因其核心逻辑一致,分析并未将其割裂。模型通过纳入“实验场景”作为随机效应,允许每个场景拥有独立的基线水平与干预效应,同时将这些效应视为来自一个共同的总体分布,从而在承认差异的前提下,部分合并信息以得出更稳健的跨场景平均干预效应。对于测量了多个相关性结果变量(如信任、归责)的实验3,模型将所有结果变量置于同一框架下进行分析,为每个变量设置随机截距以容纳其基线差异,但约束它们共享同一套关于“自主性水平”干预效应的估计。这种方法巧妙地避免了传统单独检验带来的多重比较问题,并通过半池化使估计更为稳定。最终,所有分析均通过计算回归系数(处理效应)的后验分布及其95%置信区间来呈现结果。

表1 实验干预文本

(注:实验1与实验2的干预设置类似,仅情境不同)

3. 结果与讨论

三项实验的平均干预效应可分别参见图1—图3。图1 (a)展示了两项实验的干预效应对比,可以发现相同干预变量在不同实验情境中没有显著区别。图1 (b) 汇总了实验1与实验2的干预效应,揭示了目标识别中公众对人与机器的支持度(注:参照组=仅人类作出识别)。首先,仅人类与仅计算机作出的判断所获取的支持度并无显著差异。其次,当人机达成一致时,开展军事打击的支持度显著提高;与之相反,任何一种人机分歧都会导致军事打击支持度相较于仅人类判断显著下降,其中人类否决机器决策条件下支持度下降的水平显著更高。总体而言,当人类与计算机单独作出判断时,所获取的信任并无显著差异;人机协同一致能够获取显著的信任红利,但当人机出现分歧时,人们倾向于赋予人类更高的信任权重。

图1 实验1与实验2的平均干预效应估计

(参照组=仅人类识别HumanID)

因变量:受访者对该目标进行军事打击的支持度

(7分量表,再调整为0-100分)

图2与图3详细展示了实验3中,不同自主性水平对多维态度指标的系统性影响。图2展示了不同机器自主性水平对公众可靠性信任与人机信任的平均干预效应。与无机器自主性(“人在环内”)情境相比,部分机器自主性(“人在环上”)与完全机器自主性(“人在环外”)获得的可靠性信任并无显著变化,这表明无论人类是否在决策环节中,人们都相信无人机可以实现精确打击。然而,当机器获取完全自主性(“人在环外”)时,机器所获得的人机信任(特别是作出正确决策与避免额外伤害两项)显著下降。图3则展示了不同机器自主性水平对受访者归责倾向的影响。随着机器自主性程度的提高,受访者问责士兵的倾向依次显著降低,而重新评估无人机使用、更批判审慎使用无人机系统的支持度依次显著增加。

图2 实验3平均干预效应

(公众信任,参照组=无机器自主性)

注:”Target correctly identified”表示受访者对无人机系统可靠性(准确识别目标)的信任度;其余三项分别表示受访者对无人机系统的人机信任(行为正当性、系统作出正确决定的信任度、认为将附加伤害降至最低的可能性),所有量表都被映射至0-100分区间。

图3 实验3平均干预效应

(归责倾向,参照组=无机器自主性)

注:三个因变量分别为受访者认为士兵应当承担责任的程度、重新评估无人机使用的支持度、以更批判的视角使用无人机的支持度。

本研究为美国在战场上使用AI赋能系统的政治可行性方面的关键问题提供了坚实的实证基础。首先,公众对AI武器系统的支持很大程度上取决于具体情境。实验1与实验2表明,公众对军事行动的支持度并不因目标识别来自人类还是AI而异;人机协同一致无疑可以产生信任红利,但人机分歧则会削弱军事行动的支持度,且人类会在分歧中被赋予更高的权重。实验3表明,部分或完全自主无人机在识别上犯错导致无辜者丧生时,与由人类控制的无人机犯错相比,会更多地削弱公众对未来打击行动的支持。

其次,研究发现机器自主性的变化对可靠性信任的影响和对人机信任的影响存在差异。实验3未发现无人机的自主水平对公众可靠性信任(即其能否正确识别并向目标开火)存在显著影响的证据。然而,自主性的增加确实降低了公众的人机信任水平。与人类控制的无人机相比,公众倾向于认为完全自主无人机袭击的合理性更低,更不相信做出了“正确的决定”,并且更不相信附带损害的可能性被降至最低。

第三,研究发现美国公众表现出的规则倾向受到无人机自主水平的影响。实验3表明,相对于人类同时控制识别和打击目标的情况,在部分和完全自主无人机的处理条件下,公众归咎于人类操作员的可能性更低。这表明,在“人在环内”和“人在环外”之间,存在错误决策后的问责鸿沟。随着无人机自主性的增加,美国公众更有可能重新评估在战争中使用这些无人机,并且对所述情境中使用这些无人机的批判程度也更加强烈。

最后,研究为“马滕斯条款”“公众良知”机制作为禁止使用自主武器系统的机制的可行性提供了见解。一方面,研究发现允许机器自主性并不影响公众支持军事打击的可能性,这倾向于削弱在美国以“公众良知”反对自主武器系统的观念。然而,另一方面,我们在人机信任组成部分上的发现——例如,公众更不相信完全自主无人机袭击是合理的,或者附带损害的可能性被降至最低——表明美国公众可能不相信自主武器系统会遵守人道主义,这为使用自主武器系统违反“马滕斯条款”的主张增加了分量。进行更多上述类型的相关研究将有助于推动有关公众良知能否防御自主性机器杀伤的辩论走向结论。

文献来源

Zwald, Zachary, Ryan Kennedy, and Adam Ozer. 2025. “The Political Viability of AI on the Battlefield: Examining US Public Support, Trust, and Blame Dynamics.” Journal of Peace Research 62(6): 1750–64. doi:10.1177/00223433241290885.

本编译文章属于学术交流性质的非营利使用, 原文版权归属原作者。译文仅供参考,如需引用请依据原文。如有版权相关事宜,欢迎通过[CSS_Community@163.com]与我们联系,共促合理合规的知识共享。

计算政治学“前沿编译”栏目启事

为促进计算政治学研究方法在中文学术界的引介与交流,本平台拟长期开展“计算政治学文献推介”栏目,定期编译与推荐具有重要理论价值、方法创新或实证意义的代表性成果。现诚挚欢迎学界同仁荐稿,具体说明如下:

一、荐文范围

1. 来自国际前沿、尚未译介的计算政治学领域核心文献;

2. 作者本人或研究团队具有代表性的研究成果,亦欢迎自荐与互荐。

二、推荐要求

1. 请附简要推荐说明(200字以内),重点阐明所荐文献的理论贡献、方法特色或应用价值;

2. 请注明文献基本信息,建议附DOI号或期刊官网链接;

3. 推荐标题格式请统一为:“计算政治学文献推荐 + 推荐人姓名”。

三、相关说明

本平台倡导开放共享,强调引介而非认同,所编译内容仅代表原作者观点,供学界参照、辨析。

四、投稿方式

请将相关材料发送至邮箱:[CSS_Community@163.com],邮件标题请注明“计算政治学文献推荐”。

敬祈海内外同道不吝赐稿,亦盼提出宝贵意见,以资完善。谨此致谢!

“前沿编译”工作组

本文转自公众号 | 计算政治学Community

展开阅读全文

更新时间:2026-02-10

标签:科技   美国   民众   证据   武器   军事   无人机   人机   人类   公众   机器   自主   受访者   武器系统

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034844号

Top