文档介绍:试论战争中的人工智能对国际人道法的影响
【摘要】近年来,人工智能技术发展迅猛,加快了具备自主控制能力的武器和战斗系统在战争中的应用,美国国防部和军方已经表示将人工智能与武器系统结合是未来趋势,欧洲各国也在加紧研制各类自主控制武试论战争中的人工智能对国际人道法的影响
【摘要】近年来,人工智能技术发展迅猛,加快了具备自主控制能力的武器和战斗系统在战争中的应用,美国国防部和军方已经表示将人工智能与武器系统结合是未来趋势,欧洲各国也在加紧研制各类自主控制武器系统,但这势必会对目前国际人道法原则发起挑战,影响其对非人道行为的制裁。本文将从介绍战争中人工智能技术的运用情况出发,探讨其对国际人道法体系的挑战,对未来国际人道法的发展提出可行的建议。
【关键词】人工智能 国际人道法 挑战与对策
一、战争中人工智能技术运用介绍
人工智能,是指能够使机器以人类智能相似的方式作出反应的计算机技术,它不是人的智能,但可以超过人的智能。在战争中,人工智能可以依靠大数据的分析,对军事指挥官的军事行动提供决策建议,但最后的决定权依旧掌握在指挥官手中,故在这一应用场景下,人工智能技术只是作为数据资料,不產生违反国际人道法的情况。而人工智能目前最主要并且最具争议的应用主要体现在自主控制武器的使用。
红十字国际委员会提出,自主控制武器是指能够独立选择目标进行攻击的武器。而美国国防部则认为自主控制武器是指在投入使用后可以自主选择目标并与之交战的武器。各方对于自主控制武器的定义都表明独立自主地选择目标并进行不同程度的打击是这决定这一武器不同于传统军事技术的关键。自主控制武器能够在减少武器使用方战斗员伤亡的情况下实现军事目的,成为各国加快速度研发这一武器系统并广泛应用于战争中的现实动力。因此,对于这一技术是否符合国际人道法的规定的研究存在一定的必要性。
二、国际人道法基本原则概述
在国内外学者对于国际人道法的研究中,比例原则和区分原则均属于国际人道法的基本原则成为各方的共识。因此,要分析自主控制系统是否具备合法性,就要从研究比例原则和区分原则出发。
(一)比例原则
在国际人道法体系中,比例原则主要体现在日内瓦公约《第一附加议定书》的第五十一条和第五十七条中。按照第五十一条的规定,预期的军事利益若不及附带造成的损失,那么这次军事行动便违反了比例原则。而第五十七条规定了在实施军事行动时,应尽可能采取预防措施,以降低对平民和民用物体造成的危险。另外,在日内瓦公约《第二附加议定书》以及《国际刑事法庭规约》中,均有对比例原则的相关规定。
(二)区分原则
区分原则在《圣彼得堡宣言》中首次被阐述,此后在多部法律文件中得到重申。日内瓦公约《第一附加议定书》第四十八条将区分原则描述为,为了尊重与保护平民和民用物体,冲突各方无论何时都要区分平民和战斗员,民用物体和军事目标。国际刑事法庭也在关于核武器合法性问题的咨询意见中表示,国家并没有无限制的权利选择其使用的作战手段和方法。
三、自主控制武器合法性探究
(一)自主控制武器与比例原则
根据比例原则的要求,自主控制武器造成的伤害需要低于取得的军事利益。在武装冲突中,影响军事行动所造成损失的范围由多重因素决定,人为指令下