军用武器的下一代可能就是“杀手机器人”,发展到不需由人员进行有意义操纵便能自行搜寻和攻击目标的阶段。但如果机器人违法了,谁应该负责?它的程式设计者、制造商,军方人员还是机器人出庭?

© 2015 Russell Christian 为人权观察摄

(日内瓦,2015年4月9日)-人权观察在今天发布的调查报告中指出,当全自主武器,即“杀手机器人”,非法导致人员伤亡时,它的程式设计者、制造商和军方人员都可以逃卸责任。该报告发布于日内瓦一场关于这类武器的多国会谈前夕。

这份38页的报告,题为《当心间隙:杀手机器人缺乏问责机制(Mind the Gap: The Lack of Accountability for Killer Robots)》,详细阐释这种全自主武器的行为无论在刑事或民事法律上皆难以追究个人责任的严重问题,并说明无法认定个人法律责任将带来何种后果。该报告由人权观察和哈佛大学法学院国际人权诊所(Harvard Law School’s International Human Rights Clinic)共同发布。

“无问责性意味著无法吓阻未来犯罪,无法赔偿受害者,也无法对应负责者给予社会谴责,”该报告撰写者及人权观察武器部高级研究员邦妮・铎切尔蒂(Bonnie Docherty)说。“由潜在受害者争取正义的诸多障碍可见,我们迫切需要禁止各种全自主武器。”

全自主武器即将突破目前遥控无人机的形式,发展到不需由人员进行有意义操纵便能自行搜寻和攻击目标的阶段。尽管尚未成形,此种科技的突飞猛进已引起国际瞩目与忧虑。

人权观察是阻止杀手机器人运动组织(Campaign to Stop Killer Robots)的共同发起人和协调员。这个结合50多个非政府组织的国际联盟旨在呼吁预先禁止全自主武器的发展、生产和使用。

该报告将在2015年4月13至17日于日内瓦联合国机构举行的“致命性自主武器系统”国际大会上散发。已加入《常规武器公约(Convention on Conventional Weapons)》的120个国家大多将出席这场专家会议,延续自2014年5月初次专家会议开始的讨论。

人权观察相信,《常规武器公约》论坛持续研讨这类武器的协议,最终可能导致制定新的国际法以禁止全自主武器。《常规武器公约》已于1995年禁止了致盲激光武器。

对全自主武器的主要忧虑在于,它们容易违反国际人道法和国际人权法而导致平民伤亡。该类武器的特色即不需由人员进行有意义的操控,使其难以因前述违法行为而对任何人追究刑事责任。

人权观察指出,若军事指挥官或操作员故意利用全自主武器犯罪,他们可能会被定罪。但是,由于全自主机器人的非法攻击行为通常无法加以预见及/或阻止,相关人员更可能因此脱卸法律责任。

“如果某人启动全自主武器,它可能犯下达到战争罪程度的罪行,但受害者却不会看到有人因为这种罪行遭到惩罚,”身兼哈佛法学院法律诊所讲师的铎切尔蒂说。“把这种行为称做‘意外’或‘机械故障’,将使它可能导致的致命伤害遭到轻易忽略。”

人权观察指出,这种问责障碍在民事法上同样很高。至少在美国,由于法律赋予军方及其承包商豁免权,再加上商品责任诉讼的举证困难,企图追究其民事责任实际上是不可能的。其他许多国家也有类似的主权豁免制度。

即便胜诉,以民事诉讼做为问责工具的效力也相当有限。民事处罚的主要目的是赔偿受害者而非惩罚加害者。尽管金钱损害赔偿对受害者有所帮助,但它无法取代刑事责任在吓阻犯罪、应报正义和道德谴责方面的作用。

人权观察指出,以无过失责任让受害者易获赔偿的制度,无法达到有意义的问责,而且多数国家的政府也会对采取这种制度存疑。

这种问责的漏洞只是全自主武器招致的多项疑虑之一。人权观察曾在其他出版品中详述这类武器在国际人道法和国际人权法上受到的各种质疑。人权观察还注意到它可能引发军备竞赛和武器扩散,以及应否任由机器掌握战场生杀大权的伦理问题。

“缺乏问责是全自主武器在法律、道德和科技层面以外的另一问题,使我们更有理由呼吁制定预防性禁令,”铎切尔蒂说。