Skip to main content

(华盛顿特区)-各国政府应当预先禁止全自主武器(fully autonomous weapons),以免当它被部署于武装冲突时危及平民,人权观察在今天发表的一份报告中说。这些未来武器有时被称为“杀手机器人”(killer robots),有能力自行选定攻击目标,不需人员操作。

这份50页的报告,《丧失人性:反对杀手机器人的理由,举出对这类全自主武器的各方面疑虑,强调由于它们缺乏人性成分,将无法在攻击平民时考量法律及非法律因素。此外,因为当这种武器造成伤害时,难以追究任何个人的责任,未来恐将削弱法律遏阻犯罪的能力。

“把战场的生死决定权寄托于冷酷而具有杀伤力的机械上,是人类研发科技步入走火入魔的境地,”人权观察的武器部主任史蒂夫•古斯(Steve Goose)说。“由人类来操控作战装备,是降低平民死伤的必要条件。”

《丧失人性》是第一份由非政府组织完成的全自主武器问题研究报告,内容分别由法律、科技和伦理等不同途径剖析这些未来武器。该报告是由人权观察与哈佛大学法学院国际人权诊所(Harvard Law School International Human Rights Clinic)共同出版。

人权观察与国际人权诊所呼吁起草一份国际条约,绝对禁止研发、生产和使用全自主武器。它们同时呼吁各国通过相关法律与政策,作为在国内层次予以防止这类武器之研发、生产和使用的重要手段。

全自主武器目前尙不存在,世界各强权国家,包括美国在内,也都尙未决定是否部署这类武器。不过,有些高科技军事单位正著手发展,或已经部署某些试验型的装备,由此可见,在战场上使用更高度自主性机械的趋势已在形成。美国是这个科技发展领域的先驱者。其他几个国家,包括中国、德国、以色列、南韩、俄罗斯和英国,都已跟著投入。许多专家予测,全自主武器可在二十到三十年内被研制成功,部分专家甚至认为更快。

“在杀手机器人现身各国军火库之前,阻止它的研发,是极端重要的,” 古斯说。“当各国投入这项科技的资源越来越多,我们将更难说服他们放弃。”

人权观察和哈佛诊所表示,全自主武器不可能符合国际人道法的要求。它们将无法在战场上正确分辨军人与平民,也没有能力在必要时依据人性来判断攻击行为是否合乎比例──即对平民伤亡与军事利益加以权衡。

这些机器人也将破坏攻击平民时的非法律制约。全自主武器不会对被害者感到同情,因此,独裁者可能利用它们来对付自己的人民。虽然用机器来取代士兵可以减少军人的伤亡,但也可能因此导致战争更易发生,其生命代价却由军人转移到平民来负担。

最后,全自主武器的使用,将造成问责的落差。针对机器人的行为,追究其指挥官、程式设计师、或制造商的责任,将引发许多法律上的争议。缺乏问责制将使我们难以遏阻违犯国际法的行为,也难以为被害者争取有意义的应报正义。

人权观察与哈佛人权诊所说 ,虽然军事单位大多宣称,在可见的未来,武器化机器人的行动仍将由人类加以监督,但这种监督的有效性令人懐疑。更何况,军事部门的上述声明已为未来走向全自主化打开大门。

古斯说 :“我们必须立刻采取行动,以防杀手机器人由科幻小说走入现实。”

Your tax deductible gift can help stop human rights violations and save lives around the world.