Skip to main content
捐款赞助

(华盛顿特区)-各国政府应当预先禁止全自主武器(fully autonomous weapons),以免当它被部署于武装冲突时危及平民,人权观察在今天发表的一份报告中说。这些未来武器有时被称为“杀手机器人”(killer robots),有能力自行选定攻击目标,不需人员操作。

这份50页的报告,《丧失人性:反对杀手机器人的理由,举出对这类全自主武器的各方面疑虑,强调由于它们缺乏人性成分,将无法在攻击平民时考量法律及非法律因素。此外,因为当这种武器造成伤害时,难以追究任何个人的责任,未来恐将削弱法律遏阻犯罪的能力。

“把战场的生死决定权寄托于冷酷而具有杀伤力的机械上,是人类研发科技步入走火入魔的境地,”人权观察的武器部主任史蒂夫•古斯(Steve Goose)说。“由人类来操控作战装备,是降低平民死伤的必要条件。”

《丧失人性》是第一份由非政府组织完成的全自主武器问题研究报告,内容分别由法律、科技和伦理等不同途径剖析这些未来武器。该报告是由人权观察与哈佛大学法学院国际人权诊所(Harvard Law School International Human Rights Clinic)共同出版。

人权观察与国际人权诊所呼吁起草一份国际条约,绝对禁止研发、生产和使用全自主武器。它们同时呼吁各国通过相关法律与政策,作为在国内层次予以防止这类武器之研发、生产和使用的重要手段。

全自主武器目前尙不存在,世界各强权国家,包括美国在内,也都尙未决定是否部署这类武器。不过,有些高科技军事单位正著手发展,或已经部署某些试验型的装备,由此可见,在战场上使用更高度自主性机械的趋势已在形成。美国是这个科技发展领域的先驱者。其他几个国家,包括中国、德国、以色列、南韩、俄罗斯和英国,都已跟著投入。许多专家予测,全自主武器可在二十到三十年内被研制成功,部分专家甚至认为更快。

“在杀手机器人现身各国军火库之前,阻止它的研发,是极端重要的,” 古斯说。“当各国投入这项科技的资源越来越多,我们将更难说服他们放弃。”

人权观察和哈佛诊所表示,全自主武器不可能符合国际人道法的要求。它们将无法在战场上正确分辨军人与平民,也没有能力在必要时依据人性来判断攻击行为是否合乎比例──即对平民伤亡与军事利益加以权衡。

这些机器人也将破坏攻击平民时的非法律制约。全自主武器不会对被害者感到同情,因此,独裁者可能利用它们来对付自己的人民。虽然用机器来取代士兵可以减少军人的伤亡,但也可能因此导致战争更易发生,其生命代价却由军人转移到平民来负担。

最后,全自主武器的使用,将造成问责的落差。针对机器人的行为,追究其指挥官、程式设计师、或制造商的责任,将引发许多法律上的争议。缺乏问责制将使我们难以遏阻违犯国际法的行为,也难以为被害者争取有意义的应报正义。

人权观察与哈佛人权诊所说 ,虽然军事单位大多宣称,在可见的未来,武器化机器人的行动仍将由人类加以监督,但这种监督的有效性令人懐疑。更何况,军事部门的上述声明已为未来走向全自主化打开大门。

古斯说 :“我们必须立刻采取行动,以防杀手机器人由科幻小说走入现实。”

Your tax deductible gift can help stop human rights violations and save lives around the world.

Donate today to protect and defend human rights

Human Rights Watch operates in over 100 countries, where we work to investigate and document human rights abuses, expose the truth and hold perpetrators to account. Your generosity helps us continue to research abuses, report on our findings, and advocate for change, ensuring that human rights are protected for all.

最多人浏览