(ワシントンDC)-完全に自律稼動するロボット兵器が開発中である。こうした兵器が一般市民に及ぼす危険ゆえ、各国政府はこれを禁止すべきだ、とヒューマン・ライツ・ウォッチは本日発表の報告書内で述べた。時に「殺人ロボット(キラーロボット)」とも呼ばれる未来兵器は、人間の指示なしに標的を選んで発砲することができ得る。
報告書「失われつつある人間性:殺人ロボットに反対する根拠」(全50ページ)は、完全自律型兵器の問題点を概説。こうした兵器は一般市民の殺害に関して、合法/違法を判断する人間の能力を本質的に欠いている。加えて、この手の兵器がもたらす危害について人間の責任を問うのが困難であるが故、国際法違反行為を抑止する法の力を弱める危険がある。
ヒューマン・ライツ・ウォッチ武器局局長のスティーブ・グースは、「戦場で人間の生死を決定する権限をマシンに与えるのは、テクノロジー開発の度を超えている」と述べる。「ロボットによる代理戦争でも、一般市民の死亡や負傷を最小限に抑えるためには人間による管理統制が不可欠だ。」
本報告書「失われつつある人間性」は、完全に自律稼動するロボット兵器についてNGOが発表した初の本格的な出版物。現在開発/構想中のこれらの兵器にまつわる法律、技術、倫理についての詳細な調査を基に、ヒューマン・ライツ・ウォッチとハーバード大学法科大学院の国際人権クリニックが共同で発表した。
ヒューマン・ライツ・ウォッチとハーバード国際人権クリニックは、完全自律型兵器の開発・製造・使用を全面禁止する国際条約の制定を強く求めた。また各国政府にも、国内レベルでのこうした兵器の開発・製造・使用を予防するため、法律や政策を定めるよう求めた。
完全に自律稼働する兵器はまだ実在しておらず、米国を含む主要国も実戦配備の決定はしていない。しかしハイテク軍隊は、戦場における更なるマシン自律化の方向性を示す先駆型を開発中、あるいはすでに配備している。米国はこうした技術開発の先頭を走っており、中国、イスラエル、韓国、ロシア、英国を含む数カ国も、この流れに続く。多くの専門家が兵器の全自動化はこの先20〜30年の間、一部はもっと近い将来に実現されると予測している。
前出のグース武器局局長は、「国家の武器庫に殺人ロボットが姿を現す前に、その開発を止めさせることが肝要だ」と述べる。「国々がこの技術に対し更なる投資を注ぐようになってしまってからでは、それをあきらめるよう説得するのはより困難になるだろう。」
完全自律型兵器は国際人道法の求める基準を満たし得ない、とヒューマン・ライツ・ウォッチとハーバード国際人権クリニックは指摘する。マシンには戦場で兵士と一般市民を区別する能力を持たないだろうし、一般市民への危害が軍事的利益を超えたものにならぬようにするための攻撃の「均衡性判断」もできないだろう。
殺人ロボットの登場によって、蝕まれるのは法律判断だけではない。市民を殺害する際の法律以外の判断も蝕みかねない。完全に自律稼動するロボット兵器は被害者に人間的な同情は持たない。したがって独裁者が殺人ロボットを悪用して、自国民に仕向けることも可能だ。マシンが人間の部隊に取って代わることで兵士の命は救えるが、一方で戦争という選択が容易になり、結果として一般市民に紛争の重荷が転嫁されることになる。
最後に、完全に自律稼動するロボット兵器の使用がアカウンタビリティ(責任追及・真相究明)に及ぼす影響が挙げられる。ロボットが行った行為に関して、指揮官やプログラマー、または製造者に法的責任を問うのは大変な難題だ。アカウンタビリティを問うことが困難になれば、国際法違反の抑制はより困難になり、被害者たちが求める意味ある正義を実現することも困難になろう。
ヒューマン・ライツ・ウォッチとハーバード国際人権クリニックは、ロボット兵器に対してほとんどの軍隊が当面は何らかの人間による管理を継続するとはいえ、そうした管理の有効性にも疑問が残る、と述べる。加えて諸軍隊は、完全自律型の殺人ロボットを将来実戦配備の可能性を示唆している。
前出のグース武器局局長は、「殺人ロボットがSF小説から現実世界に踏みこんでくる前の今こそ、実現阻止の行動が求められている」と指摘する。