Érvek a megelőző tiltás mellett

A gyilkos robotok társadalmi kockázata és az elterjedésüket megelőző, tiltó jogi intézkedések sürgető időszerűsége

© 2016 Russell Christian/Human Rights Watch

 

Összefoglalás

A teljesen autonóm fegyverekről szóló vita még hevesebbé vált azóta, hogy az ügy 2012-ben nemzetközileg is nagy figyelmet kapott.[1]  Jogászok, etikai szakértők, katonák, emberjogi jogvédők, kutatók és diplomaták egyaránt számos eseményen kifejezték az álláspontjukat az olyan fegyverek törvényességéről és kívánatosságáról, amelyek érdemi emberi ellenőrzés nélkül képesek kiválasztani és megtámadni célpontokat. A vélemények továbbra is szerteágazóak, miközben a katonai technológia az egyre nagyobb autonómia felé halad, de azzal kapcsolatban is egyre többen fejezik ki aggodalmukat, ahogyan ezek a fegyverek forradalmasítanák a hadviselést. Ez a tanulmány azért készült, hogy tájékoztasson és előmozdítsa a vitát azzal, hogy részletesen kifejti a teljesen autonóm fegyverekben rejlő veszélyeket, és érvel azok előzetes betiltása mellett.

2016 decemberében a hagyományos fegyverekről szóló genfi egyezmény (Convention on Conventional Weapons, továbbiakban CCW) részes államai Genfben tanácskoztak az egyezmény ötödik felülvizsgálati konferenciáján, hogy az általuk „halálos autonóm fegyverrendszerek” (Lethal Autonomus Weapons Systems, továbbiakban LAWS) néven illetett fegyverekkel kapcsolatos jövőbeli intézkedésekről döntsenek. A konferencián az Állítsuk meg a gyilkos robotokat kampány (Campaign to Stop Killer Robots, továbbiakban CSKR) által cselekvésre ösztönzött ENSZ CCW részes államai létrehoztak egy kormányzati szakértői csoportot (Group of Governmantal Experts, továbbiakban GGE), amelytől azt remélik, hogy segít az egyes tagállamoknak túllépni a szóbeli tárgyalásokon, és elérni a teljesen autonóm fegyverek jogerős tiltását.

A teljes tiltás melletti támogatottság növelésének érdekében ez a tanulmány azokra a kritikákra is válaszol, amelyek a fejlesztés alatt álló technológiák védelme mellett kifogásolják az előzetes tiltásról szóló javaslatot. A tanulmány a kritikus hangok 16 fő állítását különíti el, és mindegyik állításra részletes cáfolatot nyújt, mindkét oldal érveinek alapos tanulmányozására építve tudományos publikációk, diplomáciai állásfoglalások, közvélemény-kutatások, ENSZ-jelentések és a nemzetközi jog alapján.

Jelen tanulmány egy 2014 májusában megjelent, a Merre halad a gyilkos robotok körüli jogi küzdelem című tanulmány (Advancing the Debate on Killer Robots) frissített és bővített változata, amely az időközben felmerült új problémákra is kitér.[2]  Ennek során a tanulmány rávilágít a teljesen autonóm fegyverek legnagyobb veszélyeire, és kifejti azok tiltásának előnyeit és megvalósíthatóságát.

A tanulmány első fejezete a teljesen autonóm fegyverek jogi és nem jogi veszélyeit tárgyalja. Megállapítja, hogy a fegyverek jelentős akadályokba ütköznének a nemzetközi humanitárius és emberi jogi törvényeknek való megfelelés során, és joghézagot képeznének az elszámoltathatóságot illetően. Ezen felül erkölcsi felháborodást kelt az élet-halál kérdésekben döntést hozó fegyverek kilátásba helyezése, mivel a fegyverek várt katonai előnyeiben megindokolhatatlan kockázatok rejlenek.

A második fejezet a teljesen autonóm fegyverek fejlesztésnek, előállításának és felhasználásának előzetes tiltása mellett érvel. A számos felvetett alternatíva közül egyedül a technológia teljes tiltása képes hatékony választ adni az első fejezetben felvetett problémákra. A tiltást minél előbb el kell fogadni, mielőtt ez a forradalmi és veszélyes eszköz a katonai fegyvertár részévé válik. A múltbeli leszerelési tárgyalásokból és egyezményekből származó tapasztalatok azt mutatják, hogy a tilalom megvalósítható, és hatékony megoldást jelenthet.

Ajánlások

A teljesen autonóm fegyverek veszélyeire való tekintettel, valamint az e veszélyekre javasolt megoldások hiányában – a tiltáson túl – a Human Rights Watch és a Harvard Law School keretein belül működő Nemzetközi Emberi Jogi Klinika felhívja az államokat, hogy

  • fogadjanak el egy nemzetközi, kötelező erejű jogi eszközt, amely megtiltja a teljesen autonóm fegyverek fejlesztését, előállítását és felhasználását,
  • fogadjanak el nemzeti törvényeket vagy rendelkezéseket, amelyek elősegítik a teljesen autonóm fegyverek fejlesztésének, előállításának és felhasználásának tiltását és
  • folytassanak formális megbeszéléseket az ENSZ CCW és kormányzati szakértői csoportjának égisze alatt, hogy megtárgyalják a részleteit egy esetleges egyezménynek.

I. A teljesen autonóm fegyverek veszélyei

A teljesen autonóm fegyverek számos problémát vetnek fel. Nehezen tudnának megfelelni a nemzetközi jognak, míg a képességük az önálló cselekvésre a jogi elszámoltathatóság miatt aggályos. A teljesen autonóm fegyverek továbbá erkölcsi határokat is átléphetnek, a humanitárius és biztonsági kockázatuk pedig felülmúlja a lehetséges katonai előnyeiket. Azok a kritikusok, akik figyelmen kívül hagyják ezeket az aggályokat, spekulatív érvekre támaszkodnak a technológia jövőjéről, és hamisan feltételezik, hogy a technológiai fejlesztések a fegyverek összes veszélyére megoldást tudnak nyújtani.

Jogi veszélyek

1. állítás: A teljesen autonóm fegyverek idővel meg tudnak majd felelni a nemzetközi humanitárius jognak, különös tekintettel a megkülönböztetés és az arányosság alapelvének.

Cáfolat: Az olyan emberi tulajdonságok, mint az észszerűség vagy az ítélőképesség gépekbe történő programozásának nehézsége azt jelenti, hogy a teljesen autonóm fegyverek valószínűleg nem képesek megfelelni a nemzetközi humanitárius jognak.

Elemzés: Néhány kritikus azt állítja, hogy a teljesen autonóm fegyverek a jövőben képesek lesznek megfelelni a megkülönböztetés és az arányosság alapelveinek. Azzal érvelnek, hogy a tiltás támogatói gyakran „figyelmen kívül hagyják az autonóm fegyverrendszerek technológiájának valószínű fejlődését”.[3]  A bírálók szerint a katonai technológia „jóval fejlettebb annál, hogy csupán egy személy vagy tárgy felkutatására legyen képes”, emellett a mesterséges intelligencia a jövőben várhatóan tovább tökéletesedik.[4]  Ezért, miközben elismerik a „hatalmas kérdések” és az „ijesztő problémák” létezését,[5]  a bírálók megelégednek azzal a hittel, hogy vannak „elméletileg kivitelezhető” megoldások.[6]

Egyelőre azonban nem túl bölcs és a józan ítélőképesség számára nem elfogadható arra a feltételezésre alapozni, hogy az ilyen fegyverek egy nap majd megfelelhetnek a nemzetközi humanitárius jog által megkövetelt megkülönböztetés és arányosság elvének.

A megkülönböztetés nehézségei

A teljesen autonóm fegyvereknek hatalmas, ha nem leküzdhetetlen nehézségekkel kell szembenézniük, hogy megbízhatóan különbséget tudjanak tenni törvényes és törvénytelen célpontok között, a nemzetközi humanitárius jog követelményeinek megfelelően.[7]  Bár az érzékelési és számítási képességeiket illetően várható fejlődés, ezeknél többre van szükség ahhoz, hogy meg lehessen különböztetni egy aktív harcost egy civiltől, vagy egy sebesült katonát egy olyantól, aki megadja magát. Ehhez olyan kvalitatív képességre is szükség van, mint az emberi szándék felismerése, ami magába foglalja az olyan finom jelek értelmezését, mint a hanghordozás, a mimika vagy a testbeszéd, ráadásul az adott kontextusban. Csak az emberek rendelkeznek azzal a képességgel, hogy azonosulni tudnak más emberekkel, így értelmezni tudják korábban nem látott viselkedési formák apró jeleit is – előre programozott tudással rendelkező gépek erre nem képesek. A megkülönböztetés képességének alapelve megköveteli az emberi ítélőképességet döntési helyzetekben, és ennek másolása – főként a mai harctereken, ahol a harcosok igyekeznek elrejteni az identitásukat – nagy nehézséget jelent, és nem is valószínűsíthető, hogy találnak rá megoldást.

Az arányosság megállapításának akadályai

A megkülönböztetés elvének való megfelelés akadályai még súlyosabban érintik az arányosság kérdését a teljesen autonóm fegyverek esetében, ahhoz ugyanis két tényező figyelembe vétele között kell finoman egyensúlyozni: a várható civil károk és az elérhető katonai előnyök között. Az arányosságról nemcsak a teljes csataterv összeállításánál kell döntéseket hozni, de a katonai bevetések alatt is, amikor az egyes támadások menetéről vagy a visszavonulásról kell dönteni. Egy bíráló szerint „nincs kétség afelől, hogy az autonóm fegyverrendszereket be lehetne programozni arra, hogy felmérje a civil károk valószínűségét a célterületen”.[8]  Bár elismeri, hogy „a közeljövőben nem valószínű, hogy a ’gépek’ programozhatóak lesznek a támadások katonai előnyeinek előzetes, átfogó felbecsülésére”, azt állítja, hogy „az autonóm fegyverrendszerekbe elméletileg be lehet programozni katonai előnyöket felmérő algoritmusokat”.[9]

A fenti állítások számos kérdést vetnek fel. Ahogy arról már szó volt, erősen megkérdőjelezhető, hogy egy teljesen autonóm fegyver valaha is képes lesz megbízhatóan különbséget tenni törvényes és törvénytelen célpontok között. Az arányosság kérdésében nemcsak a célpont törvényessége számít, de a várható civil károkozás mértéke is – egy ilyen számításhoz pedig fel kell tudni mérni a célpontot körülvevő összes ember és objektum helyzetét, valamint azt, hogy a támadás várhatóan milyen hatással lesz rájuk.

A várható katonai előnyök előzetes felmérését illetően még a kritikusok is elismerik, hogy az „[egy gépnek] nagy kihívást jelent majd, mivel a katonai előnyök meghatározása mindig a kontextustól függ”.[10]  A katonai előnyöket eseti alapon kell meghatározni, és egy programozó nem veheti előre számításba azt a megszámlálhatatlan eshetőséget, ami egy bevetés során felmerülhet.[11]

Még ha a katonai előnyöket és a várható civil károkat részben, kvantitatív módon fel is tudná mérni egy teljesen autonóm fegyver, arra valószínűleg már nem lenne képes, hogy kvalitatív módon egyensúlyozzon közöttük. Az arányosság értékelésénél általánosan bevett mérce az, hogy elindította volna-e a támadást egy „racionális katonai parancsnok”.[12]  Amennyiben egy teljesen autonóm fegyver indította a támadást, az arányosságának értékelésénél inkább azt a kérdést kell feltenni, hogy a fegyverrendszer racionálisan döntött-e a célpont kiválasztásánál a támadás időpontjában.

Bár egyes kritikusok az emberi parancsnoknak a támadás előtti tevékenységére koncentrálnak,[13] minden támadás arányossága a támadás alatti körülményektől függ, nem a tervezés vagy az előkészületek idején fennálló helyzettől. Egy parancsnoknak, aki az előkészületek fázisában mérlegeli az arányosságot, arra kell hagyatkoznia, hogy a programozó és a gyártó milyen teljesítményt jósol a teljesen autonóm fegyver jövőbeli támadásaira. Nem számít, milyen alapos munkát végeztek, a programozók és a gyártók vélhetően sosem lesznek képesek előre megjósolni a gép reakcióját minden lehetséges forgatókönyv változó és váratlan körülményeire. A teljesen autonóm fegyverek bevetéséről és tényleges támadásba lépéséről való döntések között különbséget kell tenni.  Abban a pillanatban, hogy döntést hoznak a támadásról, egy ilyen fegyver nem csupán kikerül a saját ítélőképességét gyakorló ember irányítása alól, de nem is lesz alkalmas valódi emberi ítéletet hozni (lásd: 12. állítás).

Nehéz lenne olyan gépeket létrehozni, amelyek rendelkeznek egy racionális katonai parancsnok mérlegelőképességével, és amelyektől elvárható lenne, hogy „racionálisan” cselekedjenek egy támadás váratlan vagy megváltozott körülményei között. A Max Planck Nemzetközi Jogi Enciklopédia szerint „a racionalitás fogalma szorosan összefügg az emberi ésszerűséggel”, és „leginkább etikai vagy erkölcsi, mintsem jogi kérdéseket vet fel”.[14] Az indítványozott tiltás két bírálója szerint „az arányosság (…) részben a várható civil károk felmérésére alkalmas rendszerek tervezésének technikai kérdése, de részben a lehetséges változók súlyozásának etikai kérdése is”.[15] Sokan ellenzik azt az felvetést, hogy a gépeknek lehetőséget kell adni etikai vagy erkölcsi döntések meghozatalára (lásd: 6. állítás). A racionális parancsnoki elvárás mégis ezt követeli meg. A racionalitásnak továbbá nincs „objektív definíciója”, és az adott helyzettől függ, de ez nem érinti a döntések törvényességét, és a fegyverrendszerek törvényes bevetésének sem szabnak gátat”.[16]

Az arányossági elemzés „viszonylag nagy mozgásteret” enged az ítélőképesség értelmezését illetően,[17] de az a fajta ítélőképesség, amely váratlan helyzetekben a civil károkozás és a katonai előnyök mérlegeléséhez szükséges, nehezen reprodukálható gépekben. Ahogy Christof Heyns, az ENSZ bírósági tárgyalás nélküli, azonnali vagy önkényes kivégzésekkel foglalkozó különmegbízottja írta 2013-as jelentésében, az arányosság felméréséhez „jellegzetesen emberi ítélőképességre” van szükség.[18] A Nemzetközi Vöröskereszt (International Committee of the Red Cross, továbbiakban ICRC) szerint egy bizonyos támadás arányosságának megítélése „mindenekelőtt józan ész és jóhiszeműség kérdése kell, hogy legyen”, és ezek olyan sajátosságok, amelyekkel valószínűleg még a legalaposabban programozott gépek sem rendelkezhetnek.[19]

Ugyan a jövőbeli technológiák képességprofilja bizonytalan, rendkívül valószínűtlennek tűnik, hogy valaha is képesek lennének reprodukálni azon eredendően emberi sajátosságok teljes skáláját, amelyek szükségesek a megkülönböztetés és az arányosság elveinek betartásához. Egy kutató úgy fogalmazott, hogy a nemzetközi humanitárius jognak való megfelelés az ítélőképesség minőségi alkalmazását igényli „az eshetőségek szinte végtelen kombinációjában”.[20] Néhány szakértő felveti a kérdést, hogy „a mesterséges intelligencia, amely csak pár év távolságra van a valóditól, vajon működhet-e valaha elég jól”.[21]

2. állítás: A teljesen autonóm fegyverek felhasználását korlátozni lehetne bizonyos helyzetekre, amelyekben a fegyverek megfelelnének a nemzetközi humanitárius jognak.

Cáfolat: Olyan ritkán előforduló elméleti esetek, amelyekben a teljesen autonóm fegyvereket törvényesen lehetne használni, nem legitimálják a fegyvereket, mert azokat valószínűsíthetően sokkal szélesebb körben felhasználnák.

Elemzés: Néhány, a teljesen autonóm fegyverek jogi aggályait visszautasító kritikus úgy véli, hogy a fegyverek felhasználását korlátozni lehetne speciális helyzetekre, amelyekben azok megfelelnének a nemzetközi humanitárius jognak. Szerintük a fegyverek felhasználása ideális lenne katonai előny és a civil károk alacsony kockázata szempontjából olyan helyzetekben, mint elszigetelt célpontok támadásánál a sivatagban;[22] robot-tengeralattjárók által végzett műveletekben;[23] rakéták elhárításánál a légtérben;[24] és olyan „nukleáris mobil-rakétaindítók” támadásánál, ahol „emberek millióinak élete forog kockán”.[25] Ezek a kritikusok alábecsülik, milyen veszély leselkedik a civilekre, amint a teljesen autonóm fegyverek bekerülnek a katonai fegyvertárba.

Könnyű olyan elméleti helyzetre gondolni, ahol egy széles körben elítélt fegyver kifogástalanul eleget tudna tenni a nemzetközi humanitárius jog alapvető szabályainak. Mielőtt elfogadták volna a kazettás bombákról szóló egyezményt, a kazettás bombák támogatói gyakran hangoztatták, hogy a fegyvereket jogszerűen lehetne használni lakatlan sivatagokban, egyedül rejtőzködő katonai célpontok ellen. De onnantól, hogy a fegyvereket legyártják és raktárba helyezik, a felhasználásuk csak elvétve mutat az ilyen ritka helyzetek irányába. A probléma valódiságát jól példázza, hogy 2003-ban Irakban, majd 2006-ban Libanonban is széles körben vetettek be kazettás bombákat lakott területeken.[26] Ilyen elméleti lehetőségek tehát nem legitimálják az olyan fegyvereket, beleértve a teljesen autonóm fegyvereket is, amelyek jelentős humanitárius kockázatot jelentenek, amikor kevésbé kivételes helyzetekben használják fel őket.

3. állítás: Azok az aggályok, melyek szerint a teljesen autonóm fegyverek által végzett támadásokért senkit sem lehetne felelősségre vonni, korlátozott jelentőséggel bírnak vagy feloldhatók hatályos jogi keretek között.

Cáfolat: Leküzdhetetlen jogi és gyakorlati akadályok gátolnák, hogy bárkit felelősségre vonhassanak teljesen autonóm fegyverek törvénytelen károkozásáért.

Elemzés: Néhány bíráló szerint a teljesen autonóm fegyverek tevékenységének elszámoltathatóságáról szóló kérdésnek nem szabadna a fegyverekről folytatott vita részét képeznie. Hiba lenne „a gépi rendszerek alacsony harci károkozásából eredő valós előnyöket feláldozni (…) csak azért, hogy kielégítsük azt az a priori elvet, hogy mindig kell lennie egy embernek, aki felelősségre vonható”.[27] Más kritikusok szerint „a puszta tény, hogy nem ember irányít egy adott beavatkozást, nem jelenti azt, hogy egyetlen ember sem felelős az autonóm fegyverrendszer tetteiért”.[28] Az elszámoltathatóság azonban több mint egy „a priori elv”, a jogi felelősségre vonásra jelenleg létező eszközök pedig alkalmatlanok és elégtelenek a teljesen autonóm fegyverek törvénytelen károkozásának rendezésére. Ezek a fegyverek magában rejtik olyan jogellenes cselekmények végrehajtásának lehetőségét, amelyekért senkit sem lehetne felelősségre vonni.[29]

Az elszámoltathatóság összetett erkölcsi, társadalmi és politikai célokat szolgál, és egyben jogi kötelezettség. Politikai szempontból elrettenti a potenciális szabályszegőket, a törvény tiszteletben tartására ösztönöz és lehetőséget biztosít a károsultak jogorvoslatára. A jogorvoslat magába foglalhatja a büntető igazságszolgáltatást, amely elégtételt nyújt az áldozatoknak, hogy valaki büntetésben részesült az elszenvedett károkért, valamint a kárhelyreállító igazságszolgáltatást, amely segít visszaállítani a károkozás előtti állapotokat az áldozatoknál.[30]

A nemzetközi humanitárius jog és a nemzetközi emberi jogi törvények egyaránt megkövetelik a jogsértésekért való elszámoltathatóságot. A nemzetközi humanitárius jog kimondja a fegyveres konfliktusok alatt történő bűncselekmények üldözésének kötelességét.[31] A nemzetközi emberi jogi törvények szerint jogorvoslatra van lehetőség bármilyen emberi jogi jogsértés esetében (lásd: 5. állítás). Az elszámoltathatóság értékét széles körben elfogadják, a kutatóktól az egyes államokig.[32] Sajnos a teljesen autonóm fegyverek valószínűleg egy elszámoltathatósági joghézagba esnének.

A teljesen autonóm fegyvereket nem lehetne felelősségre vonni a törvénytelen tetteikért. Az angolszász jog szerint bűncselekmény akkor állapítható meg, ha megtörtént a bűnös cselekmény, és arra az elkövető tudatállapota is kiterjedt. Egy teljesen autonóm fegyver elkövethet bűncselekményt, de nincs tudatállapota, amely hiányában nem lehetne vádat emelni ellene. Egy fegyver továbbá nem lehet a nemzetközi bíróságok joghatósága alá tartozó természetes személy,[33] de még ha az is lenne, a teljesen autonóm fegyvereket nem lehetne megbüntetni, mivel olyan gépekről van szó, amelyek nem képesek felfogni a szenvedés jelentőségét.[34] Az elégtételre váró áldozatok valószínűleg nem elégednének meg azzal, hogy az „elítélt”, ám valódi bűntudat átélésére képtelen robot szoftverét módosítják.[35]

A legtöbb esetben az emberek is elkerülnék a teljesen autonóm fegyverek törvénytelen tetteiért való felelősségre vonást, hiszen a teljesen autonóm fegyverek jellegükből adódóan képesek az önrendelkezésre, és így függetlenül és váratlanul támadást indíthatnak civilek vagy harcképtelen személyek ellen.

Ilyen helyzetekben a parancsnok nem lenne közvetlenül felelős a robot egyes tetteiért, mivel nem ő rendelte el azokat. Hasonlóképp a programozót vagy a gyártót sem lehetne közvetlenül büntetőjogi felelősségre vonni, ha nem látta előre vagy épp nem szándékosan tervezte meg a robot törvénytelen cselekedeteit. Ezek a személyek csak akkor vonhatók felelősségre egy robot tetteiért, ha bűncselekmény, például civilek szándékos meggyilkolásának szándékával vetették be a robotot, vagy ha külön ilyen tettek végrehajtására tervezték őket.

Jelentős akadályokba ütközne, hogy egy katonai vezetőt közvetett módon találjanak felelősnek a teljesen autonóm fegyverekért, a parancsnoki felelősség alapelvére hivatkozva. Ez a doktrína csak akkor teszi felelőssé az elöljárókat, ha tudtak vagy tudniuk kellett volna egy beosztottjuk bűncselekményéről, és azt nem állították meg vagy nem büntették meg az elkövetőt. Az ilyen robotok az önjáró természetük miatt jogilag hasonlóak lennének az emberekhez, így életbe léphetne a doktrína. A parancsnoki felelősség elmélete azonban magas mércét szab az elszámoltathatóságnak. A parancsnoki felelősség egy bűncselekmény megelőzésére vonatkozik, és nem egy balesetére vagy egy tervezési hibáéra, a robotoknak pedig nincs tudatállapotuk, amely a törvénytelen tetteiket bűncselekménnyé tenné.

Mivel ezeket a fegyvereket önálló működésre tervezték, függetlenül attól, hogy a tettből bűncselekmény vált-e, egy parancsnoknak nem minden esetben lenne oka vagy technikai tudása azt feltételezni, hogy a robot egy adott jogellenes cselekményt el fog követni. Még ha tudomást is szerez egy lehetséges jogellenes cselekményről, a parancsnok jó eséllyel képtelen lenne megelőzni azt, például ha elvesztette a kommunikációt a géppel, ha a robot túl gyorsan cselekedett, vagy ha az újraprogramozása túl nehéz lenne. Emellett, a fentebb említettek alapján egy robotot képtelenség megbüntetni. A teljesen autonóm fegyverek tehát nem illenének bele az emberekre szabott büntetőjogi felelősségre vonhatóság rendszerébe, így a felhasználásuk jogellenes cselekmények és jelentős civil károkozás kockázatával járna, amiért senkit nem lehetne büntetőjogi felelősségre vonni.

Alternatív megoldás lehetne a programozó vagy a gyártó polgári jogi felelősségre vonása egy teljesen autonóm fegyver váratlan cselekedeteiért. A polgári jogi felelősségre vonás hasznos eszköz lehet kárpótlás, elrettentés és a károsultak igazságérzetének kielégítése céljából, még ha nem is esne ugyanolyan társadalmi elbírálás alá, mint amit a büntetőjogi felelősséggel azonosítanak. Ennek azonban jelentős gyakorlati és jogi akadályai is vannak.

Gyakorlati szempontból nézve, a legtöbb áldozat nehezen tudna beperelni egy programozót vagy gyártót, mert az eljárás valószínűleg költséges és időigényes lenne, ráadásul azon is múlna a kimenetele, hogy sikerül-e találni olyan szakértőket, akik megbirkóznak a teljesen autonóm fegyvereket érintő bonyolult jogi és technikai kérdésekkel.

Még a gyakorlati problémáknál is nagyobbak a polgári jogi felelősségre vonás eszközének jogi akadályai. A mentelmi jog intézménye védi a kormányokat a fegyverek vásárlását vagy használatát érintő perektől, főként azok külföldön való felhasználása esetén.[36] Az Egyesült Államok kormánya például mentelmi jogot élvez a polgári perekkel szemben. Ezzel együtt az amerikai hadsereg által megbízott fegyvergyártókat sem lehet beperelni, amennyiben úgy gyártják le a fegyvert, ahogy azt a kormány megrendelte, a hadsereg szándékos megtévesztése nélkül.[37] Ezeket a gyártókat nem lehet felelősségre vonni a háborús cselekményekkel kapcsolatos polgári bejelentések alapján sem. Egy teljesen autonóm fegyver meghibásodását azonban még az ilyen védelmek nélkül is nehéz lenne a termékfelelősségi törvények alapján bizonyítani.[38]

Egy objektív (vétkesség nélküli) kompenzációs és kárpótlási rendszer nem oldaná meg az elszámoltathatósági joghézag kérdését. Egy ilyen rendszerben a hibára vonatkozólag nem, csupán a kárra vonatkozó bizonyítékra lenne szükség.[39] Az áldozatokat így kárpótolnák a teljesen autonóm fegyverek okozta sérelmekért, anélkül hogy egy hiba bizonyításának jogi nehézségeivel meg kellene küzdeniük. Ugyanakkor nehéz elképzelni, hogy a kormányok többsége hajlandó lenne ilyen jogi szabályozást bevezetni. Még ha meg is tennék, a károk ellensúlyozása eltér a jogi felelősség olyan módon történő megállapításától, amely megjelöli az erkölcsi felelőst, elrettentő hatást és méltó büntetést biztosít, valamint elismeri az áldozatokat, mint sértett személyeket. Az elszámoltathatóság így nem biztosítható kizárólag anyagi kárpótlással.[40]

4. állítás: A Martens-klauzula nem korlátozná a teljesen autonóm fegyverek felhasználását.

Cáfolat: Mivel a hatályos jogszabályok nem foglalkoznak célzottan a teljesen autonóm fegyverek sajátos kérdéseivel, a Martens-klauzula előírja „az emberiesség elve és a társadalmi igazságérzet” figyelembevételét a fegyverek törvényességének vizsgálatánál. Mindkét területen felmerülnek aggályok, amelyek az ilyen technológia tiltása felé mutatnak.

Elemzés: Vannak olyan kritikusok, akik nem veszik számításba a Martens-klauzulát a teljesen autonóm fegyverek törvényességének megállapításában. Ahogyan az a genfi egyezmények I. kiegészítő jegyzőkönyvében áll, a Martens-klauzula előírja, hogy:

Az ebben a jegyzőkönyvben vagy más nemzetközi egyezményben nem említett esetekben a civilek és a harcosok a hagyományokon, az emberiesség elvén, és a társadalmi igazságérzeten alapuló nemzetközi jogi alapelvek védelme és hatósága alá tartoznak.[41]

A bírálók szerint a Martens-klauzula „nem szolgál átfogó vezérelvként, amit minden esetben figyelembe kell venni”, hanem egyszerűen „egy biztonsági mechanizmus a jogi hiányosságok orvoslására”.[42] Úgy tartják, hogy mivel ritkán lehet joghézagokba botlani, „rendkívül kicsi” az esélye annak, hogy a teljesen autonóm fegyverek sértenék a Martens-klauzulát, de a vonatkozó egyezményeket és szokásjogot nem.[43]  A kifejezetten a teljesen autonóm fegyverekre vonatkozó jogszabályok hiánya miatt azonban a Martens-klauzula lenne érvényes, és a fegyverek komoly aggályokat vetnének fel a záradék alapján.

Ahhoz, hogy megállapítsuk, mennyire alkalmazható a Martens-klauzula a teljesen autonóm fegyverek esetében, meg kell vizsgálni, hogy milyen mértékben vonatkoznak a hatályos egyezmények az ilyen fegyverekre. A nürnbergi törvényszék kimondta, hogy a Martens-klauzula értelmében „a civilizált nemzetek közmegegyezésén, az emberiesség elvén és a társadalmi igazságérzeten alapuló felhasználás lesz a jogi mérce, amennyiben a hatályos törvények nem rendelkeznek a hadviselés során előforduló különleges esetekről”.[44] A Nemzetközi Bíróság megerősítette, hogy a klauzula „érvényessége és alkalmazhatósága megkérdőjelezhetetlen”, és hogy az „bizonyítottan hatásos eszköz a haditechnológia gyors fejlődésének kezelésére”.[45] A teljesen autonóm fegyverek a haditechnológia gyors fejlődésének formái, és a legjobb esetben is csak általánosságban korlátozzák hatályos törvények.[46]

A Martens-klauzula egyértelműen független jogszabályi normává emeli az „emberiesség elvét” és a „társadalmi igazságérzetet”, ezért a haditechnológia új formáit ezek figyelembevételével kell vizsgálni.[47] Így bármilyen fegyvert, ami nem felel meg ezeknek a normáknak, kérdés nélkül törvénytelennek kell nyilvánítani. Abból indul ki, hogy a társadalmi igazságérzet és az emberiesség elve „alapvető iránymutatást nyújt a nemzetközi szokásjog vagy az egyezmények szabályainak értelmezésében”.[48] A Martens-klauzula szerint „kétes esetekben úgy kell alakítani a nemzetközi jogszabályokat, különösképpen a humanitárius jog szabályait, hogy azok összhangban legyenek az emberiesség általános normáival és a társadalmi igazságérzet követelményeivel”.[49] Mivel meglehetősen kétséges, hogy a teljesen autonóm fegyverek meg tudnának felelni a törvényi követelményeknek (lásd: 1. állítás), a Martens-klauzula irányelveit legalábbis számításba kell venni a fegyverek törvényességének megállapításánál.

A teljesen autonóm fegyverek komoly aggályokat vetnek fel az emberiesség elvét és a társadalmi igazságérzetet tekintve. A Nemzetközi Vöröskereszt szerint az emberiesség elve megköveteli az együttérzést és a védelmezésre való képességet.[50] Ahogy arról a 7. állítás alatt is szó esik, a teljesen autonóm fegyverek nem rendelkeznek emberi érzelmekkel, így együttérzéssel sem. A fegyverek a nemzetközi humanitárius jognak való megfelelés során felmerülő nehézségei azt sugallják, hogy nem lennének képesek megfelelően védelmezni a civileket. A közvélemény is szerepet játszhat a társadalmi igazságérzet alakításában, és az élet-halál döntések gépekre bízásának lehetőségét sokan felháborítónak és elfogadhatatlannak tartják. Egy 2015-ös nemzetközi felmérésből például kiderül, hogy 54 ország 1002 megkérdezett állampolgárának 56 százaléka ellenezte az ilyen fegyverek fejlesztését és felhasználását.[51] A válaszadók 34 százaléka szerint ennek elsődleges oka az, hogy „az élet-halál döntéseket minden esetben embereknek kell meghozni”.[52] Egy egyesült államokbeli 2013-as országos felmérés szerint a témában határozott állásponttal rendelkező amerikaiak 68 százaléka ellenzi az ilyen fegyvereket (48 százalékuk erősen).[53]  Érdekes módon az aktív katonák a fegyverek legnagyobb ellenzői között szerepeltek – 73 százalékuk fejezte ki a teljesen autonóm fegyverekkel szembeni ellenérzését. Az ilyen reakciók azt sugallják, hogy a teljesen autonóm fegyverek sértenék a Martens-klauzulát.

Korábban már volt rá eset, hogy azért születtek új fegyverekről szóló egyezmények, mert aggályok merültek fel azzal kapcsolatban, hogy megfeleltek volna-e a Martens-klauzula elveinek. A klauzula nagyban befolyásolta például az ENSZ CCW vakító lézerfegyverekről szóló IV. jegyzőkönyvét megelőző vitát – ez az egyezmény előzetesen betiltotta a szándékoltan maradandó vakságot okozó lézerfegyverek használatát.[54] A Martens-klauzula nemcsak a civil társadalom jelentéseiben került elő, de több, a témában tartott ICRC-előadáson részt vett szakértő is hivatkozásul használta.[55] Javarészt egyetértettek abban, hogy „[a vakító lézerfegyverek] ellentétesek lennének a szokásjog, az emberiesség és a társadalmi igazságérzet követelményeivel”.[56] Az, hogy a résztvevőket megbotránkoztatta a vakító lézerfegyverek lehetősége, végül segített a tiltás felé billenteni a mérleg nyelvét, annak ellenére, hogy az ilyen fegyvereknek a nemzetközi humanitárius jog alapelveinek való megfeleléséről nem született konszenzus.[57]  A vakító lézerfegyverekről szóló jegyzőkönyv nemzetközi precedenst állított fegyverek előzetes betiltására – legalább részben – a Martens-klauzula alapján.[58] A klauzulát így indokolt lenne a teljesen autonóm fegyverek esetében is alkalmazni.

5. állítás: A nemzetközi humanitárius jog az egyetlen olyan jogszabályegyüttes, amely alapján a teljesen autonóm fegyvereket el lehet bírálni, mivel azok fegyveres konfliktusok eszközei lennének.

Cáfolat: A teljesen autonóm fegyverek elbírásánál figyelembe kell venni az összes nemzetközi jogszabálynak való megfelelőséget, ideértve a nemzetközi emberi jogi jogszabályokat is, mivel a fegyvereket konfliktushelyzeten kívül is felhasználhatják. A teljesen autonóm fegyverek sérthetik az élethez és a jogorvoslathoz való jogot, valamint a méltóság elvét, amelyek mindegyikét a nemzetközi emberi jogi jogszabályok biztosítják.

Elemzés: A teljesen autonóm fegyverekről szóló viták során leginkább a fegyveres konfliktusokban való használatukról és a nemzetközi humanitárius jog szerinti törvényességükről esik szó (lásd: 1. állítás). A fegyverekkel kapcsolatos diplomáciai viták többsége az ENSZ CCW nemzetközi humanitárius jogi fórumán zajlott. Bár az államok érintették a teljesen autonóm fegyverek emberi jogi vonatkozásait a CCW találkozóin és az Emberi Jogi Tanácsban, kevés szó esett e fegyvereknek a harctéren túli, valószínűsíthető felhasználásáról.[59] Az emberi jogi jogszabályokat, amelyek béke és háború alatt is érvényesek, a teljesen autonóm fegyverek felhasználásának összes körülményében számításba kellene venni, emiatt nagyobb figyelmet érdemelnek.[60]

A már kifejlesztett teljesen autonóm fegyverek bevethetők lennének számos, a bűnüldözés hatáskörébe tartozó konfliktusmentes helyzetben. A helyi rendőrök a bűnözők elfogása mellett a tüntetésekkor, a zavargások leverésében és más rendfenntartási törekvésekben is felhasználhatnának ilyen fegyvereket. Az államok továbbá a terrorelhárító akciókban is bevethetnék ezeket a fegyvereket, ami a nemzetközi humanitárius jog szerint nem számít fegyveres konfliktusnak. A teljesen autonóm fegyverek bevetése bűnüldözési környezetben nemzetközi emberi jogi jogszabályok alkalmazását vonná maga után.

A teljesen autonóm fegyverekben lehetőség rejlene az élethez való jog megsértésére, amit a Polgári és Politikai Jogok Nemzetközi Egyezségokmányának (International Covenant on Civil and Political Rights, továbbiakban ICCPR) 6. cikke szabályoz: „Minden emberi lénynek veleszületett joga van az élethez. E jogot a törvénynek védelmeznie kell”.[61] Az Emberi Jogi Tanács szerint ez „minden más felett álló jogosultság, mivel minden egyéb jog előfeltétele.[62] Még olyan vészhelyzetek esetén sem korlátozható, amelyek egy nemzetet a létében fenyegetnek. Az élethez való jog tiltja az önkényes gyilkosságot. Az ICCPR kimondja, hogy „senkit sem lehet életétől önkényesen megfosztani”.[63]

Az élethez való jog korlátozza a bűnüldözés során alkalmazható erő mértékét, és ez a teljesen autonóm fegyvereket érintő helyzetekre is vonatkozik.[64] Az Emberi Jogi Tanács a 6. számú általános megjegyzésében kiemeli az államok kötelességét arra, hogy megelőzzék a biztonsági erők által elkövetett önkényes gyilkosságokat.[65] Az emberölés csak akkor lehet törvényszerű, ha megfelel három követelménynek: emberi élet védelmében van rá szükség, ez a végső megoldás, és az elkövetés módjának arányosnak kell lennie a fenyegetés mértékével. A teljesen autonóm fegyverek nehezen tudnának megfelelni a törvényes fellépés kritériumainak, mivel azok egyedi helyzetek kvalitatív felmérését igénylik. A robotokat nem lehet úgy előre beprogramozni, hogy minden helyzetet fel tudjanak mérni, hiszen a lehetséges helyzetek száma végtelen, és a többségük előreláthatatlan. Több robotkutató szerint az is meglehetősen valószínűtlen, hogy a robotokat a közeljövőben olyan emberi tulajdonságokkal lehessen felruházni, mint az ítélőképesség és az emberekkel való azonosulás képessége, amelyek birtokában könnyebben megfelelhetnének e három kritériumnak.[66] Ha egy teljesen autonóm fegyver rosszul méri fel, hogy alkalmazhat-e erőt egy helyzetben, az önkényes gyilkossághoz vezethet, ami sérti az élethez való jogot.

Nem korlátozható jogként az élethez való jog fegyveres konfliktus során is érvényesül.[67] Háború idején az önkényes gyilkosság a nemzetközi humanitárius jog szerint törvénytelen emberölésre utal. Manfred Nowak, az ENSZ korábbi kínzással kapcsolatos ügyekkel foglalkozó különmegbízottja az ICCPR-hez fűzött irányadó kommentárjában úgy írja le a fegyveres konfliktusok során elkövetett önkényes gyilkosságokat, mint amik „ellentmondásban állnak a háború humanitárius törvényeivel”.[68] Ahogy az 1. állítás alatt kiderült, komoly kételyek merülnek fel azzal kapcsolatban, hogy a teljesen autonóm fegyverek valaha képesek lesznek-e megfelelni a megkülönböztetés és az arányosság elveinek. A teljesen autonóm fegyverekben ott rejlene a lehetőség az önkényes gyilkosságra, és ezzel a minden jogszabály felett álló, élethez való jog megsértésére.

A teljesen autonóm fegyverek felhasználása a jogorvoslathoz való jogot is veszélyeztetheti. Ezt a jogot az Emberi Jogok Egyetemes Nyilatkozata (Universal Declaration of Human Rights, továbbiakban UDHR) is meghatározza, az ICCPR 2. cikkének 3. bekezdése pedig arra kötelezi a részes államokat, hogy „biztosítsák a hatékony jogorvoslatot minden olyan személynek, akinek a szabadsága vagy jogai sérültek”.[69] A jogorvoslathoz való jog megköveteli az államoktól az egyéni elszámoltathatóság biztosítását. Ide tartozik az, hogy az emberi jogi jogszabályok súlyos megsértését tartalmazó ügyeket bíróság elé kell vinni, és a bűnösnek talált egyéneket meg kell büntetni.[70] A nemzetközi jog azért rendelkezik az elszámoltathatóságról, hogy elrettentsen a jövőbeli jogellenes cselekményektől, és megbüntesse a korábbi elkövetőket, amivel elismeri az áldozatok szenvedését. Azonban az valószínűtlen, hogy egy teljesen autonóm fegyver érdemben elszámoltatható lehetne a cselekedeteiért (lásd: 3. állítás).

A teljesen autonóm fegyverek továbbá sérthetnék a méltóság alapelvét is, amiről az UDHR bevezetőjének az első mondatában rendelkezik.[71] Élettelen gépekként a teljesen autonóm fegyverek sem az egyén életének értékét, sem annak elvesztésének jelentőségét nem lennének képesek felfogni, ezért nem szabad élet-halál döntéseket rájuk bízni (lásd: 6. állítás).

Nem jogi veszélyek

6. állítás: A teljesen autonóm fegyvereket övező erkölcsi aggályok vagy jelentéktelenek, vagy eloszlathatók.

Cáfolat: Több szereplő emelt már erős és meggyőző erkölcsi kifogást a teljesen autonóm fegyverekkel szemben, főként azzal kapcsolatban, hogy a fegyverek nem rendelkeznének ítélőképességgel, empátiával, és moralitással, valamint veszélyeztetnék az emberi méltóságot.

Elemzés: Néhány kritikus szerint a teljesen autonóm fegyveretek erkölcsiségét érintő kérdések jelentéktelenek. Szerintük a teljesen autonóm fegyverek megfelelősége nem erkölcsi, hanem jogi és technikai kérdés. Egy bíráló azt írja, hogy „a kulcskérdés továbbra is az, hogy vajon egy fegyverrendszert lehetséges-e a nemzetközi humanitárius jog szabályai és követelményei szerint üzemeltetni, emberi erkölcsi útmutatás nélkül”.[72] Más kritikus azzal érvel, hogy az erkölcsiséggel nem lenne probléma, mert a robotokat be lehetne úgy programozni, hogy etikusan cselekedjenek.[73] A teljesen autonóm fegyverek erkölcsiségét érintő aggályok azonban megalapozottak és messzire mutatóak.

Több szereplő emelt már erős erkölcsi és etikai kifogást a teljesen autonóm fegyverekkel szemben. Az egyes államok, ENSZ-különmegbízottak, Nobel-békedíjasok, vallási vezetők és a közvélemény által kifejezett erkölcsi felháborodás azt mutatja, hogy a teljesen autonóm fegyverek alkalmazásának kérdése túlmutat a jogi kereteken. Több állam kifejezte, hogy az emberi irányítás fenntartása erkölcsi kötelesség.[74] A Szentszék egy 2015-ös jelentése, amelyben a teljesen autonóm fegyvereket érintő etikai kifogások legrészletesebb tárgyalása található, azt írja, hogy „alapvetően erkölcstelen olyan fegyvert bevetni, amit nem tudunk teljesen irányítani”.[75] 2014-ben Chile kijelentette, hogy a fegyverek feletti érdemi emberi ellenőrzés etikai szükségszerűség, és nem puszta technológiai kérdés.[76]

Az ENSZ korábbi, bírósági tárgyalás nélküli kivégzésekkel foglalkozó különmegbízottja, Christof Heyns szerint az, hogy a teljesen autonóm fegyverek erkölcsileg elfogadhatatlanok-e, „sarkalatos kérdés”, és „semmilyen más szempont nem indokolhatja a [teljesen autonóm fegyverek] bevetését, annak műszaki adottságaitől és képességeitől függetlenül”.[77] Heyns és Maina Kiai, a békés gyülekezés és egyesülés szabadságához való joggal foglalkozó különmegbízott egyaránt az ilyen fegyverek tiltását szorgalmazta.[78] Nobel-békedíjasok szerint is szükséges a „gyilkos robotok létrehozásának erkölcsi és jogi kockázatainak” felvázolása, és az erről szóló közéleti vita, „mielőtt még nem túl késő”.[79] Ahogy a Nobel-díjas Jody Williams, az Állítsuk meg a gyilkos robotokat (Campaign to Stop Killer Robots, továbbiakban CSKR) nemzetközi kampány alapító tagja kérdezte: „Hová tart az emberiség, ha néhányan azt gondolják, hogy helyénvaló átengedni az emberek élet és halál feletti hatalmát egy gépnek?”[80] Egy vallási vezetők által jegyzett, a tiltás mellett érvelő vallásközi nyilatkozat is kiemelte az erkölcsi és etikai aggályokat: „a robotokkal vívott háborúzás az emberi méltóság és az élet szentségének meggyalázása”.[81] Az Egyesült Államokban végzett, valamint nemzetközi közvélemény-kutatások is azt mutatják, hogy ezekben az erkölcsi aggályokban a világ minden pontján osztozik a lakosság.[82]

Azok számára, akiket foglalkoztatnak a teljesen autonóm fegyverek által felvetett erkölcsi aggályok, semmilyen technológiai fejlesztés sem oldhatja meg azt az alapvető problémát, amit az élet-halál döntések gépekre bízása jelent. Az erkölcsi alapú érvek három fő kérdésre koncentrálnak: az erkölcsi döntés meghozásához szükséges emberi tulajdonságok hiányára, az emberi méltóság veszélyeztetésére és az erkölcsi cselekvőképesség hiányára.

Bármilyen, gép által elkövetett gyilkosság eredendően helytelen, mivel a gépek képtelenek az emberi ítélőképesség és együttérzés gyakorlására. Az emberi élet kiemelt értéke miatt minden olyan döntés rendkívül súlyos horderővel bír, amely az élet szándékos elvételére irányul. Mivel az emberek értelemmel és intelligenciával vannak felruházva, kizárólag ők alkalmasak erkölcsi döntések meghozatalára bármilyen hatalmi helyzetben. Az emberek képesek „megfontolt ítéleteket” hozni, vagyis általános elveket alkalmazni bizonyos helyzetekre, a jogszabályokat értelmezve, ahelyett, hogy vakon teljesítenének egy algoritmust.[83] Ezzel szemben egy robot nem képes megfontolt ítéletet hozni az emberhez hasonló módon, a feldolgozott információ mennyiségétől függetlenül. Amíg az emberek számba veszik az elvett életek értékét, a robotok erre képtelenek.[84] „Az élet és halál feletti döntések meghozatalához fegyveres konfliktus során együttérzésre és intuícióra van szükség”, amit az emberek birtokolnak, a robotok nem.[85] Így az emberi empátia fékként szolgálhat az emberölés előtt, de kizárólag akkor, ha a fontos döntéseket emberek hozzák meg.

A teljesen autonóm fegyverek azért is problémásak erkölcsileg, mert az emberi méltóság elvét fenyegetik. Az Emberi Jogok Egyetemes Nyilatkozatának (továbbiakban UDHR) bevezetőjében leírtak megerősítik, hogy „az emberiség, mint család minden egyes tagja méltóságának, valamint egyenlő és elidegeníthetetlen jogainak elismerése alkotja a szabadság, az igazság és a béke alapját a világon”.[86] (Más emberi jogi érvekért lásd az 5. állítást.) Azzal, hogy eredendő méltóságot tulajdonít minden embernek, az UDHR arra utal, hogy mindenkinek vannak értékei, amiket tiszteletben kell tartani.[87] A teljesen autonóm fegyverek, amik élettelen gépek, nem lennének képesek megérteni az emberi élet értékét, sem annak elvesztésének jelentőségét. Így amennyiben engedélyt kapnak az élet kioltásáról szóló döntések meghozatalára, sérül az emberi méltóság alapelve. Ahogy egy szerző megjegyzi, „az élet értéke csökken, ha a gépek olyan helyzetbe kerülnek, hogy lényegében független döntéseket hozhatnak arról, ki érdemel halált egy fegyveres konfliktusban”.[88] A bírósági tárgyalás nélküli kivégzésekkel foglalkozó különmegbízott, Christof Heyns azt írta az Emberi Jogi Tanácsnak címzett 2013-as jelentésében, hogy: „e folyamat átruházása még jobban elemberteleníti a fegyveres konfliktusokat, és kizárja a mérlegelés lehetőségét olyan esetekben is, ahol az célravezető lenne. A gépeknek nincs erkölcsük és halhatatlanok, így nem szabad élet-halál hatalommal rendelkezniük az emberek felett”.[89]

A teljesen autonóm fegyverek további aggályokat vetnek fel a morális cselekvőképesség tárgykörében. Egy robotkutató szerint ez nem jelent problémát, ugyanis az ilyen gépeket lehetne úgy programozni, hogy etikus algoritmusokon fussanak, így autonóm robotból morális gépekké válnának, amik önálló erkölcsi cselekvésre képesek”.[90]  Egy „erkölcsi vezér” automatizálná az erkölcsi döntéshozatalt a célzási és támadási szakaszokban.[91] Ez az érv két okból sem igazán meggyőző. Először is nagyon valószínűtlen, hogy valaha terveznek ilyen protokollt.[92] Ennél is fontosabb, hogy „a morális cselekvőképesség problémáját nem oldja meg az, ha mesterséges erkölcsi ítélőképességgel ruházzuk fel az autonóm fegyverrendszereket, még ha ez technikailag lehetséges is lenne”.[93] A „teljesen etikus cselekvők” rendelkeznek „tudatossággal, szándékossággal és szabad akarattal”.[94] Ezzel szemben a teljesen autonóm fegyverek algoritmusok alapján cselekednének, így nem számítanának etikus cselekvőnek. A teljesen etikus cselekvőket „felelősségre lehet vonni a tetteikért – erkölcsi értelemben hibázhatnak –, pontosan azért, mert a döntések rájuk vannak bízva”.[95] Ezzel szemben a teljesen autonóm fegyverek képtelenek lennének erkölcsi felelősséget vállalni a tetteikért, így nem teljesítenék a morális cselekvőképesség kritériumát, ami egy emberi élet kioltásához szükséges.[96]

Ezt az erkölcsi ellenállást a teljesen autonóm fegyverek iránt a technológiai fejlődés sem tudja leküzdeni. Ahogy az egyik szakértő írta: „A halálos erő bevetésére irányuló döntéshez szükséges jogosultság … olyan emberek felelőssége kell, hogy maradjon, akiknek feladatuk megfontolt és megalapozott döntést hozni, mielőtt kioltják egy ember életét”.[97]

7. állítás: A teljesen autonóm fegyvereket nem befolyásolhatnák negatívan az emberi érzelmek.

Cáfolat: A teljesen autonóm fegyverek nem rendelkeznének érzelmekkel, így együttérzéssel és a gyilkolásnak való ellenállás képességével sem, amelyek civilek és katonák életét védelmeznék.

Elemzés: A bírálók szerint a teljesen autonóm fegyverek érzelemmentessége katonai és humanitárius hasznokkal járna. A fegyverek ellenállóak lennének az olyan tényezőkkel szemben, mint a félelem, a düh, a fájdalom vagy az éhség, amelyek befolyásolhatják az ítélőképességet, elterelhetik a katonák figyelmét a küldetésükről vagy civilek megtámadásához vezethetnek.[98] Bár az ilyen észrevételeknek van alapjuk, más emberi érzelmek növelhetik a humanitárius védelmet fegyveres konfliktusok során.

Az emberek rendelkeznek empátiával és együttérzéssel, és általánosságban nem szívesen veszik el egy másik ember életét. Egy visszavonult, korábban az amerikai hadsereg különleges szárazföldi alakulatánál szolgáló katona (ranger), aki alapos kutatást végzett a háborúban elkövetett gyilkosságok vonatkozásában, azt állapította meg, hogy „az emberben van egy erős ellenállás azzal szemben, hogy megölje embertársát. Ez az ellenállás olyan erős, hogy a katonák sok esetben előbb halnak meg a harcmezőn, minthogy le tudnák azt küzdeni”.[99] Egy másik szerző azt írja:

A háború kegyetlenségeinek egyik legnagyobb fékje mindig is az a természetes emberi ösztön volt, amely meggátolja az embert, hogy megölje vagy megsebezze embertársait. Ez a természetes fék olyan erős, hogy a legtöbb ember inkább meghalna, mintsem hogy megöljön valakit.[100]

A katonák korábbi konfliktusokban való viselkedését vizsgáló tanulmányok bizonyítékokkal támasztják alá ezt a fenti konklúziót.[101] Az emberi érzelmek így fontos gátjai az emberek jogellenes vagy szükségtelen megölésének.

A tanulmányok nagyrészt arra fókuszálnak, amikor a katonai csapatok vonakodnak ellenséges katonákat megölni, de észszerű azt feltételezni, hogy még jobban vonakodnának megölni a fegyveres konfliktusok szemlélőit, így a civileket és az olyan harcképtelen személyeket is, mint a magukat megadó vagy a sérült katonák. A teljesen autonóm fegyverek az emberekkel ellentétben nem rendelkeznének olyan érzelmi és erkölcsi gátakkal, amik segítenének védelmezni az olyan egyéneket, akik nem jogszerű célpontok egy fegyveres konfliktusban. Egy szakértő szerint „Azzal, hogy robotok bevetésével kiiktatjuk a gyilkolás gátját, a háború legerősebb pszichés és etikai fékje gyengül. A háborúzás embertelenül hatékony lenne, és nem korlátozná többé a katonák természetes ösztöne a gyilkosság elkerülésére”.[102]

Érzelmek és tudat hiányában a teljesen autonóm fegyverek lehetnének a tökéletes eszközök az olyan vezetők számára, akik saját népüket akarják elnyomni vagy ellenséges országok polgárait kívánják megtámadni. Még a legedzettebb csapatok is a vezetőjük ellen fordulhatnak, ha az arra utasítja őket, hogy a sajátjaikra lőjenek, vagy háborús bűncselekmények elkövetésére buzdít. Egy hatalmával visszaélő vezető, aki teljesen autonóm fegyverek bevetéséhez folyamodik, megszabadul attól a félelemtől, hogy a fegyveres erők megtagadják bizonyos célpontok megtámadását.

A fent vázolt okokból tehát az érzelmekre inkább úgy kellene tekinteni, mint a fegyveres konfliktusok központi gátjaira, semmint az észszerűséget gátló és azt irracionálisan befolyásoló tényezőkre.

8. állítás: A katonai előnyök elvesznének a teljesen autonóm fegyverek előzetes betiltásával.

Cáfolat: A teljesen autonóm fegyverek lehetséges előnyei vagy elérhetők más rendszerekkel, vagy indokolatlan kockázatokat teremtenének.

Elemzés: A bírálók szerint a teljesen autonóm fegyverek előzetes tiltása a technológia sokat hangoztatott katonai előnyeinek feladásával járna. E kritikusok szerint a teljesen autonóm fegyvereknek sok haszna lehet. A teljesen autonóm fegyverek más rendszereknél precízebben működnének.[103] A fegyverek felválthatnák a katonákat a harctéren, így emberi életeket védenének.[104]  A teljesen autonóm fegyverek az embereknél gyorsabban dolgoznának fel adatokat és működnének a célzási és/vagy bevetési szakaszokban.[105] Bevetés után kommunikációs csatorna nélkül is tudnának működni.[106] Végül, a teljesen autonóm fegyvereket nagyobb léptékben és költséghatékonyabban lehetne bevetni, mint az emberi irányítást igénylő fegyverrendszereket.[107] Ezek a tulajdonságok azonban nem csak a teljesen autonóm fegyverekre jellemzők, és kockázatokkal is járnak.

Léteznek olyan fegyverek, amelyek a teljesen autonóm fegyverekéhez hasonló előnyöket nyújtanak. A félautonóm fegyverek például szintén alkalmasak a pontosságra. A célpontok követését hasonló technológiával végzik, mint a jövőbeli teljesen autonóm fegyverek. Ennek megfelelően ezek a félautonóm fegyverrendszerek már tartalmazzák azokat a funkciókat, amelyeket a támadások pontosságának növelésére terveztek.[108] Ugyanakkor a teljesen autonóm társaikkal ellentétben ezek a rendszerek csak emberek utasítására nyithatnak tüzet a célpontra.

Bár a teljesen autonóm fegyverek valóban csökkenthetnék a katonai veszteséget azzal, hogy embereket helyettesítenek a harctéren, a félautonóm fegyverek már ma is ezt teszik. A félautonóm fegyverek használata során a támadásokat emberi irányítással hajtják végre, de nem szükséges az emberi jelenlét a harctéren, így a kezelők biztonságban maradhatnak egy távoli helyszínen. A félautonóm fegyverek, főként a felfegyverzett drónok számos aggályt vetnek fel, de ezek a problémák inkább a felhasználásuk módjára vonatkoznak, mintsem a technológiai hátterükre. A teljesen autonóm fegyverek ezzel szemben a felhasználásuk módján túl is veszélyt jelentenek, mivel nem áll mögöttük olyan személy, aki mérlegelné, illetve meghozná a döntést a támadásról.

Számos gyorsaságot igénylő helyzetben, például a rakétavédelemben az automata rendszerek legalább olyan hatékonyan és még kiszámíthatóbban tudják elhárítani a veszélyt, mint a teljesen autonóm rendszerek. Bár az automatika és az autonómia ugyanannak a spektrumnak a két véglete, az automata fegyverek egy strukturáltabb környezetben működnek, és „előre programozott műveleti szekvenciákat hajtanak végre”.[109]

Mivel a teljesen autonóm fegyvereknek hatalmukban állna összetettebb döntéseket hozni egy kevésbé strukturált környezetben, a gyorsaságuk miatt hamar elfajulhatnának a fegyveres konfliktusok. A tiltás két bírálója, azt fejtegetve, hogy a teljesen autonóm fegyverek szükségessé válhatnak az ellenségeikkel lépést tartani kívánó államoknak, megállapítja, hogy „a jövő ütközeteit olyan nagy tempó jellemezheti, hogy az emberi operátorok egyszerűen nem tudják majd tartani az iramot. A fejlett fegyverrendszerek olyan környezetet alakíthatnak ki, ami túl összetett lehet ahhoz, hogy emberek irányítsák”.[110] A szóban forgó, teljesen autonóm fegyverek gyorsaságától függetlenül, már önmagában véve az is problémát jelent és buktatókhoz vezethet, hogy ezek a fegyverek a bevetésük után képesek kommunikációs kapcsolat nélkül is működni, mivel ez érdemi emberi ellenőrzés hiányában az erőszak alkalmazása során az emberi ítélőképesség szempontjait figyelmen kívül hagyó, silány döntésekhez vezethet.

Mivel a teljesen autonóm fegyverek nagy sebességgel és emberi irányítás nélkül tudnának működni, a beavatkozás pillanatában a cselekedeteiket nem befolyásolnák a valós politikai, társadalmi-gazdasági, környezeti és humanitárius kockázatok. Így tetteiknek akár olyan nem várt következményei is lehetnek, amelyek alapjaiban változtatnák meg az államok közötti kapcsolatokat vagy a fennálló konfliktusok természetét.

Az egyes országok vélhetően nem szeretnének lemaradni az előnyöket ígérő katonai technológia területén, így az ilyen forradalmi fegyverek fejlesztése valószínűleg fegyverkezési versenybe torkollna. Néhány magas rangú katonatiszt már ki is fejezte az aggodalmát a más államokban fejlesztett autonóm fegyverek technológiai fejlődésével kapcsolatban, hangsúlyozva, hogy fontos megtartani a katonai fölényt a mesterséges intelligencia területén.[111] A fejlett technológiával rendelkező hadseregeknek lehet valamennyi előnye az ilyen fegyverek fejlődésének korai szakaszaiban, de szakértők azt jósolják, hogy a költségek csökkenésével és a technológia elterjedésével ezek a fegyverek tömeggyártott termékek lesznek. Egy több mint háromezer, mesterséges intelligenciával és robotikával foglalkozó szakértő által aláírt nyílt levél szerint:

Ha bármelyik katonai nagyhatalom előretör az MI (mesterséges intelligencia) vezérelte fegyverek fejlesztésében, gyakorlatilag elkerülhetetlenné válik a globális fegyverkezési verseny, és ennek a technológiai pályaívnek a végpontja egyértelmű: az autonóm fegyverek lesznek a holnap AK-47-ei (ismertebb néven Kalasnyikovjai). A nukleáris fegyverekkel ellentétben nem igényelnek drága és nehezen hozzáférhető nyersanyagokat, így mindenütt megjelennek, és minden jelentős katonai hatalom olcsón tudja majd őket tömegesen gyártani.[112]

Egy, a teljesen autonóm fegyverek technológiájának fejlesztésére irányuló fegyverkezési verseny jelentős kockázatokkal járna. A fegyverek számának gyors növekedése fokozhatja a komolyabb konfliktusok kialakulásának lehetőségét. Ha a teljesen autonóm fegyverek együttműködnek, például rajokban, egyetlen fegyver hibás működése olyan súlyos katonai akciót idézhet elő, amelyet hasonló válaszcsapás követne.[113] Továbbá, hogy lépést tartsanak az ellenségeikkel, az államoknak lenne okuk gyengébb minőségű, nem tesztelt vagy elavult teljesen autonóm fegyvereket használni, növelve a katasztrofális hibák esélyét. Bár a teljesen autonóm fegyverek azonnali katonai előnyt jelenthetnek néhány államnak, fel kell ismerniük, hogy az rövid életű lenne onnantól fogva, hogy a technológia terjedni kezd. Az ilyen technológia fejlesztésének pénzügyi és emberi áldozatai miatt végső soron kedvezőtlenebb körülmények közé kerülnének az egyes államok, ezért ki kell állniuk az előzetes tiltás mellett.

 

II. Érvek a teljesen autonóm fegyverek megelőző tiltása mellett

A teljesen autonóm fegyverekben rejlő veszélyek azt követelik, hogy az államok előzetesen tiltsák be a fejlesztésüket, gyártásukat és használatukat. A kritikusok javaslata szerint, még ha lehet hagyatkozni a hatályos jogszabályokra, fegyver-felülvizsgálatokra, szabályozásra vagy az emberi irányítás követelményeire is, de a valóságban a tiltás az egyetlen olyan opció, amellyel a fegyverek által felvetett összes problémát meg lehet oldani. A nemzetközi közösségnek nem szabad halogatni a cselekvést, mert a szellem hamarosan kiszabadul a palackból. A precedensek azt mutatják, hogy a tiltás elérhető és hatékony eszköz.

A tiltás előnyei

9. állítás: Nem szükséges új nemzetközi jogi eszközt alkotni, mert a nemzetközi humanitárius jog hatályos szabályai elegendőek.

Cáfolat: Egy új egyezmény segítene tisztázni a nemzetközi humanitárius jog hatályos jogszabályait, és a teljesen autonóm fegyverek használata mellett a fejlesztésükre és a gyártásukra is kitérne.

Elemzés: A teljesen autonóm fegyverekre vonatkozó új egyezmény kritikusai gyakran hangoztatják, hogy „a nemzetközi jog hatályos alapelvei elegendők az ilyen fegyverek használatának szabályozására”.[114] Azzal érvelnek, hogy a teljesen autonóm fegyverek bármilyen megkérdőjelezhető felhasználása már most is jogszerűtlen lenne, mivel a jelenlegi nemzetközi humanitárius jogot sértenék. Két szerző szerint „a jogalkotóknak azt a kérdést kellene feltenniük, hogy az autonóm fegyverrendszerek megfelelnek-e az államok jogi normáinak”.[115] Egy másik szerző, felismerve a fegyverekkel kapcsolatos új aggályokat megjegyzi, hogy „amint új esetek és hibák merülnek fel, a jogászoknak és a sértett feleknek kreatívan kell a nemzetközi jog eszközei között lavírozni”, de végül arra jut, hogy nincs szükség új jogi eszközre.[116]

A nemzetközi humanitárius jog hatályos jogszabályai azonban nem képesek azokat a problémákat kezelni, amelyeket ez a forradalmian új fegyvertípus vet fel, ezért egy új egyezménnyel kell kiegészíteni, ami lehetővé teszi a tiltást.

Egy új nemzetközi egyezmény tisztázná az államok kötelességeit, és egyértelműsítené a teljesítés feltételeit. A szabályok országokra kiterjedő egységesítésével és az eseti döntések szükségének csökkentésével a jogszerűséggel kapcsolatos kérdéseket is minimálisra csökkentené. A jogi egyértelműség hatékonyabb jogérvényesítéshez vezetne, mert az országok jobban megértenék a szabályokat. Egy tiltó egyezmény az olyan országok számára is egyértelművé tenné a teljesen autonóm fegyverek jogellenességét, amelyek nem végeznek jogi felülvizsgálatot új vagy módosított fegyverekkel kapcsolatban (lásd: 10. állítás). Emellett feltehetően az egyezményhez nem csatlakozó államok is elfogadnák a tiltást, pusztán a fegyverekhez kapcsolódó megbélyegzés miatt.

A kizárólagosan az autonóm fegyverekre szabott egyezmény a terjedésükkel kapcsolatos problémákra is megoldást nyújthatna, amivel a háborús fegyverhasználatra fókuszáló nemzetközi humanitárius jog nem foglalkozik. Egy ilyen jogi eszköz a fejlesztést és a gyártást is megtilthatná, ezzel megelőzve a teljesen autonóm fegyverek terjedését olyan államok vagy nem állami szereplők irányában is, amelyek nem veszik figyelembe a nemzetközi humanitárius jogot, vagy nem képesek betartatni azt. Továbbá segítené a fegyverkezési verseny elhárítását azzal, hogy féket szab a fejlesztésnek, mielőtt az kontrolálhatatlanná válna (lásd: 8. állítás).

Az új jogszabályok végül az elszámoltathatósági joghézagra is megoldást tudnának nyújtani (lásd: 3. állítás). Egy olyan egyezmény, amely mindenfajta körülmények között és minden eshetőségre betiltja a teljesen autonóm fegyvereket, előírhatná, hogy aki megszegi a tiltást, azt felelősségre lehessen vonni a fegyver tetteiért.

Bár a nemzetközi humanitárius jog már most is korlátozza a kérdéses fegyvereket és azok használatát, a felelős kormányok a múltban többször szükségét érezték, hogy azt új jogi keretekkel egészítsék ki olyan fegyverek esetében, amelyek természetüknél fogva jelentős humanitárius fenyegetést jelentenek. Hatályos egyezmények vannak a kazettás bombákról, a gyalogsági aknákról, a vakító lézerekről, a vegyi fegyverekről és a biológiai fegyverekről is. A teljesen autonóm fegyverek hasonló, vagy akár még nagyobb humanitárius aggályokat vethetnek fel, így hasonló kiegészítő nemzetközi jogszabálynak kell őket alárendelni.

10. állítás: Az új fegyverrendszerek felülvizsgálatával a teljesen autonóm fegyverek veszélyeit is kezelni lehet.

Cáfolat: A fegyverek felülvizsgálatai nem univerzálisak, következetesek vagy szigorúan végrehajtottak, és nem foglalkoznak a fegyverek konfliktusokon kívüli hatásaival. A tiltás pótolná ezeket a hiányosságokat a teljesen autonóm fegyverek esetében.

Elemzés: Néhány bíráló szerint a teljesen autonóm fegyverek felülvizsgálatával megfelelően szabályozni lehetne a fegyvereket. A fegyver-felülvizsgálatok során felmérik egy új fegyver jövőbeni használatának jogszerűségét a tervezés, a fejlesztés és a beszerzés szakaszaiban. Előfordul, hogy „36. cikk felülvizsgálatoknak” is nevezik ezeket a folyamatokat, mivel a genfi egyezmények I. jegyzőkönyvének 36. cikke rendelkezik róluk. A cikk kijelenti, hogy:

Egy új fegyver, háborús eszköz vagy módszer vizsgálata, fejlesztése, beszerzése vagy elfogadása során a Magas Szerződő Fél köteles megállapítani, hogy annak bevetése valamely vagy minden körülmény között tilos lenne-e a jegyzőkönyv vagy bármely más, a Magas Szerződő Félre vonatkozó nemzetközi jogszabály értelmében.[117]

A kritikusok az ENSZ CCW vitái során is azzal érveltek, hogy nincs szükség tiltásra, mert bármely teljesen autonóm fegyver, amely sértené a nemzetközi humanitárius jogot, elbukna egy fegyver-felülvizsgálaton, így nem kerülne fejlesztésre vagy bevetésre.[118]  Azonban nem minden kormány folytat fegyver-felülvizsgálatokat, amelyek pedig igen, azok eltérő normák alapján, és a felülvizsgálatok gyakran túl szűkkörűek ahhoz, hogy a teljesen autonóm fegyverek minden veszélyét kezelni tudják.

A fegyver-felülvizsgálatok hiányosságainak pótlását célzó javaslatokat egy másik fórumon kell megvitatni, hogy ne tereljék el a figyelmet a teljesen autonóm fegyvereket érintő kérdésekről. Jelenleg kevesebb mint 30 államról ismert, hogy nemzeti fegyver-felülvizsgálati eljárást folytat.[119] Nem minden állam részese az I. kiegészítő jegyzőkönyvnek, és vitatott, hogy a nemzetközi szokásjog előírja-e a fegyverek felülvizsgálatát.[120] Az egyetemes gyakorlat hiánya azt jelenti, hogy egyes államok fejleszthetnének vagy beszerezhetnének teljesen autonóm fegyvereket anélkül, hogy először megbizonyosodnának azok jogszerűségéről.

Még ha minden állam végezne is fegyver-felülvizsgálatokat, ellentmondásos következményei lennének annak, ha az egyes államokra lenne bízva a döntés, hogy fejlesszenek-e bizonyos fegyvereket. A teljesen autonóm fegyverek komplexitása hardveres és szoftveres elemek felülvizsgálatát is megkövetelné, ami tovább fokozná az egyenlőtlenségeket.[121] Továbbá nincs nemzetközi felhatalmazású ellenőrzés, ami biztosítani tudná, hogy minden állam folytat felülvizsgálatot, és tiszteletben tartja azok eredményét.[122] Külső ellenőrzésre sincs nagy kapacitás, például a civil szervezetek részéről, a fegyver-felülvizsgálati folyamatok átláthatóságának általános hiánya miatt.[123] Az államok nem kötelesek kiadni a vizsgálatok eredményét, és idáig egyikük sem osztott meg információt olyan felülvizsgálatról, amely során elutasítottak egy tervezett fegyvert.[124]

Az ellenőrzés külső nyomása nélkül az államokat kevés dolog ösztönzi a fegyverek szigorú felülvizsgálatára. Ahogy nincs nyilvános feljegyzés elutasított fegyverekről, úgy olyan esetről sem tudni, amely során az államok beszüntették egy fegyver fejlesztését vagy gyártását, mert az elbukott egy törvényes felülvizsgálaton.[125] A teljesen autonóm fegyverek ilyen összetett felülvizsgálatának lebonyolítási költségei újabb visszatartó erőt jelentenének a szigorú vizsgálatok végzésével szemben.

Amint az a 36. cikkben is áll, függetlenül hatékonyságuktól a fegyver-felülvizsgálatok alapvető célja az, hogy „hadviselés” alatt, biztosítsa a nemzetközi jog betartását a fegyveres konfliktusok során. A Nemzetközi Vöröskereszt fegyver-felülvizsgálati útmutatója is ezt az elvet tükrözi, megjegyezve, hogy „az új fegyverek jogszerűségének felmérése hozzájárul annak biztosításához, hogy egy állam fegyveres erői képesek legyenek a nemzetközi kötelességeik betartása mellett lefolytatni a háborús cselekményeket”. [126]

Ez az elv ugyanakkor nem foglalja magában a fegyverek használatának emberi jogi és etikai összefüggéseit. A teljesen autonóm fegyverek önmagukban is sérthetnék az emberi jogokat azzal, hogy a fegyveres konfliktusokon túl a belföldi bűnüldözésben felhasználhatnák őket (lásd: 5. állítás).[127]  Mivel emberi irányítás nélkül is képesek lennének erő bevetésére, ezek a fegyverek komoly etikai aggályokat vetnek fel (lásd: 6. állítás). Ezek közül egyik kockázatot sem vennék figyelembe egy katonai fegyver-felülvizsgálaton.[128]

Néhány állam felismerte a fegyver-felülvizsgálatok során felmerülő nehézségeket, és azok megoldását sürgette.[129]  Az ENSZ CCW 2016-os halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján például az Egyesült Államok azt javasolta, hogy a CCW részes államai készítsenek egy „jogilag nem kötelező erejű záródokumentumot, amely ismerteti az átfogó fegyver-felülvizsgálat folyamatát”.[130] Az ilyen útmutatások követése azonban csak önkéntes alapon működne, és egy ilyen dokumentumnak kisebb tekintélye lenne, mint egy jogilag kötelező érvényű eszköznek.

Bár a fegyver-felülvizsgálatok erősítése és nemzetközi normák felállítása hasznos célok, a teljesen autonóm fegyverekkel kapcsolatos találkozók nem a megfelelő fórumok ezek megvitatására. A felülvizsgálatok javításának szükségessége ugyanis nem kizárólag a teljesen autonóm fegyvereket érinti.[131] A fegyver-felülvizsgálatok vitája a teljesen autonóm fegyverekkel kapcsolatosan elvonja a figyelmet azokról a lényeges problémákról, amelyek az ilyen fegyverek fejlesztéséből és használatából fakadnak.

Ebben az összefüggésben a teljesen autonóm fegyverek jogilag kötelező erejű nemzetközi tiltása hatékony megoldás lenne. A tiltás emellett egyszerűbbé és egységesebbé is tenné a fegyver-felülvizsgálatokat, mivel eloszlatna mindent kételyt arra vonatkozóan, hogy a teljesen autonóm fegyverek használata sértené a nemzetközi jogot.

11. állítás: A szabályozás jobban orvosolná a teljesen autonóm fegyverek aggályait, mint a tiltás.

Cáfolat: A teljesen autonóm fegyverek jogilag kötelező erejű, abszolút tiltása csökkentené a fegyverekkel való visszaélések esélyét, könnyebb lenne betartatni, és tovább fokozná a kihágások megbélyegzését.

Elemzés: Egyes kritikusok azért ellenzik a teljesen autonóm fegyverek kategorikus tiltását, mert olyan keretszabályozást preferálnak, ami engedné az ilyen technológiák használatát bizonyos, előre meghatározott keretek között.[132] Egy ilyen keret például bizonyos típusú helyszínekre vagy célokra korlátozhatná a teljesen autonóm fegyverek használatát. Azt állítják, hogy ez a megközelítés nem lenne túlságosan megengedő, és az autonóm fegyverek technológiájának fejlettségi fokához még szorosabban igazodó korlátozásokat tenne lehetővé. A szabályozás egy kötelező erejű jogi eszközön vagy fokozatosan kialakított, informális irányelven keresztül is kivitelezhető lenne.[133] Valójában azonban bármilyen formába is legyen öntve, a szabályozás semmiképpen nem lenne olyan hatékony, mint a tiltás.

A teljesen autonóm fegyverek abszolút, jogilag kötelező erejű tiltása számos egyértelmű előnnyel járna a formális vagy informális szabályozással szemben.  Maximalizálná a civilek védelmét konfliktushelyzetben, mivel sokkal szélesebb körű lenne a szabályozásnál. A tiltó egyezmény hatékonyságát és betartását a fegyverek létezésének tilalma biztosítaná a legjobban. A tiltás tovább növelné a teljesen autonóm fegyverek megbélyegzését, ezzel egy széles körben elfogadott normát kialakítva, amely még azokra is kihatással lenne, akik nem csatlakoznak az egyezményhez.

Onnantól fogva, hogy a teljesen autonóm fegyverek bekerülnek a szabályozási rendszerbe, könnyen vissza lehetne élni velük. Még ha a szabályozás csak bizonyos helyszínekre vagy célokra is korlátozta a teljesen autonóm fegyverek használatát, miután a fegyverek bekerülnek a nemzeti fegyvertárakba, az országok kísértést érezhetnének arra, hogy az összecsapások hevében vagy szorult helyzetben bevessék őket (lásd: 2. állítás). A teljesen autonóm fegyverek létezése lehetőséget teremtene arra, hogy olyan elnyomó rezsimek vagy nem állami fegyveres csoportok birtokába kerüljenek, ahol semmibe veszik a korlátozásokat és fölülírják vagy átprogramozzák a fegyverek felhasználási módját szabályozó kódolást. Ezáltal saját népük vagy más országok polgárai ellen fordíthatnák a fegyvereket, szörnyű következményekkel.

Ahogy minden szabályozott fegyver esetében, a teljesen autonóm fegyverek esetében is kihívást jelentene a szabályok betartatása, és a hibáknak is teret engedne, ezzel növelve a civilekre jelentett veszélyt. Ahelyett, hogy tudnák, hogy a teljesen autonóm fegyverek mindennemű használata jogellenes, az országoknak, a nemzetközi szervezeteknek és a civil szervezeteknek folyamatosan ellenőrizniük kellene a fegyverek felhasználását, és eseti alapon kellene döntést hozniuk arról, hogy betartották-e a szabályokat. Ebből vélhetőleg számtalan, a korlátozások határairól és azok betartatásáról szóló nézeteltérés fakadna.

A teljesen autonóm fegyverek használatának kötelező erejű, hatékony szabályozása még nehezebb lenne, ha a kormányok egy nem kötelező változat elfogadása mellett döntenek. A jó gyakorlatok elvét támogatók szerint „teret kell engedni más, kevésbé formális folyamatoknak, hogy valóban széles körben elfogadott normák alakuljanak ki ezen a nehéz területen”.[134] Ha azonban ez a „kevésbé formális” szemlélet nem kötelező erejű, az nagy valószínűség szerint semmilyen érdemi módon nem korlátozza a kormányokat, főleg fegyveres konfliktus nyomása alatt. Hasonlóan irreális azt elvárni a kormányoktól, ahogy azt néhány kritikus szeretné, hogy felhagyjanak „a titoktartásra és információk elhallgatására irányuló késztetéseikkel a katonai technológiák terén”, és járuljanak hozzá a teljesen autonóm fegyverek technológiájának helyes felhasználásáról folytatott normatív párbeszédhez.[135] Ha az országok az átláthatóságban bízva megvárják, amíg „kialakulnak a normák” ezen a bevallottan „nagyon nehéz területen”,[136] akkor várhatóan kifejlesztik és bevetik majd ezeket a fegyvereket, és akkor már valószínűleg túl késő lesz szabályozni őket.

12. állítás: Az emberi ellenőrzés biztosítása az autonóm fegyverek tervezésénél és bevetésénél elengedő lenne a felmerülő problémák megoldásához.

Cáfolat: A teljesen autonóm fegyverek veszélyeinek elkerülése érdekében az embereknek érdemi ellenőrzést kell gyakorolniuk a célpontok kiválasztása és az egyes támadások indítása felett. Kizárólag a teljesen autonóm fegyverek tiltása tudja garantálni az ilyen léptékű emberi irányítást.

Elemzés: Bár úgy tűnik, hogy széles körű egyetértés van arról, hogy minden fegyvernek legalább valamilyen szintű „emberi ellenőrzés” alatt kell állnia,[137] néhány kritikus szerint ennek az egyes támadások esetében nem kell közvetlennek lennie. Szerintük a tervezési és bevetési szakaszokban elegendő lenne az emberi ellenőrzés, hogy megelőzzék a teljesen autonóm fegyverekkel kapcsolatos problémákat, mert a fegyverek kiszámíthatóan működnének.[138] Azonban valószínűtlen, hogy az ilyen korlátozottan irányított fegyverek mindig a várakozásnak megfelelően működjenek, pedig az emberi ellenőrzés nem válik érdemlegessé, ha kiszámíthatatlanságra van esély.[139] Az érdemi emberi ellenőrzés létfontosságú a teljesen autonóm fegyverekkel kapcsolatos veszélyek elkerülése érdekében.

Ha a fegyverek feletti emberi ellenőrzés a tervezési és bevetési szakaszokra korlátozódna, a fegyverek kiszámíthatatlanságát szinte lehetetlen lenne elkerülni. A programozók nem lehetnének mindig biztosak abban, hogy a bonyolult kódolású, fejlett fegyverek miként viselkednének a gyakorlatban. Ahogy néhány tudós megjegyzi, „egy egyén sem jósolhatja meg teljes biztossággal egy adott parancs hatását, mivel a nagyszabású és terjedelmes programok egyes részei váratlan, nem vizsgált módon lehetnek hatással egymásra”.[140] Emellett az ilyen fegyverek cselekedeteit a programozón kívül más tényezők is befolyásolhatják. A fegyverek dinamikus tanulási folyamatokra támaszkodhatnának, és létező viselkedésmódokat tehetnek magukévá, és alkalmazhatnak új környezetben.[141] A kizárólag a támadást megelőző szakaszban ellenőrzött és irányítható fegyverek kisszámíthatatlanok lennének, és ez azt jelentené, hogy nem állnak érdemi emberi ellenőrzés alatt.

Az érdemi emberi ellenőrzés hiánya a teljesen autonóm fegyverek legalább három alapvető – e tanulmányban már tárgyalt – veszélyével járna. Először is, mivel az ember nem képes előre beprogramozni a teljesen autonóm fegyvereket arra, hogy kiszámítható választ adjanak előre nem látható helyzetekre, a fegyverek jelentős akadályokba ütköznének a nemzetközi humanitárius jognak vagy az emberi jogi jogszabályoknak való megfelelés tekintetében, mert ezek a jogszabályok megkövetelik az emberi ítélőképesség alkalmazását (lásd: 1. és 5. állítás). Másodszor, az emberi irányításnak a tervezési és bevetési szakaszokra való korlátozása elszámoltathatósági joghézaghoz vezetne, mivel a programozók és a parancsnokok ezekben a szakaszokban nem tudnák megjósolni, hogy a fegyverek miként cselekednének a harctéren, így a legtöbb esetben mentesülnének a felelősség alól (lásd: 3. állítás). Harmadszor, a teljesen autonóm fegyverek az eredendő kiszámíthatatlanságuk miatt nem tudnának megfelelni az előre programozott etikai kereteknek,[142] az pedig erkölcsi határt lépne át, ha az embereket megfosztanák attól a joguktól, hogy a különleges helyzetekben, az erő alkalmazásával kapcsolatosan döntést hozhassanak (lásd: 6. állítás).[143]

A támadó beavatkozások felett érdemi emberi ellenőrzést kell gyakorolni, úgy, hogy az kiterjedjen a fegyverrendszerek technológiai fejlődésével kapcsolatos aggályokra. Ez jogkövetésre ösztönözne azáltal, hogy megkönnyítené az emberi ítélőképesség alkalmazását különleges, előre nem látható helyzetekben. Jogi felelősséget róna az emberre azzal, hogy összetársítaná a cselekvőt a fegyver által okozott kárral. Végül, az egyes támadások alatt gyakorolt érdemi emberi ellenőrzés szavatolná, hogy az erkölcsiség szerepet kapjon az emberek életével és halálával kapcsolatos döntésekben.

A tiltás időszerűsége és megvalósíthatósága

13. állítás: Korai lenne betiltani a teljesen autonóm fegyvereket, tekintettel a lehetséges technológiai fejlődésre.

Cáfolat: Ezeket a kiemelten problematikus fegyvereket előzetesen be kell tiltani, hogy az elővigyázatosság elvével összhangban, megelőzzük a komoly humanitárius károkat, mielőtt túl késő lenne.

Elemzés: Kritikusok szerint a teljesen autonóm fegyverek fejlesztésének, gyártásának és felhasználásának előzetes tiltása korai. Ezzel érvelnek:

Az autonóm gépi döntéshozatal lehetőségeinek kutatása, nemcsak a fegyverekre, de más emberi tevékenységre vonatkozóan is mindössze néhány évtizedre nyúlik vissza. (...) Nem szabad előre kizárnunk a technikai fejlődés pozitív kimenetelű lehetőségeit – ideértve az olyan háborús technológiák fejlődését, amelyek csökkenthetik a lakosságon és civil szereplőkön ejtett károkozást azzal, hogy a célzást pontosabbá, a tűzparancsokat pedig irányítottabbá teszik.[144]

Ez a hozzáállás részben azon a hiten alapszik, hogy a technológia képes a teljesen autonóm fegyverek jogi kihívásait kezelni, ami – ahogyan az 1. állítás alatt megvilágítást nyert – legalábbis valószínűtlennek és bizonytalannak tűnik. Ugyanakkor ez a megközelítés figyelmen kívül hagyja a fegyverrel kapcsolatos azon egyéb veszélyeket, amelyek nem kapcsolódnak a technológiai fejlődéshez, például az elszámoltathatóságot, az erkölcsi kockázatokat vagy a fegyverkezési verseny lehetőségét (lásd: 3. 6. és 8. állítás).

Tekintettel a teljesen autonóm fegyverekkel kapcsolatos számos aggályra, előzetesen be kell őket tiltani, mielőtt túl késő lenne változtatni. A technológiát már igen nehéz megállítani, hogyha nagyszabású beruházások történnek. Nagy lenne a csábítás a már kifejlesztett és a katonai fegyvertárakba beillesztett technológiák felhasználására, és sok ország nem lenne hajlandó feladni őket, főként ha már a versenytársaik is rendelkeznek velük.

Ha a folyamatos fejlesztést engedélyeznék, a hadseregek olyan bonyolult helyzetekben is bevethetnék a teljesen autonóm fegyvereket, amelyekkel a mesterséges intelligencia még nem képes megbirkózni. A technológián csak akkor lehetne módosítani a problémák megoldása érdekében, ha a fegyverek már kerültek olyan váratlan helyzetekbe, amelyekre nem programozták őket. A fegyverek ekkor még valószínűsíthetően rosszul kezelnék ezeket a helyzeteket, potenciálisan komoly sérülést okozva a civileknek, sőt, akár a baráti haderőknek is.

A humanitárius aggályok sokasága és a technológiát övező bizonytalanság okot ad az elővigyázatossági elv, mint nemzetközi jogi alapelv életbe léptetésére. Az 1992-es riói nyilatkozat kimondja, hogy „ahol súlyos vagy visszafordíthatatlan kár fenyeget, a teljes tudományos bizonyosság hiánya nem használható föl indoklásként a környezetromlást megakadályozó, a hatékonysággal járó intézkedések elhalasztására”.[145]  Bár a riói nyilatkozat a környezetvédelemre alkalmazza az elővigyázatossági elvet, az alapelv más helyzetekre is alkalmazható. A teljesen autonóm fegyverek magukban foglalják az elővigyázatossági elv életbe lépésének három alapvető elemét – a súlyos vagy visszafordíthatatlan kár fenyegetését, a tudományos bizonyosság hiányát és a károkat megelőző hatékony intézkedések elérhetőségét. A teljesen autonóm fegyverek fejlesztése, gyártása és felhasználása olyan fenyegetést jelent a civilekre és egyúttal az egész az emberiségre, amely egyszerre súlyos és visszafordíthatatlan, mivel a technológia forradalmasítaná a fegyveres konfliktusokat, és nehéz lenne kiiktatni, miután kifejlesztették és bevetették. A tudományos bizonyosság hiánya jellemzi a fegyvereket övező vitát. A fegyverek védelmezői szerint nincs bizonyíték arra, hogy egy technológiai javítás ne oldhatná meg a problémát, de ugyanígy nincs bizonyíték arra sem, hogy egy ilyen javítás működne. Végül, bár az egyezmény tárgyalása és végrehajtása költségekkel járna, ezek a költségek eltörpülnek a segítségükkel megelőzhető jelentős károk mellett.

Létezik precedens egy fegyvertípus előzetes tiltására. Ahogy a 4. állítás alatt ki lett fejtve, 1995-ben az ENSZ CCW részes államai még azelőtt elfogadták a vakító lézerek betiltását, hogy azokat elkezdték volna bevetni.[146] A tárgyalások során több ország hasonló aggályokat vetett fel a vakító lézerekkel kapcsolatban, mint a teljesen autonóm fegyverek esetében, és a tárgyalások végül sikeresen egy új jogi eszköz, az ENSZ CCW IV. jegyzőkönyvének megalkotásához vezettek. Az államoknak erre a modellre kell építeniük, és megegyezni egy hasonló tiltásról a teljesen autonóm fegyverekre vonatkozóan. Bár vannak különbségek a két fegyvertípus között, a teljesen autonóm fegyverek forradalmian új természete inkább megerősíti, mintsem cáfolja az előzetes tiltás fontosságát.[147] 

14. állítás: Szükséges definiálni a teljesen autonóm fegyvereket, mielőtt az általuk jelentett problémákat orvosolni lehetne.

Cáfolat: A teljesen autonóm fegyverekkel (más néven halálos autonóm fegyverrendszerekkel) kapcsolatban már kialakulóban van az általános egyetértés, és a leszerelési tárgyalások története azt mutatja, hogy csak azután lehet egy egyezmény részletes, jogi definícióját megalkotni, hogy előzőleg megoldásra kerültek más, lényegi kérdések.

Elemzés: Néhány bíráló szerint a vita nem juthat el az egyezménnyel kapcsolatos tárgyalás szakaszába, amíg nincs részletes definíciója a teljesen autonóm fegyvereknek, vagy az ENSZ CCW részes államai előtt ismert nevükön, a halálos autonóm fegyverrendszereknek.[148] Az egyik állam például megjegyezte, hogy „úgy tűnik, nincs egyetértés a halálos autonóm fegyverrendszerek definíciójáról. (...) Ezt a nézőpontot osztva több állam (…) nem támogatta más államok felhívását a halálos autonóm fegyverrendszerek előzetes tiltására”.[149] Egy másik állam azzal érvelt, hogy „az ilyen rendszerek betiltása azelőtt, hogy széles körű megegyezés lenne a definíciójukról, nem lenne életszerű”.[150] Mindazonáltal a tagok közötti általános egyetértésnek elegendőnek kell lennie ahhoz, hogy tovább folytatódhassanak a tanácskozások.

A kérdésről nyilvánosan elérhető nyilatkozattal rendelkező legtöbb ország alapvetően egyetért abban, hogy mi számít teljesen autonóm fegyvernek. Úgy látják, hogy a teljesen autonóm fegyverek, bár gyorsan fejlődnek, még mindig nemlétező, újszerű technológiákat jelentenek.[151] Emellett egyetértenek abban, hogy a teljesen autonóm fegyverek, ahogy a nevük is mutatja, fegyverrel felszerelt, halálos technológiák.[152] Harmadrészt, a kérdésben megnyilvánuló legtöbb állam úgy kezeli a teljesen autonóm fegyvereket, mint amelyek érdemi emberi ellenőrzés nélkül működnek. Az alkalmazott terminológia az „érdemi emberi ellenőrzés” kifejezéstől”,[153] az “emberi ítélőképesség megfelelő szintjén”,[154] át az „emberi részvételig”[155] terjed, de abban úgy tűnik, szinte egyetemes az egyetértés, hogy a teljesen autonóm fegyvereknél fennáll az emberi ellenőrzés hiánya. Végül, bár az vitatott, hogy pontosan hol hiányzik az emberi ellenőrzés, azzal kapcsolatban is kialakulóban van az egyetértés, hogy az a teljesen autonóm fegyvereknél olyan kritikus harci helyzetekben hiányzik, mint a célpontok kiválasztása és megtámadása.[156]

A leszerelési tárgyalások során mindig az eljárás végén alakultak ki az általános egyetértésből a jogi definíciók. A taposóaknák,[157] a kazettás bombák[158] és a vakító lézerek tiltásáról szóló egyezmények esetében először a tárgyalt egyezmény céljait, hatáskörét és kötelezéseit határozták meg, mielőtt a végső definíciókig eljutottak volna. A taposóaknákat tiltó egyezmény első tervezetében a ENSZ CCW II. kiegészítő jegyzőkönyvéből vett definíciót alkalmazták az aknákra.[159] Ez a definíció kiindulópont volt, amit a későbbi változatokban átdolgoztak, és még az egyezmény végső tárgyalása alatt is vita tárgyát képezte.[160]

Ehhez hasonlóan a kazettás bombákat tiltó egyezmény tárgyalási története is egy olyan nyilatkozattal indult, amelyben az államok egy nemzetközi konferencián elkötelezték magukat „a civileket érő elfogadhatatlan károkat okozó kazettás bombák” tiltása mellett.[161] Ugyan néhány állam fejtegette a kazettás bombák definícióját az ezt követő diplomáciai találkozókon, a végső tárgyalásokig nem sikerült megegyezniük a kazettás bombák egyetemes definíciójáról.[162] A ENSZ CCW kormányzati szakértői csoportjának a vakító lézerekkel kapcsolatban tartott találkozóiról származó munkadokumentumok és jegyzőkönyvtervezetek ugyanezt a mintát követik: a tervezetben szereplő definíció csak az alapvető elemeit tartalmazza a végső definíciónak, amit a tárgyalások későbbi szakaszában alkottak meg.[163]

Elegendő nemzetközi megegyezés született a teljesen autonóm fegyverek alapvető elemeiről ahhoz, hogy a tárgyalások folytatódhassanak. Nem tanácsos elveszni a definíció részleteiben azelőtt, hogy meghatároznák a tárgyalások céljait. Eredményesebb lenne először a tiltások és korlátozások kérdésében döntésre jutni a fegyverek általános kategóriáját tekintve, és csak azután részletezni, hogy azok pontosan mely fegyverekre érvényesek. A nemzetközi közösségnek ezért egy jövőbeni jogi eszköz céljának, hatáskörének és a kötelezéseinek összeállítására kell fókuszálnia. A teljesen autonóm fegyverek végső jogi definíciójáról elég egy későbbi szakaszban tárgyalni.

15. állítás: A teljesen autonóm fegyverek betiltása gátolná az autonóm technológiák érdemi fejlődését.

Cáfolat: A tiltás nem lehetetlenítené el az autonóm technológiák érdemi fejlődését, mert az nem térne ki a fegyvertelen teljesen autonóm technológiákra vagy a félautonóm fegyverrendszerekre.

Elemzés: Néhány kritikus aggasztónak tartja a gondolatot, hogy a tiltás a fejlesztésekre is hatással lenne. Attól félnek, hogy az egyezmény tiltaná „még az olyan automatizálási technológiák vagy elemek fejlesztését is, amelyeket akár teljesen autonóm halálos fegyverrendszerekhez is fel lehetne használni”.[164] Ezek a bírálók attól tartanak, hogy a tiltás ezzel gátat szabna az előnyös autonóm technológiák, például az önvezető autók kutatásának.

A tiltás valójában csak a teljesen autonóm fegyverek fejlesztésére vonatkozna, vagyis olyan gépekre, amelyek képesek érdemi emberi ellenőrzés nélkül kiválasztani és megtámadni célpontokat. A kutatás-fejlesztési tevékenységet betiltanák, ha azt olyan technológiára fordítanák, amit kizárólag teljesen autonóm fegyvereknél lehetne felhasználni, vagy kifejezetten ebből a célból folyna a fejlesztés. A teljesen autonóm fegyverek fejlesztésének tiltása semmiképp sem gátolná a fegyvertelen teljesen autonóm robottechnológia fejlődését, aminek sokféle nem katonai alkalmazása lehetséges.

A tiltás nem érintené a félautonóm fegyverek, például a távolból irányított fegyveres drónok létező technológiájának fejlesztését sem.

 A teljesen autonóm fegyvereknek a nemzeti fegyvertáraktól való távoltartása végett (lásd: 13. állítás) a fejlesztésükre vonatkozó tiltást el kell fogadni, még ha ez korlátozást is jelent. Ennek belefoglalása a tiltásról szóló egyezménybe jogilag kötelezné a részes államokat arra, hogy ne kössenek kifejezetten a teljesen autonóm fegyverek fejlesztését érintő szerződéseket, és hogy ne tegyenek lépéseket más autonóm technológiák ilyen fegyverekben való alkalmazására. Emellett a fejlesztés és a felhasználás megbélyegzésével szigorúbb mérce alakulna ki a teljesen autonóm fegyverekkel szemben, ami így még azokra az államokra és nem állami fegyveres csoportokra is kihatással lenne, amelyek nem csatlakoztak az egyezményhez.

16. állítás: A teljesen autonóm fegyverek nemzetközi tiltása valószerűtlen, és nem is lenne hatékony.

Cáfolat: A múltbeli leszerelések sikerei, a tiltás növekvő támogatása és a problémára irányuló egyre nagyobb nemzetközi figyelem arra utal, hogy a tiltás nemcsak valószerű, de az egyetlen hatékony eszköze a teljesen autonóm fegyverek problémáinak megoldására.

Elemzés: Néhány kritikus szerint a teljesen autonóm fegyverek fejlesztésének, gyártásának és felhasználásának abszolút tiltása „valószerűtlen”.[165] Azt írják, hogy „a nézeteltérésünk részben azokból a gyakorlati nehézségekből fakad, amelyek a katonai technológiák nemzetközi tiltását övezik (szerintünk az ilyen törekvések bukásra vannak ítélve)”.[166] Más bírálók szerint, még ha el is fogadnának egy ilyen tiltást, azt nem lehetne betartatni, mert az államok vagy nem csatlakoznának a tiltáshoz, vagy megszegnék azt.[167] Ezek a kritikusok nem ismerik fel a párhuzamot a múltbeli leszerelési törekvések sikereivel, amelyek humanitárius előnyökkel jártak, és nem veszik figyelembe azt, hogy egyre többen támogatják a halálos döntések feletti érdemi emberi ellenőrzés fenntartását.
 
A súlyos humanitárius aggályokat felvető fegyverek tiltására is komoly precedens van. A nemzetközi közösség korábban már fogadott el jogilag kötelező erejű tiltást a mérgező gázokra, a biológiai fegyverekre, a vegyi fegyverekre, a taposóaknákra és a kazettás bombákra, valamint előzetes tiltást az akkor még fejlesztés alatt álló vakító lézerekre. A taposóaknák és a kazettás bombák tiltásának ellenzői gyakran hangoztatták, hogy egy tiltó egyezmény megalkotása lehetetlen, de a tiltások sikere azt bizonyítja, hogy a szkepticizmusuk alaptalan volt. Az ezekhez az egyezményekhez csatlakozó államok száma és az egyezmények általános betartása azok hatékonyságát bizonyítja, valamint azt mutatja, hogy lehetséges a humanitárius leszerelés a civilek védelme érdekében.

A teljesen autonóm fegyverek veszélyeinek kezelése hasonló úton halad, mint a korábbi humanitárius leszerelési egyezmények. 2012 áprilisában indult el az „Állítsuk meg a gyilkos robotokat” nemzetközi kampány, amely a teljesen autonóm fegyverek fejlesztésének, gyártásának és felhasználásának abszolút tiltásáért küzd. A kezdeményezés hasonlít az olyan korábbi civil szövetségekre, mint a taposóaknák vagy a kazettás bombák tiltásának eléréséért létrejött szerveződések.

A kezdeményezést a tiltást támogató nyilvánosság is segíti. 2020. január végéig több mint 247 szervezet és 3253 robotokkal és mesterséges intelligenciával (MI) foglalkozó kutató írta alá azt a 2015-ös nyílt levelet, amely a teljesen autonóm fegyverek tiltását javasolja. Szerintük „ahogyan a legtöbb vegyésznek és biológusnak nem áll érdekében a vegyi vagy biológiai fegyverek építése, úgy a legtöbb MI-kutatónak sem áll érdekében MI-fegyverek építése – és nem is akarják, hogy mások lejárassák a szakterületüket ilyesmivel, aminek jelentős hátrányai lehetnek az MI megítélésében a közvélemény részéről, ezáltal megfosztva őket annak jövőbeli társadalmi előnyeitől”.[168] Közvélemény-kutatások szintén a tiltás támogatottságát mutatják. Egy 2019-es nemzetközi közvélemény-kutatásból például kiderül, hogy a válaszadók 61 százaléka) betiltaná a teljesen autonóm fegyvereket (lásd: 4. állítás).[169] A kormányok képviselői megkezdték a tárgyalásokat a teljesen autonóm fegyverekről. A fenti kezdeményezéssel egyidejűleg a civilszervezetek nyomást gyakoroltak rájuk, beemelve a témát az ENSZ CCW programjába, ami azért fontos, mert a ENSZ CCW korábban elérte a vakító lézerek előzetes tiltását, és inkubátorként szolgált a taposóaknák és a kazettás bombák tiltásában. Az ENSZ részes államai 2014 óta nyolc informális szakértői találkozót hívtak össze, melyeken mélyrehatóan vizsgálták a halálos autonóm fegyverrendszerek által fölvetett jogi, erkölcsi és etikai kérdéseket. A találkozók során több állam felismerte annak szükségét, hogy valamilyen módon foglalkozzon az autonóm fegyverekkel. Harminc állam jelezte, hogy kifejezetten támogatja a tiltást.[170] A 2016-os szakértői találkozókon részt vevő részes államok azt javasolták, hogy a CCW ötödik felülvizsgálati konferenciáján hozzanak létre egy formálisabb kormányzati szakértői csoportot, hogy előmozdítsák a vitát.[171] Most a felülvizsgálati konferenciákon múlik annak biztosítása, hogy az államok felvegyék a tempót, és meghozzák a következő lépést egy olyan jogi eszköz felé, amely betiltja a teljesen autonóm fegyverek fejlesztését, gyártását és felhasználását.

A tiltás elérése minden bizonnyal jelentős mennyiségű munkát és politikai akaratot követel majd. A precedensek és a friss fejlemények azonban arra utalnak, hogy a teljesen autonóm fegyverek jogilag kötelező erejű tiltása a legreálisabb és leghatékonyabb módszer az ilyen fegyverek által jelentett veszélyek kezelésére.

 

Köszönetnyilvánítás

A tanulmány fő szerzője és szerkesztője Bonnie Docherty, a Human Rights Watch fegyverekkel foglalkozó osztályának (Arms Division) vezető kutatója és a Harvard Law School International Human Rights Clinic (IHRC) vezető klinikai oktatója volt. Joseph Crupi, Anna Khalfaoui és Lan Mei, az IHRC hallgatói nagyban hozzájárultak a tanulmányban foglalt kutatásokhoz, elemzésekhez és annak megírásához. Steve Goose, az Arms Division igazgatója és Mary Wareham, az Arms Division advokációs igazgatója a tanulmány szerkesztésében vett részt. Dinah PoKempner jogtanácsos és Tom Porteous programigazgató-helyettes a tanulmány felülvizsgálatában vett részt.

A tanulmányt Jacqulyn Kantack, az Arms Division munkatársa, Fitzroy Hepkins igazgatási vezető és Jose Martinez vezető koordinátor készítette elő megjelenésre. A tanulmány borítórajzát Russell Christian készítette.

 

 

[1] A Human Rights Watch és a Harvard Law School International Human Rights Clinic hozzájárult a teljesen autonóm fegyverekről szóló közbeszéd kialakításához, a 2012-ben megjelent, Az emberiesség elvesztése: A gyilkos robotok elleni ügy című jelentésükkel. Azóta még több jelentést és tanulmányt készítettek a témában. Például: Az emberiesség elvesztése: A gyilkos robotok elleni ügy, 2012. november, https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-killer-robots; Az Egyesült Államok 2012-es autonóm fegyverrendszerekkel kapcsolatos politikájának felülvizsgálata, 2013. április, http://www.hrw.org/news/2013/04/15/review-2012-us-policy-autonomy-weapons-systems; Teljesen autonóm fegyverek: Kérdések és válaszok, 2013. október, http://www.hrw.org/news/2013/10/21/qa-fully-autonomous-weapons; A teljesen autonóm fegyvereket tiltó új törvény szükségessége, 2013. november, http://www.hrw.org/news/2013/11/13/need-new-law-ban-fully-autonomous-weapons; Az alapok megrendítése: A gyilkos robotok emberi jogi összefüggései, 2014. május, https://www.hrw.org/sites/default/files/reports/arms0514_ForUpload_0.pdf; A felelősség kérdése: A gyilkos robotok elszámoltathatóságának hiánya, 2015. április, https://www.hrw.org/sites/default/files/reports/arms0415_ForUpload_0.pdf; A megelőzés precedense: A vakító lézerfegyverek tiltása mint modell a gyilkos robotok betiltására, 2015. november, https://www.hrw.org/sites/default/files/supporting_resources/robots_and_lasers_final.pdf; Gyilkos robotok és az érdemi emberi ellenőrzés koncepciója, 2016. április, https://www.hrw.org/news/2016/04/11/killer-robots-and-concept-meaningful-human-control

[2] Human Rights Watch és IHRC: A gyilkos robotokról szóló vita előmozdítása: 12 fontos érv a teljesen autonóm fegyverek megelőző tiltására, 2014. május, https://www.hrw.org/news/2014/05/13/advancing-debate-killer-robots

[3] Schmitt, Michael N. és Thurnher, Jeffrey S.: Kihagyva: Autonóm fegyverrendszerek és a fegyveres konfliktusok jogi vonatkozásai. In: Harvard National Security Journal, 4. évf., 2013, 234. o.

[4] Schmitt, Michael N.: Autonóm fegyverrendszerek és a nemzetközi humanitárius jog: Válasz a bírálatokra, Harvard National Security Journal Features online, 2013, http://harvardnsj.org/2013/02/autonomous-weapon-systems-and-international-humanitarian-law-a-reply-to-the-critics/ (hozzáférés: 2016. november 20.), 11. o.

[5] Arkin, Ronald C.: Az autonóm robotok halálos viselkedésének irányítása. Boca Raton, FL, CRC Press, 2009, 126. és 211. o.

[6] Schmitt 2013, 17. o. (Az érvelés középpontjában az a kérdés áll, hogy az autonóm fegyverekbe lehetséges-e kielégítő mértékben beleprogramozni a „kétely számítását”.)

[7] A megkülönböztetés szabályát a genfi egyezmények kiegészítéséről szóló első jegyzőkönyv és a nemzetközi szokásjog is megköveteli. Lásd: Jegyzőkönyv az 1949-es genfi egyezmények kiegészítéséről és a nemzetközi fegyveres összeütközések áldozatainak védelméről (I. jegyzőkönyv), elfogadva: 1977. június 8., 1125 U.N.T.S. 3, hatályos: 1978. december 7. óta, 48. cikk; Nemzetközi Vöröskereszt (ICRC): Nemzetközi humanitárius szokásjog adatbázis, https://ihl-databases.icrc.org/customary-ihl/eng/docs/v1_rul_rule1 (hozzáférés: 2016. november 20.), 1. szabály

[8] Schmitt 2013, 20. o.

[9] Lásd a 8. lábjegyzetnél (kiemelés hozzáadva)

[10] Schmitt és Thurnher 2013, 255. o.

[11] Az arányosság eseti alapú jellegének kifejtését lásd ugyanott, 256. o. (A szerzők azt állítják, hogy „az arányosság szabályának katonai előnyökről szóló része általában eseti döntéseket követel”.)

[12] A NATO Jugoszlávia elleni légi hadműveletének felülvizsgálatára létrehozott bizottság zárójelentése az ügyészségnek. Nemzetközi Törvényszék, 50. szakasz, http://www.difesa.it/SMD_/CASD/IM/ISSMI/Corsi/Corso_Consigliere_Giuridico/Documents/72470_final_report.pdf (hozzáférés: 2016. november 20.)

[13] Schmitt és Thurnher 2013, 280. o. („A támadások tervezésénél emberek, és nem gépek vagy szoftverek hozzák majd meg azokat a szubjektív döntéseket, amelyeket a fegyveres konfliktus törvénye megkövetel, így az arányosságot és az elővigyázatosságot érintőket is. Bár a szubjektív döntéseket bizonyos esetekben a megszokottnál korábban kell majd meghozni a tervezés során, ez azonban nem érinti a döntések törvényességét, és a fegyverrendszerek törvényes bevetésének sem szabnak gátat”.)

[14] Corten, Olivier: Racionalitás a nemzetközi jogban. Max Planck Encyclopedia of Public International Law, frissítve 2013 márciusában, 1. szakasz (kiemelés hozzáadva) https://opil.ouplaw.com/view/10.1093/law:epil/9780199231690/law-9780199231690-e1679?prd=EPIL#law-9780199231690-e1679-div1-1 (hozzáférés: 2016. november 20.)

[15] Anderson, Kenneth és Waxman, Matthew: Jog és erkölcs az autonóm fegyverrendszerekben: Miért nem működhet a tiltás, és hogyan működhetnek a háború törvényei. Jean Perkins Task Force on National Security and Law, 2013, 23. o. http://media.hoover.org/sites/default/files/documents/Anderson-Waxman_LawAndEthics_r2_FINAL.pdf (hozzáférés: 2016. november 20.)

[16] Corten 2013, 1. szakasz.

[17] ICRC: 1987-es kommentár a jegyzőkönyvhöz az 1949-es genfi egyezmények kiegészítéséről és a nemzetközi fegyveres összeütközések áldozatainak védelméről (I. jegyzőkönyv), elfogadva: 1977. június 8., 57. cikk, 2210. szakasz.https://ihl-databases.icrc.org/applic/ihl/ihl.nsf/Comment.xsp?action=openDocument&documentId=D80D14D84BF36B92C12563CD00 434FBD (hozzáférés: 2016. november 20.)

[18] ENSZ Emberi Jogi Tanács: Az ENSZ bírósági tárgyalás nélküli, azonnali vagy önkényes kivégzésekkel foglalkozó különmegbízottjának jelentése. Christof Heyns: Halálos autonóm robotika és az élet védelme. A/HRC/23/47, 2013. április 9., 72. szakasz, http://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session23/A-HRC-23-47_en.pdf (hozzáférés: 2016. november 20.) Lásd még: Human Rights Watch és IHRC: Az emberiesség elvesztése, 32-34. o. (Megjegyzi, hogy mivel az arányossági vizsgálat szubjektív, nem „a számítógépek automatikus döntéshozatali képessége kell hozzá, hanem emberi ítélőképesség”.)

[19] Lásd 17. lábjegyzet, 2208. szakasz (kiemelés hozzáadva)

[20] A drónok repülése. The Economist, 2011. október 8., http://www.economist.com/node/21531433 (hozzáférés: november 16.) (Az Egyesült Államok Légierejének vezető kutatóját, Mark Mayburyt idézve.)

[21] Lásd 20. lábjegyzet

[22] Anderson, Kenneth és Reisner, Daniel és Waxman, Matthew: A fegyveres konfliktus törvényének alkalmazása az autonóm fegyverrendszerekre. International Law Studies, 90. évf. (2014), 406. o.

[23] Lewis, John: A teljesen autonóm fegyverek szabályozásának ügye. Yale Law Journal, 124. évf. (2015), 1315. o.

[24] Anderson, Reisner és Waxman 2014, 406. o.

[25] Scharre, Paul: Gondolatok a Chatham House autonómiáról szóló konferenciájáról. Lawfare (blog), 2014. március 3., http://www.lawfareblog.com/2014/03/guest-post-reflections-on-the-chatham-house-autonomy-conference/ (hozzáférés: 2016. november 20.)

[26] Human Rights Watch: Célponton kívül: A háború menete és civil áldozatok Irakban. 2003. december, 54-63. o., https://www.hrw.org/reports/2003/usa1203/usa1203.pdf; Human Rights Watch: Elárasztani Dél-Libanont: Izrael kazettásbomba-használata Libanonban 2006 júliusában és augusztusában. 2008. február, 42-44. o., https://www.hrw.org/sites/default/files/reports/lebanon0208webwcover.pdf

[27] Anderson és Waxman. Jog és erkölcs az autonóm fegyverrendszerekben, Jean Perkins Task Force on National Security and Low, 2013, 17. o.

[28] Schmitt és Thurnher 2013, 277. o.

[29] A teljesen autonóm fegyverek elszámoltathatóságának problémájáról lásd még: Human Rights Watch és IHRC: A felelősség kérdése: A gyilkos robotok elszámoltathatóságának hiánya, 2015. április

[30] Shelton, Dinah: Jogorvoslatok a nemzetközi emberi jogi jogszabályokban. Oxford, Oxford University Press, 2005, 12. o.

[31] A negyedik genfi egyezmény és annak I. kiegészítő jegyzőkönyve arra kötelezi az államokat, hogy tegyék meg a szükséges törvényhozási intézkedéseket a háborúban elkövetett „súlyos jogsértések” (pl. civilek szándékos megtámadása vagy az arányosság elvének tudatos figyelmen kívül hagyása) esetén. Egyezmény a polgári lakosság háború idején való védelméről (IV. genfi egyezmény), elfogadva 1949. augusztus 12-én, 75 U.N.T.S. 287, hatályba lépett 1950. október 21-én, 146. cikk; I. jegyzőkönyv, 85-86. cikk.

[32] Lásd például: Beard, Jack M.: Autonóm fegyverek és emberi felelősségek. Georgetown Journal of International Law, 45. évf. (2014); Cass, Kelly: Autonóm fegyverek és az elszámoltathatóság. Loyola of Los Angeles Law Review, 48. évf. (2015); Hammond, Daniel N.: Autonóm fegyverek és az állami elszámoltathatóság problémája. Chicago Journal of International Law, 15. évf. (2015); Norvégia nyilatkozata, az ENSZ hagyományos fegyverekről szóló genfi egyezményével (CCW) kapcsolatos, halálos autonóm fegyverrendszerek szakértőinek találkozóján, Genf, 2016. április 13., („Elszámoltathatóság nélkül a nemzetközi bűncselekmények elrettentése és megelőzése sokkal nehezebbé válik”.); Pakisztán nyilatkozata az ENSZ CCW halálos autonóm fegyverrendszerek szakértőinek találkozóján, Genf, 2016. április 11., („Ha egy fegyvernél lehetetlen biztosítani a felelősségvállalást annak következményeiért, akkor azt etikátlannak és törvénytelennek kell nyilvánítani”.)

[33] A Nemzetközi Törvényszék Római Statútuma (Róma Statútum), A/CONF.183/9, 1998. július 7., hatályba lépett 2002. július 1-én, 25. cikk („A bíróságnak e rendelet alapján joghatósága van a természetes személyek felett”.); A volt Jugoszláviában elkövetett háborús bűncselekményeket vizsgáló nemzetközi törvényszék frissített statútuma, 2009. szeptember, 6. cikk.

[34] Sparrow, Robert: Gyilkos robotok. Journal of Applied Philosophy, 24. évf., 1. szám (2007), 72. o.

[35] Lásd 34. lábjegyzet

[36] Lásd például: Just v. Brit Kolumbia, 2 SCR 1228, 1989 (amely szerint a kanadai kormány mentességet élvez a politikai döntéseivel kapcsolatos bírósági eljárások alól); UK Crown Proceedings Act 1947, 10. szakasz (amely azt állítja, hogy a brit kormány és maguk a katonák nem vonhatók felelősségre a fegyveres erők szolgálatban történt cselekedetei miatt); Az állam mentessége az igazságszolgáltatás alól (Németország kontra Olaszország), Nemzetközi Bíróság, ítélet, 2012. február 3. (amely kimondja, hogy az államokkal szemben még a nemzetközi jog súlyos megsértésének ügyében sem lehet polgári pert indítani).

[37] Nagle, John Copeland: A szuverén mentelmi jog megvonása az egyértelmű állítások szabályának korában. Wisconsin Law Review, 1995. évf., (1995), 776-777. o.

[38] Lásd: Human Rights Watch és IHRC: A felelősség kérdése: A gyilkos robotok elszámoltathatóságának hiánya, 2015. április, 31. o.

[39] Ilyen vétkesség nélküli rendszereket gyakran alkalmaznak olyan termékek vagy tevékenységek esetében, amelyek ugyan rendkívül veszélyesek lehetnek, de nagy társadalmi hasznot hajtanak; ezek megkönnyítik a kockázatos termékek alkalmazását, például azzal, hogy az áldozatoknak kártérítést nyújtanak, bizonyos fokú kiszámíthatóságot eredményezve, a kártérítés összegére pedig felső határt állapítanak meg. Ilyen típusú vétkesség nélküli rendszert használnak a védőoltások károsultjainak kompenzálására, és felmerült már az önvezető autók okozta károk rendezésére is. Funkhouser, Kevin: Megnyitni az utakat: önvezető járművek, termékfelelősség és egy új megközelítés szükségessége. Utah Law Review, 1. szám (2013), 458-459. o.; Goodrich, Julie: Miss Daisy sofőrje: Egy autonóm sofőrrendszer. Houston Law Review, 51. évf. (2013), 284. o.

[40] További információért lásd: Human Rights Watch és IHRC: A felelősség kérdése: A gyilkos robotok elszámoltathatóságának hiánya, 2015. április, 36. o.

[41] I. jegyzőkönyv, 1. cikk (2). A Martens-klauzula az 1899-es hágai egyezmény preambulumában is megjelenik. Egyezmény (II.) a szárazföldi háború törvényeiről és szokásairól, és Függelék: Rendelkezések a háború törvényeiről és szokásairól. Hága, elfogadva: 1899. július 29., hatályba lépett: 1900. szeptember 4., pmbl.

[42] Schmitt és Thurnher 2013, 275. o.

[43] Lásd 42. lábjegyzet, 276. o.

[44] In re Krupp, a nürnbergi törvényszék 1948. július 31-i ítélete, Háborús bűnösök tárgyalása a nürnbergi katonai bíróságok előtt, IX. kötet, 1340. o.

[45] Nemzetközi Bíróság: Szakértői vélemény a nukleáris fegyverek fenyegetésének és felhasználásának törvényességéről, 1996. július 8., 78. szakasz, http://www.icj-cij.org/docket/files/95/7495.pdf (hozzáférés: 2016. november 20.)

[46] Néhány bíráló szerint a nemzetközi humanitárius jog elégségesen szabályozná az autonóm fegyverrendszereket, azonban a legfontosabb szabályok általánosak, úgy mint az 1. állítás alatt tárgyalt megkülönböztetés és arányosság elve. Bár a kritikusok kiemelik a gyalogsági aknákat, a kazettás bombákat és a gyújtófegyvereket korlátozó egyezmények alkalmazhatóságát, ezek nem szolgálnak jogi útmutatással a teljesen autonóm fegyverekre vonatkozóan. Mindössze az olyan teljesen autonóm fegyvereket szabályozzák, amelyek aknákat, kazettás bombákat, vagy gyújtófegyvereket lőnének ki, de nem adnak választ az autonóm rendszereket érintő egyedi kihívásokra. A teljesen autonóm fegyvereket a mai napig nem szabályozza semmilyen törvény. A bírálók nézeteinek megismeréséhez lásd: Schmitt és Thurnher 2013, 276. o.

[47] Lásd például: In re Krupp, nürnbergi törvényszék, 1340. o. (mely kiemeli, hogy a Martens-klauzula „sokkal több egy kegyes nyilatkozatnál”). Lásd még: Cassesse, Antonio: A Martens-klauzula: Egy fél cipó, vagy süti az égen? European Journal of International Law, 11. évf., 1. szám (2000), 210. o. (mely megemlíti, hogy a Nemzetközi Bíróság előtt a nukleáris fegyverekkel kapcsolatos szakértői vélemény ügyében megjelent legtöbb állam „javasolta a klauzula hatályának kiterjesztését, jogi normává emelve azt, hogy új jogforrásokat alakíthasson ki); Nemzetközi Vöröskereszt (ICRC): Útmutató az új fegyverek, hadviselési eszközök és módszerek jogi felülvizsgálatához, az 1977-es I. jegyzőkönyv (2006) 36. cikke, 17. o., http://www.icrc.org/eng/resources/documents/publication/p0902.htm (hozzáférés: 2016. november 20.) (mely leírja, hogy „azok a fegyverek, amelyeket nem szabályoznak a nemzetközi humanitárius jog hatályos szabályai, a Martens-klauzulával ellentétesek, amennyiben az emberiesség elve, vagy a társadalmi igazságérzet megsértésére törnek”.)

[48] Cassesse 2000, 212. o.

[49] Lásd 48. lábjegyzet. Lásd még: Bernstorff, Jochen von: A Martens-klauzula. Max Planck Encyclopedia of Public International Law, frissítve: 2009. december, 13. szakasz, http://opil.ouplaw.com.ezp-prod1.hul.harvard.edu/view/10.1093/law:epil/9780199231690/law-9780199231690-e327?rskey=QVxFkp&result=1&prd=EPIL (hozzáférés: 2016. november 20.) („Második olvasatra a klauzula értelmező eszköznek tekinthető annak megállapítására, hogy kétes esetekben a nemzetközi humanitárius jogot az emberiesség elve és a társadalmi igazságérzet felől kell értelmezni”.)

[50] Nemzetközi Vöröskereszt (ICRC): A Vöröskereszt és a Vörös Félhold alapelvei, ICRC Publication ref. 0513 (1996),  2. o., http://www.icrc.org/eng/assets/files/other/icrc_002_0513.pdf (hozzáférés: 2016. november 20.)

[51] Open Roboethics Initiative (Nyílt Robotetika Kezdeményezés): A halálos autonóm fegyverrendszerek etikája és irányítása: Egy nemzetközi közvélemény-kutatás. 2015. november 9., 4. és 8. o., http://www.openroboethics.org/wp-content/uploads/2015/11/ORi_LAWS2015.pdf (hozzáférés: 2016. november 20.)

[52] Lásd 51. lábjegyzet, 7. o.

[53] Carpenter, Charli: Amerikai közvélemény az autonóm fegyverekről. 2013. június, http://www.duckofminerva.com/wp-content/uploads/2013/06/UMass-Survey_Public-Opinion-on-Autonomous-Weapons.pdf (hozzáférés: 2016. november 20.). Ezek az adatok a Yougov.com által, 1000 amerikai bevonásával készített reprezentatív online kutatáson alapulnak. A válaszadók az internetfelhasználók egy válogatott csoportját alakították — nem, kor, faji hovatartozás, jövedelem, lakhely, végzettség, pártpreferencia, választási regisztráció, ideológia, politikai hovatartozás és katonai státusz szerint csoportosítva és súlyozva. Az eredmények hibahatára +/- 3,6 százalék. A mintavétel módszertanáról, korlátairól és pontosságáról a http://yougov.co.uk/publicopinion/methodology/ oldalon található bővebb információ.

[54] Human Rights Watch és IHRC, A megelőzés precedense: A vakító lézerfegyverek tiltása mint modell a gyilkos robotok betiltására, 2015. november, 3-7. o. Lásd még: Akerson, David: Az offenzív halálos autonómia jogellenessége. In: Nemzetközi humanitárius jog és a háború változó technológiája, szerk.: Dan Saxon (Leiden: Martinus Nijhoff, 2013), 92-93. o.; CCW jegyzőkönyv a vakító lézerekről (CCW IV. jegyzőkönyv), elfogadva 1995. október 13-án, hatályba lépett 1998. július 30-án, 1. cikk.

[55] Lásd például: Human Rights Watch, Vakító lézerfegyverek: Egy kegyetlen és embertelen fegyver betiltásának szükségessége, 7. kötet, 1. szám (1995), http://www.hrw.org/reports/1995/General1.htm#P583_118685; ICRC: Vakító fegyverek: a Nemzetközi Vöröskereszt csatatéri lézerfegyver bizottsága által összehívott szakértői találkozókról szóló jelentések, 1989-1991 (Genf: ICRC, 1993), 344-346. o.

[56] Az ICRC jelentése szerint, „néhány szakértő kifejezte személyes ellenszenvét a lézerek iránt, illetve azt a véleményét, hogy az országa polgárai a vakítást, mint háborús módszert botrányosnak találnák”. Lásd 55. lábjegyzet. Mások szerint az esetleges katonai hasznok ellenére sem lenne lehetséges ilyen fegyvereket felvonultatni, a közvélemény ellenzése miatt. Lásd 55. lábjegyzet, 345. o.

[57] Ezt a reakciót sugallják az ICRC találkozóin résztvevő szakértők megjegyzései is. Az egyik résztvevő például azt állította, hogy nem lenne képes vakító fegyvereket bevetni, mert az országában „a közvéleményt megbotránkoztatná ez a terv”. Egy másik résztvevő szerint „vitathatatlan, hogy a háborúban szándékos vakság okozása társadalmilag elfogadhatatlan lenne”. Lásd 55. lábjegyzet, 345. o.

[58] Akerson 2013, 96. o.

[59] Heyns, Christof: Emberi jogok és az autonóm fegyverrendszerek használata a belföldi bűnüldözésben. Human Rights Quarterly, 38. évf., 2. szám, 351. o.

[60] A teljesen autonóm fegyverek emberi jogi vonatkozásainak részletesebb kifejtéséért lásd: Human Rights Watch és IHRC: Az alapok megrendítése: A gyilkos robotok emberi jogi összefüggései, 2014. május

[61] Polgári és Politikai Jogok Nemzetközi Egyezségokmánya (ICCPR), elfogadva 1966. december 16-án, G.A. Res. 2200A (XXI), 21 U.N. GAOR Supp. (No. 16) at 52, U.N. Doc. A/6316 (1966), 999 U.N.T.S. 171, hatályba lépett 1976. március 23-án., 6. cikk.

[62] ENSZ Emberi Jogi Tanács, 6. számú általános megjegyzés, Az élethez való jog, U.N. Doc. HRI/GEN/1/Rev.1 at 6 (1994), 1. szakasz. Lásd még: Nowak, Manfred: ENSZ Polgári és Politikai Jogok Nemzetközi Egyezségokmánya: CCPR kommentár (Arlington, VA: N.P. Engel, 2005), 104. o.

[63] ICCPR, 6. cikk(1).

[64] Lásd Human Rights Watch és IHRC: Az alapok megrendítése: A gyilkos robotok emberi jogi összefüggései, 2014. május, 8-14. o.

[65] ENSZ Emberi Jogi Tanács, 6. számú általános megjegyzés, 3. szakasz.

[66] Lásd Guarini, Marcello és Bello, Paul: Robotháború: A nemcivil színtérről a civil színtérre lépés kihívásai. In: Robotetika: A robotika etikai és társadalmi összefüggései, szerkesztette: Patrick Lin, Keith Abney és George A. Bekey (Cambridge, MA: Massachusetts Institute of Technology, 2012), 138. o. („Egy érzelem nélküli rendszer … nem lenne képes megjósolni mások érzelmeit vagy cselekedeteit, hiszen nincsenek saját érzelmei, melyekre alapozhatna”.); Sharkey, Noel: Egyszerűsített gyilkosság: A botkormánytól a politikáig. In: Robotetika, szerkesztette: Lin, Abney és Bekey, 118. o. („Az emberek oly módon értik meg egymást, ahogyan arra a robotok képtelenek. A jelzések nagyon finomak lehetnek, és végtelen számú körülmény létezik, amelyben a halálos erő bevetése helytelen”.)

[67] A nukleáris fegyverekkel kapcsolatos szakértői véleményében a Nemzetközi Bíróság kifejtette, hogy „[f]őszabály szerint az a jog, melynek értelmében az egyént nem lehet önkényesen megfosztani az életétől, háborúban is érvényesül”. Nemzetközi Bíróság, Szakértői vélemény a nukleáris fegyverek fenyegetésének és felhasználásának törvényességéről, 25. szakasz. Lásd még: Nowak 2005, 108. o. („A nemzetközi jog szerint jogszerű fegyveres konfliktusok és polgárháborúk során történő önkényes gyilkosságok sértik az élethez való jogot”.); ENSZ Emberi Jogi Tanács, 31. számú általános megjegyzés, A részes államokra vonatkozó általános jogi követelmények természete az egyezmény értelmében (18. ülés, 2004), U.N. Doc. CCPR/C/21/Rev.1/Add.13 (2004), 11. szakasz (Az ICCPR „olyan fegyveres konfliktushelyzetekre is érvényes, ahol a nemzetközi humanitárius jog is alkalmazható”.)

[68] Nowak 2005, 108. o., 29. Mivel az államok „legfőbb feladata, hogy megelőzzék a háborúkat”, az ENSZ Alapokmányát sértő háborúban elkövetett gyilkosságok az élethez való jogot is sértik. Lásd még: ENSZ Emberi Jogi Tanács, 6. számú általános megjegyzés, 2. szakasz.

[69] Az emberi jogok egyetemes nyilatkozata (UDHR), elfogadva 1948. december 10-én, G.A. Res. 217A(III), U.N. Doc. A/810 at 71 (1948), 8. cikk („Minden személynek joga van az alkotmányban vagy a törvényben részére biztosított alapvető jogokat sértő eljárások ellen a hazai bíróságokhoz tényleges jogorvoslatért folyamodni”.); ICCPR, 2. cikk (3).

[70] Lásd: ENSZ Emberi Jogi Tanács, 31. számú általános megjegyzés, 15. és 18. szakasz; Alapelvek és iránymutatások a jogorvoslatra és jóvátételre való joghoz a nemzetközi emberi jogi jogszabályok és a nemzetközi humanitárius jog súlyos megsértésének áldozatai számára (2005-ös alapelvek és iránymutatások), elfogadva 2005. december 16-án, G.A. Res. 60/47, 4. cikk.

[71] UDHR, preambulum, 1. szakasz („az emberiség családja minden egyes tagja méltóságának, valamint egyenlő és elidegeníthetetlen jogainak elismerése alkotja a szabadság, az igazság és a béke alapját a világon”).

[72] Beard 2014, 640. o.

[73] Arkin: Az autonóm robotok halálos viselkedésének irányítása, 2009, 127. o.

[74] Legalább 16 állam emelt etikai kifogást az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóin 2014-ben, 2015-ben és 2016-ban.

[75] A Szentszék nyilatkozata az ENSZ CCW szakértői találkozóján a halálos autonóm fegyverrendszerekkel kapcsolatban, Genf, 2015. április 16., 8. o.

[76] Chile nyilatkozata az ENSZ CCW részes államok találkozóján, Genf, 2014. november 13-14.

[77] ENSZ Emberi Jogi Tanács, Az ENSZ bírósági tárgyalás nélküli, azonnali vagy önkényes kivégzésekkel foglalkozó különmegbízottjának jelentése. Heyns, Christof: Halálos autonóm robotika és az élet védelme, 93. szakasz.

[78] A békés gyülekezés és egyesülés szabadságához való joggal foglalkozó különmegbízott és a bírósági tárgyalás nélküli, azonnali vagy önkényes kivégzésekkel foglalkozó különmegbízott közös jelentése az Emberi Jogi Tanács felé, A/HRC/31/66, 2016. február 4., 67. szakasz (f).

[79] Nobel-békedíjasok szólítanak fel a gyilkos robotok megelőző tiltására. 2014. május 12., http://nobelwomensinitiative.org/nobel-peace-laureates-call-for-preemptive-ban-on-killer-robots/ (hozzáférés: 2016. november 21.)

[80] Thornhill, John: A katonai gyilkos robotok erkölcsi dilemma elé állítanak. Financial Times, 2016. április 25., https://www.ft.com/content/8deae2c2-088d-11e6-a623-b84d06a39ec2 (hozzáférés: 2016. október 20.) (idézet Jody Williamstől).

[81] Pax Christi International: Vallásközi nyilatkozat a teljesen autonóm fegyverek tiltása mellett. http://www.paxchristi.net/sites/default/files/interfaith_declaration.pdf (hozzáférés: 2016. november 21.)

[82] Lásd például: Carpenter, Charli: Ki fél a gyilkos robotoktól? (És miért?). Washington Post, 2014. május 30., https://www.washingtonpost.com/news/monkey-cage/wp/2014/05/30/whos-afraid-of-killer-robots-and-why/ (hozzáférés: 2016. november 21.) (A szerző megjegyzi, hogy „[a] válaszadók szerint a gépek számára leginkább elsajátíthatatlan emberi tulajdonság az erkölcsi érzék lenne. A válaszadók ismétlődően egyedi emberi tulajdonságnak nevezték az ítélőképességet, az empátiát és az erkölcsi cselekvőképességet”.) Lásd még: Open Roboethics Initiative (Nyílt Robotetika Kezdeményezés): A halálos autonóm fegyverrendszerek etikája és irányítása: Egy nemzetközi közvélemény-kutatás. 2015. november 9., 7. o. (amely szerint a válaszadók 34 százaléka választotta a „kizárólag embereknek szabad élet-halál döntéseket hoznia” lehetőséget a teljesen autonóm fegyverek elutasításának legfőbb okaként).

[83] Szentszék: A halálos autonóm fegyverrendszerek használata: erkölcsi kérdések. CCW szakértői találkozó a halálos autonóm fegyverrendszerekkel kapcsolatban, Genf, 2015. április 13., http://www.unog.ch/80256EDD006B8954/(httpAssets)/4D28AF2B8BBBECEDC1257E290046B73F/$file/2015_LAWS_MX_Ho ly+See.pdf (hozzáférés: 2016. november 21.) („A megfontolt ítéletet nem lehet algoritmusokba ültetni”.)

[84] ENSZ Emberi Jogi Tanács, a bírósági tárgyalás nélküli, azonnali vagy önkényes kivégzésekkel foglalkozó különmegbízott jelentése. Heyns, Christof: Halálos autonóm robotika és az élet védelme, 94. szakasz.

[85] Lásd 84. lábjegyzet, 55. szakasz.

[86] UDHR: preambulum, 1. szakasz. Az Oxford angol szótár definíciója szerint a méltóság „az érdemesség, érték, becsületesség, nagylelkűség, kiválóság tulajdonsága”. Oxford English Dictionary online, “dignity”.

[87] Donnelly, Jack: Emberi méltóság és emberi jogok. In: Svájci kezdeményezés az UDHR 60. évfordulójának emlékezetére, A méltóság védelmében: Program az emberi jogokra, 2009. június, 10. o., https://www.scribd.com/document/200255016/HUMAN-DIGNITY-AND-HUMAN-RIGHTS (hozzáférés: 2016. november 21.)

[88] Elias, Roni: Szembesülés a gyilkos robotok szép új világával. Indonesian Journal of International & Comparative Law, 3. évf. (2016), 115. o.

[89] ENSZ Emberi Jogi Tanács, a bírósági tárgyalás nélküli, azonnali vagy önkényes kivégzésekkel foglalkozó különmegbízott jelentése, Heyns, Christof: Halálos autonóm robotika és az élet védelme, 94. szakasz.

[90] Arkin 2009, 127. o. Arkin nézeteinek további tárgyalásáért lásd: Wallach, Wendell és Allen, Colin: Erkölcsös gépek. Oxford: Oxford University Press, 2008., 171-172. o.

[91] Arkin 2009, 127. o.

[92] Purves, Duncan és Jenkins, Ryan és Strawser, Bradley J.: Autonóm gépek, erkölcsi ítélőképesség és a helyes okból való cselekvés. Ethical Theory and Moral Practice, 18. évf., 4. szám (2015), 855-858. o. (az erkölcsi ítélőképesség kódolásának lehetetlenségéről); Elias 2016, 122. o. Lásd még: Roff, Heather M.:, A stratégiai robotprobléma: Halálos autonóm fegyverek a háborúban. Journal of Military Ethics, 13. évf., 3. szám. (2014), 213-215. o.; Englert, Matthias és Siebert, Sandra és Ziegler, Martin: A gépi erkölcsök logikai korlátai a halálos autonóm fegyverek következményeire nézve. IANUS, Technische Universitat Darmstadt (2014) (arról, hogy miért lehetetlen úgy programozni egy robotot, hogy az következetesen képes legyen erkölcsös döntéseket hozni bármilyen helyzetben).

[93] Elias 2016, 122. o.

[94] Moor, James H.: A gépi etika természete, fontossága és nehézsége. IEEE Intelligent Systems (2006), 20. o.

[95] Beavers, Anthony: Erkölcsös gépek és az etikai nihilizmus fenyegetése. In Robotetika, szerk.: Lin, Abney és Bekey, 6. o.

[96] Lásd 95. lábjegyzet. Lásd még: Chopra, Samir és White, Laurence F.: Az autonóm mesterséges cselekvők jogi elmélete (University of Michigan Press 2011); Wallach és Allen 2008.

[97] Asaro, Peter: Az autonóm fegyverrendszerek tiltásáról: Emberi jogok, automatizálás és a halálos döntéshozatal dehumanizálása. International Review of the Red Cross, 94. évf., 886. szám (2012), 686. o.

[98] Arkin, Ronald C.: A halálos viselkedés irányítása: Az erkölcsök beemelése egy hibrid megfontoló/reaktív robotszerkezetbe. Technical Report GIT-GVU-07-11, 6-7. o., http://www.cc.gatech.edu/ai/robot-lab/online-publications/formalizationv35.pdf (hozzáférés: 2016. november 21.)

[99] Lt. Col. Grossman, Dave: A gyilkolásról: A gyilkolás elsajátításának pszichológiai ára a háborúban és a társadalomban (New York: Little, Brown and Company, 1995), 4. o.

[100] Krishnan, Armin: Gyilkos robotok: Az autonóm fegyverek jogszerűsége és erkölcsisége. Farnham: Ashgate Publishing Limited, 2009, 130. o.

[101] Például a 2. világháború alatt amerikai katonák ezreit megkérdező S. L. A. Marshall dandártábornok szerint, általában csak a seregek 15-20 százaléka lő az ellenségre. Ez a gyilkosság ösztönös elutasítása miatt van, nem a félelem vagy a gyávaság vezérli, mivel „azok, akik nem lőttek, nem is futottak vagy bújtak el (és sok esetben hajlandók voltak veszélyes helyzetekbe belemenni, hogy megmentsék bajtársaikat, lőszert szerezzenek vagy hírt vigyenek)”. Marshall, S. L. A.: Emberek a tüzelés ellen: A jövő háborújának problémája a parancsokkal. New York: William Morrow & Company, 1947, 54. o.; Grossman 1995, 4. o. Más kutatók azt jegyezték fel, hogy a katonák sokszor úgy kerülik el a gyilkolást, hogy ismétlődően megtöltik a fegyverüket lövés nélkül, vagy az ellenség feje fölé lőnek. Az amerikai polgárháborúban az amerikai katonák puskatöltési módszeréről bővebben lásd: Grossman 1995, 18-28. o. Ardant du Picq a 19. századi francia csapatok levegőbe tüzeléséről szóló tanulmányának ismertetéséért lásd: Grossman 1995 9-10. o. Lásd még: Grossman 1995, 16-17. o. (a brit védelmi műveleti elemzőközpont 1986-as tanulmányáról, amelyben 100 „19. és 20. századi csatáról és tárgyalásról” esik szó).

[102] Krishnan 2009, 130. o.

[103] Anderson és Waxman 2013, 2. o.

[104] Hammond 2015, 661. o.

[105] Lásd 104. lábjegyzet, 660. o.

[106] Anderson és Waxman 2013, 5. o.; Hammond 2015, 660-661. o.

[107] Hammond 2015, 660. o.

[108] Felkészülés a mesterséges intelligencia jövőjére. Elnöki végrehajtó hivatal, Nemzeti Tudományos és Technológiai Tanács, Technológiai Bizottság, 2016. október, 1. o., https://www.whitehouse.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf (hozzáférés: 2016. november 21.) („Az Egyesült Államok évtizedek óta alkalmaz autonómiát egyes fegyverrendszerek esetében, ami nagyobb pontosságot és biztonságosabb, emberibb katonai műveleteket eredményez”.).

[109] Sharkey, Noel: A háború automatizálása: A drónoktól tanult leckék. Journal of Law, Information & Science(2011), 2. o., http://www.jlisjournal.org/abstracts/sharkey.21.2.html, (hozzáférés: 2016. november 21.)

[110] Schmitt és Thurnher 2013, 238. o.

[111] Tucker, Patrick: A Pentagon aggódik az orosz és kínai gyilkos robotok miatt. Defense One, 2015. december 14., http://www.defenseone.com/threats/2015/12/pentagon-nervous-about-russian-and-chinese-killer-robots/124465/?oref=DefenseOneFB&&& (hozzáférés: 2016. november 21.)

[112] Future of Life Institute: Autonóm fegyverek: Nyílt levél MI- és robotkutatóktól, megjelent 2015. július 28-án, http://futureoflife.org/open-letter-autonomous-weapons (hozzáférés: 2016. november 21.)

[113] Sauer, Frank: Nemzetközi bizottság a robotfegyverek ellenőrzésére (ICRAC), Az ICRAC második nyilatkozata a biztonságról a 2016-os ENSZ CCW szakértői találkozón, 2016. április 15., http://icrac.net/2016/04/icrac-second-statement-on-security-to-the-2016-un-ccw-expert-meeting/ (hozzáférés: 2016. november 21.)

[114] Lewis 2015, 1325. o. Lásd még: Cass 2015, 1039-1040. o.

[115] Schmitt és Thurnher 2013, 232. o.

[116] Kastan, Benjamin: Autonóm fegyverrendszerek: A törvényes ‘szingularitás’ érkezése? University of Illinois Journal of Law, Technology, and Policy (2013 tavasz), 45. o.

[117] I. jegyzőkönyv, 36. cikk.

[118] Lásd például: Boothby, William: szakértői előadás az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2015. április 13-17., http://www.unog.ch/80256EE600585943/(httpPages)/6CE049BE22EC75A2C1257C8D00513E26?OpenDocument (hozzáférés: 2016. november 21.) („A megfelelő válasz márpedig az, hogy gondoskodni kell arról, hogy az államok megfelelően felülvizsgálják a fegyvereket”); Jai Galliot, szakértői előadás az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2016. április 11-15., http://www.unog.ch/80256EE600585943/(httpPages)/37D51189AC4FB6E1C1257F4D004CAFB2?OpenDocument (hozzáférés: 2016. november 21.) („a hatályos nemzetközi jogszabályok és a fegyver-felülvizsgálati folyamatok elégséges szabályozó funkciót töltenek be”); Anderson, Reisner és Waxman 2014, 398. o.

[119] 36. cikk, 36. cikk felülvizsgálatok és a halálos autonóm fegyverrendszerek kezelése: Összefoglaló dokumentum az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozójának küldöttei számára, 2016. április, 3. o., http://www.article36.org/wp-content/uploads/2016/04/LAWS-and-A36.pdf (hozzáférés: 2016. november 21.)

[120] ICRC: Irányelvek az új fegyverek jogi felülvizsgálatához, 4. o. Lásd még: Cass 2015, 1041. o.

[121] Boulanin, Vincent: A 36. cikk fegyver-felülvizsgálatok megvalósítása a fegyverrendszerek növekvő autonómiájának fényében. SIPRI Insights on Peace and Security, 2015/1. szám, (2015. november), 30. o., https://www.sipri.org/sites/default/files/files/insight/SIPRIInsight1501.pdf (hozzáférés: 2016. november 21.)

[122] I. jegyzőkönyv, 36. cikk.

[123] Lásd például: Kanada, Finnország, Svédország és Zambia nyilatkozatai az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2016. április 11-15, http://www.unog.ch/80256EE600585943/(httpPages)/37D51189AC4FB6E1C1257F4D004CAFB2?OpenDocument (hozzáférés: 2016. november 21.)

[124] 36. cikk, 36. cikk felülvizsgálatok és a halálos autonóm fegyverrendszerek kezelése: Összefoglaló dokumentum az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozójának küldöttei számára, 2016. április, 2. o.

[125] Lásd 124. lábjegyzet.

[126] ICRC: Irányelvek az úgy fegyverek jogi felülvizsgálatához, 1. o.

[127] Lásd általánosságban: Human Rights Watch és IHRC: Az alapok megrendítése: A gyilkos robotok emberi jogi összefüggései, 2014. május

[128] 36. cikk, 36. cikk felülvizsgálatok és a halálos autonóm fegyverrendszerek kezelése: Összefoglaló dokumentum az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozójának küldöttei számára, 2016. április, 2. o. Lásd még: Miriam Struyk, PAX, Az átláthatóság nem elég, CCW kísérőesemény előadás, 2016. április 13., https://wapenfeiten.files.wordpress.com/2016/04/presentation-pax-side-event-april-2016.pdf (hozzáférés: 2016. november 21.); A Mines Action Canada nyilatkozata az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2016. április 13., https://stopkillerrobots.ca/2016/04/13/mines-action-canadas-intervention-on-article-36-weapons-reviews/ (hozzáférés: 2016. november 21.) A fegyver-felülvizsgálatok a teljesen autonóm fegyverek biztonsági aggályait is figyelmen kívül hagynák. 2015 novemberében India közölte: „Úgy érezzük, hogy a halálos autonóm fegyverrendszereket nemcsak a nemzetközi jog, így a nemzetközi humanitárius jog szempontjából, hanem a nemzetközi biztonságra gyakorolt hatása szempontjából is vizsgálni kellene, amennyiben az ilyen fegyverrendszerek terjedni kezdenek”. India nyilatkozata az ENSZ CCW részes államainak találkozóján, Genf, 2015. november 12., http://www.unog.ch/80256EDD006B8954/(httpAssets)/3BAE1E11C60AE555C1257F0F00394109/$file/india.pdf (hozzáférés: 2016. november 27.)

[129] Lásd például: Kanada, Finnország, Svédország és Zambia nyilatkozatai az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2016. április 11-15.

[130] Az Egyesült Államok nyilatkozata az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2016. április 11., http://www.unog.ch/80256EE600585943/(httpPages)/37D51189AC4FB6E1C1257F4D004CAFB2?OpenDocument (hozzáférés: 2016. november 21.)

[131] 36. cikk, 36. cikk felülvizsgálatok és a halálos autonóm fegyverrendszerek kezelése: Összefoglaló dokumentum az ESNZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozójának küldöttei számára, 2016. április, 2. o.

[132] Lásd: Krishnan, Armin: A háború automatizálása: A szabályozás szükségessége. Contemporary Security Policy, 30. évf., 1. szám (2009), 189. o. („Nem az általános tiltás a legjobb módja annak, hogy a katonai robotika lehetséges következményeit kezeljük... Azt javasoljuk megoldásként, hogy engedjük az autonóm fegyverek védelmi alkalmazásait, de szabjunk jelentős korlátokat a támadásbeli alkalmazásainak, valamint teljesen tiltsuk be bizonyos fajtáit, pl. önfejlődő, önreplikáló robotok, mikrobotok”.) Lásd még: Anderson, Reisner és Waxman 2014; Bills, Gwendelynn: A maguk törvényei szerint: A halálos autonóm fegyverrendszerek fejlesztésének és felhasználásának ellenőrzése. George Washington Law Review, 83. évf. (2015); Crootof, Rebecca: A gyilkos robotok itt vannak: Jogi és politikai összefüggések. Cardozo Law Review, 36. évf. (2015), 1879. o.; Elias 2016.

[133] Anderson és Waxman 2013, 22. o. (A szerzők kifejtik, hogy „nemzetközi normák alatt nemcsak a kötelező erejű új jogszabályokat értjük, legyen az egyezmény vagy a nemzetközi szokásjog része, hanem a jogilag vagy etikailag helyénvaló használattal kapcsolatos széles körű elvárások fokozatos ápolását is – akár kötelező erejűek, akár nem”.)

[134] Lásd 133. lábjegyzet, 20. o.

[135] Lásd 133. lábjegyzet, 25. o. (a titoktartással kapcsolatos amerikai tendenciára utalva).

[136] Lásd 133. lábjegyzet, 20. o.

[137] Az ENSZ CCW autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, 2016-ban legalább 26 állam egyetértett abban, hogy minimum bármilyen szintű emberi irányításra szükség van. Ezek: Ausztria, Chile, Costa Rica, Csehország, Dánia, Dél-Afrika, Dél-Korea, Görögország, Hollandia, Horvátország, Írország, Izrael, Japán, Kolumbia, Kuba, Lengyelország, Marokkó, Németország, Olaszország, Pakisztán, Sierra Leone, Spanyolország, Svájc, Svédország, a Szentszék és Törökország.

[138] ENSZ Leszerelési Kutatóintézet: Az egyre inkább autonóm technológiák fegyveresítése: Gondolatok arról, hogyan mozdíthatja elő a vitát az érdemi emberi ellenőrzés (2014), http://www.unidir.org/files/publications/pdfs/considering-how-meaningful-human-control-might-move-the-discussion-forward-en-615.pdf (hozzáférés: 2016. november 21.), 3. o. (A kutatók megjegyzik, hogy némelyek szerint „az emberi ellenőrzés elégségesen gyakorolható a rendszer tervezése alatt, és annak biztosítása által, hogy megbízhatóan és kiszámíthatóan működik, anélkül, hogy minden célzási és támadási döntéshez emberre legyen szükség”.) Lásd még: Adviesraad Internationale Vraagstukken és Commissie Van Advies Inzake Volkenrechtelijke Vraagstukken: Autonóm fegyverrendszerek: Az érdemi emberi ellenőrzés szükségessége 2015. október, 34. o.; Horowitz, Michael C. és Scharre, Paul: Érdemi emberi ellenőrzés a fegyverrendszerekben: Alapfeltétel. Center for a New American Security munkadokumentum, 2015. március, 8. o.

[139] Még a teljesen autonóm fegyverek egyes támogatói is úgy vélik, hogy a fegyverek cselekedetei alapvetően kiszámíthatatlanok lennének. Lásd például: Bills 2015, 197. o. Az érdemi emberi ellenőrzés definíciójáért lásd: Richard Moyes: Az érdemi emberi ellenőrzés legfőbb elemei, 36. cikk hátlap, 2016. április, 4. o., http://www.article36.org/wp-content/uploads/2016/04/MHC-2016-FINAL.pdf (hozzáférés: 2016. november 21.)

[140] Gary E. Marchant et al.: Az autonóm katonai robotok nemzetközi felügyelete. Columbia Science and Technology Law Review, 12. évf. (2011), 284. o.

[141] Anderson és Waxman 2013, 12. o. Lásd még: Cordeschi, Roberto: Automata döntéshozatal és megbízhatóság a robotikai rendszerekben: A robotfegyverek ügyének néhány összefüggése. AI & Society, 28. évf., 4. szám (2013), 436. o.; Marchant, Gary E. és Mossman, Kenneth L.: Önkényes és önfejű: Az elővigyázatosság elve az Európai Unió bíróságain. Washington D.C.: AEI Press, 2004, 284. o.

[142] Általánosságban lásd: Englert, Matthias és Siebert, Sandra és Ziegler, Martin: A gépi erkölcsök logikai korlátai a halálos autonóm fegyverek következményeire nézve.

[143] Elias 2016, 122. o.

[144] Anderson és Waxman 2013, 15. o.

[145] Riói nyilatkozat a környezetről és a fejlődésről, U.N. Doc. A/CONF.151/26 (1. kötet), 31 ILM 874, 1992, elfogadva 1992. június 14-én, 15. elv. A riói nyilatkozat az ENSZ 1992-es, a környezetről és fejlődésről tartott konferenciájának eredménye. Ez az ENSZ-konferencia a környezetromlás kockázatait övező egyre nagyobb aggályok miatt jött létre, és 172 ország képviselői vettek részt rajta. ENSZ-konferencia a környezetről és a fejlődésről (1992), http://www.un.org/geninfo/bp/enviro.html (hozzáférés: 2016. november 21.)

[146] CCW IV. jegyzőkönyv

[147] Human Rights Watch és IHRC, A megelőzés precedense: A vakító lézerfegyverek tiltása mint modell a gyilkos robotok betiltására, 2015. november, 17-18. o.

[148] Lásd például: az ENSZ 2014-es, 2015-ös és 2016-os CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóin tett nyilatkozatok Argentína, Ausztrália, Csehország, Dél-Korea, az Egyesült Királyság, Franciaország, Japán, Kína, Lengyelország, Marokkó, Németország, Spanyolország, Sri Lanka, Svédország, Törökország és Új-Zéland által.

[149] Izrael nyilatkozata az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2016. április 11., http://www.unog.ch/80256EE600585943/(httpPages)/37D51189AC4FB6E1C1257F4D004CAFB2?OpenDocument (hozzáférés: 2016. november 21.)

[150] Törökország nyilatkozata az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2016. április 11., http://www.unog.ch/80256EE600585943/(httpPages)/37D51189AC4FB6E1C1257F4D004CAFB2?OpenDocument (hozzáférés: 2016. november 21.)

[151] 2016-ban, az ENSZ CCW halálos autonóm fegyverekkel kapcsolatos szakértői találkozóján legalább 25 ország jellemezte a teljesen autonóm fegyvereket úgy, mint újszerű vagy fejlődő technológiát. Köztük volt Algéria, Ausztrália, Ausztria, Dél-Afrika, Ecuador, az Egyesült Államok, az Egyesült Királyság, Franciaország, Hollandia, India, Izrael, Japán, Kanada, Lengyelország, Marokkó, Mexikó, Németország, Norvégia, Olaszország, Pakisztán, Sierra Leone, Spanyolország, Svájc, a Szentszék és Törökország.

[152] A teljesen autonóm fegyverek körébe nem tartoznak bele a megfigyelőrendszerek vagy a civil használatra készült autonóm technológiák. 2016-ban, az ENSZ CCW halálos autonóm fegyverekkel kapcsolatos szakértői találkozóján több mint 30 állam használta a „halálos” szót a teljesen autonóm fegyverek jellemzésénél. Köztük volt Algéria, Ausztrália, Ausztria, Costa-Rica, Dél-Afrika, Ecuador, az Egyesült Államok, az Egyesült Királyság, Finnország, Franciaország, Hollandia, India, Izrael, Japán, Kanada, Lengyelország, Marokkó, Mexikó, Németország, Norvégia, Olaszország, Pakisztán, Sierra Leone, Spanyolország, Sri Lanka, Svájc, a Szentszék, Törökország, Új-Zéland és Zambia.

[153] Az érdemi emberi ellenőrzés további kifejtését lásd a 12. állítás alatt. Lásd még: Human Rights Watch és IHRC: Gyilkos robotok és az érdemi emberi ellenőrzés koncepciója

[154] Az Egyesült Államok nyilatkozata az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2016. április 11.,  http://www.unog.ch/80256EE600585943/(httpPages)/37D51189AC4FB6E1C1257F4D004CAFB2?OpenDocument (hozzáférés: 2016. november 21.)

[155] Svájc nyilatkozata az ENSZ CCW halálos autonóm fegyverrendszerekkel kapcsolatos szakértői találkozóján, Genf, 2016. április 11-15.,  http://www.unog.ch/80256EE600585943/(httpPages)/37D51189AC4FB6E1C1257F4D004CAFB2?OpenDocument (hozzáférés: 2016. november 21.)

[156] 2016-ban az ENSZ CCW halálos autonóm fegyverekkel kapcsolatos szakértői találkozóján legalább 13 állam taglalta az emberi ellenőrzés fontosságát a kritikus helyzetekben, így a célpontok kiválasztásában és megtámadásában.

[157] A taposóaknák alkalmazásának, felhalmozásának, gyártásának és átadásának betiltásáról, valamint a megsemmisítésükről szóló egyezmény, elfogadva 1997. szeptember 18-án, hatályba lépett 1999. március 1-én.

[158] Egyezmény a kazettás bombák tiltásáról, elfogadva 2008. május 30-án, hatályba lépett 2010. augusztus 1-én.

[159] Maslen, Stuart és Herby, Peter: A taposóaknák nemzetközi tiltása: Az ottawai egyezmény története és tárgyalása. International Review of the Red Cross, 325. cikk (1998),https://www.icrc.org/eng/resources/documents/article/other/57jpjn.htm (hozzáférés: 2016. november 21.)

[160] Lásd 159. lábjegyzet.

[161] Oslói konferencia a kazettás bombákról, Nyilatkozat. 2007. február 23., http://www.clusterconvention.org/files/2012/11/Oslo-Declaration-final-23-February-2007.pdf (hozzáférés: 2016. november 21.)

[162] Human Rights Watch: Nézzünk szembe a kihívással: A civilek védelme a kazettás bombákat tiltó egyezmény által, 2010. november, 128-136. o., https://www.hrw.org/sites/default/files/reports/armsclusters1110webwcover.pdf

[163] CCW kormányzati szakértői csoport, A vakító lézerfegyverek tiltásának jegyzőkönyvtervezete, CCW/CONF.I/GE/CRP.28, 1994. augusztus 12.; CCW kormányzati szakértői csoport, Különböző javaslatok a vakító lézerek tiltására, CCW/CONF.I/GE/CRP.45, 1995. január 11.; CCW IV. jegyzőkönyv, 1. cikk.

[164] Anderson és Waxman 2013, 14. o.

[165] Lásd 164. lábjegyzet, 3. o.

[166] Anderson és Waxman, A Human Rights Watch jelentése a gyilkos robotokról és annak  kritikája. Lawfare blog, 2012. november 26., http://www.lawfareblog.com/2012/11/human-rights-watch-report-on-killer-robots-and-our-critique/ (hozzáférés: 2016. november 21.)

[167] Anderson, Reisner és Waxman 2014, 398. o.; Hauptman, Allyson: Autonóm fegyverek és a fegyveres konfliktus törvényei. Military Law Review, 218. évf. (2013), 195. o.; Warren, Aiden és Bode, Ingvil: Megváltozott feltételek: Az erőszak alkalmazásának újrafogalmazása az Egyesült Államokban. Contemporary Security Policy, 36. évf., 2. szám (2015), 191. o. („Az amerikai döntéshozók soha sem fogják fontolóra venni az erőszak alkalmazásával kapcsolatos döntések feladását, főleg nem a halálos autonóm fegyvereket övező bizonytalanság tekintetében”.)

[168] Future of Life Institute: Autonóm fegyverek: Nyílt levél MI- és robotkutatóktól.

[169] Open Roboethics Initiative (Nyílt Robotetika Kezdeményezés): A halálos autonóm fegyverrendszerek etikája és irányítása: Egy nemzetközi közvélemény-kutatás. 2015. november 9., 1. o.

[170] 2016 novemberéig a következő államok álltak ki a teljesen autonóm fegyverek megelőző betiltása mellett: Algéria, Bolívia, Chile, Costa Rica, Ecuador, Egyiptom, Ghána, Kuba, Mexikó, Nicaragua, Pakisztán, Palesztina, a Szentszék és Zimbabwe. Campaign to Stop Killer Robots: A betiltás támogatása növekszik, a folyamat lassan halad. 2016. április 15., https://www.stopkillerrobots.org/2016/04/thirdmtg/ (hozzáférés: 2016. november 21.)

[171] Javaslatok a 2016-os felülvizsgálati konferenciára: benyújtotta a 2016-os szakértői találkozó elnöke az ENSZ CCW halálos autonóm fegyverekkel kapcsolatos szakértői találkozóján, 2016. április, http://www.unog.ch/80256EDD006B8954/(httpAssets)/6BB8A498B0A12A03C1257FDB00382863/$file/Recommendations_ LAWS_2016_AdvancedVersion+(4+paras)+.pdf (hozzáférés: 2016. november 21.)