Under det senaste året har utveckoch ny teknik ökat inom alla sektorer av våra samhällen, inklusive inom militären. Vissa observatörer har beskrivit utvecklingen av AI som ett Oppenheimer-ögonblick – när de militära tillämpningarna av tekniken riskerar att föra mänskligheten över en farlig gräns.
I konflikter runt om i världen digitaliseras krig i snabb takt. I Ukraina utvecklas nya vapensystem med autonomi för att användas på slagfältet. I Libyen har FN rapporterat att stridande "jagades och besköts" av patrullrobotar, som svävar i luften medan de söker efter mål att attackera när de upptäcks. I Burkina Faso och Etiopien har militären använt sig av beväpnade drönare i attacker som dödat civila. I Gaza har den israeliska militären använt avancerade digitala stödsystem som underlag för beslut om vilka mål som ska attackeras.
Riskerna är enorma. I dag är det fortfarande människor som fattar de slutliga besluten om specifika attacker, men tekniken utvecklas snabbt. Forskare, AI-experter och icke-statliga organisationer som Human Rights Watch har i över ett decennium varnat för utvecklingen av autonoma vapensystem, som ibland kallas "mördarrobotar". Snart kan världen ståinför ett skifte där vapensystem kommer att kunna välja mål och öppna eld – utan någon mänsklig inblandning.
I ett försämrat säkerhetspolitiskt klimat i Europa finns det starka önskemål om en snabb utveckling av militär teknik. Men denna utveckling får inte vara naiv eller gränslös. Det finns starka invändningar mot att utveckla vapensystem som saknar meningsfull mänsklig kontroll och som kan riktas mot människor. Att överlåta beslut om liv och död till en maskin, och därmed reducera människor till datapunkter, är moraliskt oacceptabelt.
Dessa system saknar förmåga att tolka sammanhang eller göra bedömningar i oförutsägbara och snabbt föränderliga miljöer – som att avgöra om ett mål är militärt eller civilt, om en beväpnad person utgör ett hot eller om en skadad soldat har kapitulerat. Dessa avgöranden kräver mänskligt omdöme, etik och empati.
Autonoma vapensystem kan bli billiga att tillverka och lätt hamna i händerna på organiserad brottslighet eller terroristgrupper. De kommer att utgöra ett helt nytt hot mot våra samhällen. Denna teknik riskerar också att bana väg för en ny typ av övervakning, övergrepp och förtryck från auktoritära regimer.
I en ny rapport från Human Rights Watch undersöks hur autonoma vapen skulle kunna användas vid brottsbekämpning, gränskontroll och liknande verksamhet. Autonoma vapensystem skulle sakna förmågan att tolka komplexa situationer och att korrekt efterlikna mänskligt omdöme och känslor, element som är väsentliga för att använda våld i enlighet med rätten till liv och rätten till fredliga sammankomster.
Sådana vapensystem skulle kränka de mänskliga rättigheterna under hela sin livscykel: den massövervakning som krävs för deras utveckling och utbildning skulle undergräva rätten till privatliv, medan den inneboende bristen på transparens i maskininlärning skulle kränka rätten till rättvisa och upprättelse efter en olaglig attack.
Det internationella samfundet måste agera nu genom att skapa ett nytt internationellt fördrag för att förbjuda och reglera autonoma vapensystem. Mer än 120 länder har bekräftat att de vill anta ett sådant fördrag. FN:s general-sekreterare António Guterres och ordföranden för Internationella rödakorskommittén, Mirjana Spoljaric, har uppmanat FN:s medlemsländer att enas om ett rättsligt bindande instrument senast 2026.
Berörda regeringar kommer att samlas vid FN:s generalförsamling i New York den 12-13 maj för att för första gången diskutera de utmaningar som autonoma vapensystem unnebär och hur de ska hanteras. I Human Rights Watchs nya rapport kartläggs stödet för ett nytt internationellt fördrag och dess olika delar.
Sverige bör ge ett tydligt stöd för att inleda förhandlingar om ett fördrag. Regeringen har hittills valt att hålla en låg profil i frågan, och har inte uttryckligen åtagit sig att arbeta för ett nytt internationellt fördrag, till skillnad från andra länder som Norge eller Österrike.
Regeringens AI-kommission lämnade nyligen sin slutrapport ”Färdplan för Sverige”, som slår fast att Sverige behöver utveckla AI på ett hållbart och säkert sätt. Även inom försvarsindustrin måste Sverige kunna främja en hållbar och säker AI-utveckling. Det bör inte finnas någon motsättning mellan att främja teknikutveckling och bemöta hot mot mänskligheten. Tvärtom har Sverige som en teknikvänlig nation, med stark förankring i demokratiska värderingar och folkrätten, särskilt goda förutsättningar att driva denna fråga med trovärdighet.
Det är hög tid att Sverige:
1. Tar ställning för en folkrättsbaserad och etisk hållning till ny teknologi – vilket innebär att anta nya rättsligt bindande regler för autonoma vapensystem.
2. Stödjer förbud och regleringar av autonoma vapen inom ramen för FN:s generalförsamling, där alla länder har en likvärdig röst och inget land har vetorätt.
3. Använder det kommande FN-mötet i maj för att driva på för ett konkret förhandlingsmandat för ett rättsligt bindande instrument, tillsammans med likasinnade stater.
I detta Oppenheimer-ögonblick är vänta och se inte ett alternativ. Sverige behöver agera nu, innan det är för sent.