Skip to main content

يجب حظر "الروبوتات القاتلة" قبل فوات الأوان

الأسلحة الآلية بشكل كامل تزيد من المخاطر التي تتهدد المدنيين

(واشنطن) – قالت هيومن رايتس ووتش في تقرير أصدرته اليوم إن على الحكومات أن تفرض حظراً استباقياً على "الأسلحة الآلية بشكل كامل"، نظراً للخطر الذي تمثله على المدنيين في النزاعات المسلحة. هذه الأسلحة المستقبلية التي توصف أحياناً بمسمى "الروبوتات القاتلة" ستكون قادرة على اختيار أهدافها وإطلاق النار عليها دون تدخل بشري.

تقرير "فقدان الإنسانية: لماذا يجب حظر الروبوتات القاتلة" الذي صدر في 50 صفحة، يعرض بواعث القلق إزاء هذه الأسلحة الآلية بشكل كامل، التي تعوزها الخصال البشرية اللازمة لتقدير قانونية وعدم قانونية قتل المدنيين. كما أن المعوقات التي تحول دون محاسبة أحد على الضرر الناجم عن هذه الأسلحة سوف تضعف من سلطة القانون إزاء انتهاكات المستقبل والقدرة على ردعها.

وقال ستيف غوس، مدير برنامج الأسلحة وحقوق الإنسان في هيومن رايتس ووتش: "إعطاء الآلات القدرة على تقرير من يعيش ومن يموت في ساحة المعركة هي مبالغة جسيمة في استخدام التكنولوجيا. من الضروري وجود سيطرة إنسانية على العتاد الحربي الروبوتي من أجل تقليص أعداد القتلى والمصابين من المدنيين".

تقرير "فقدان الإنسانية" هو أول تقرير كبير يصدر عن الأسلحة الآلية بشكل كامل من قبل منظمة غير حكومية، وهو يستند إلى بحوث معمقة ومستفيضة في القانون والتكنولوجيا والأخلاقيات الحاكمة لهذه الأسلحة المقترحة. اشترك في نشر التقرير كل من هيومن رايتس ووتش وقسم حقوق الإنسان بكلية القانون بجامعة هارفارد.

دعت هيومن رايتس ووتش وقسم حقوق الإنسان بجامعة هارفارد إلى صياغة اتفاقية دولية تحظر بشكل قاطع أي تطوير أو إنتاج أو استخدام للأسلحة الآلية بشكل كامل. كما دعت الدول إلى إصدار قوانين وتبني سياسات كتدابير لازمة لمنع تطوير وإنتاج واستخدام هذه الأسلحة على مستوى الدول.

لا توجد حتى الآن أية أسلحة آلية بشكل كامل، ولم تتخذ القوى الكبرى، ومنها الولايات المتحدة، قرارات باستخدامها بعد. لكن الجيوش التي تستعين بقدر كبير من التقنية تعكف على تطوير أو طورت بالفعل نماذج أوّلية يظهر منها الدفع باتجاه قدر أكبر من الأسلحة والعتاد ذات قدرة الحركة الآلية بشكل كامل في ساحة المعركة. تعتبر الولايات المتحدة رائداً في جهود التطوير التكنولوجي هذه. وهناك عدة بلدان أخرى – منها الصين وألمانيا وإسرائيل وكوريا الجنوبية وروسيا والمملكة المتحدة – بدأت بالفعل تشارك في هذا المضمار. يتنبأ عدد من الخبراء بأنه من الممكن التوصل للأسلحة الآلية بشكل كامل خلال 20 إلى 30 عاماً، ويرى البعض أنها قد تتوفر قبل ذلك.

وقال ستيف غوس: "من الضروري الكف عن تطوير الروبوتات القاتلة قبل أن تظهر في ترسانات أسلحة الدول". وتابع: "مع زيادة استثمارات الدول في هذه التقنية، يصبح من الأصعب إقناعها بالتخلي عنها".

قالت هيومن رايتس ووتش وقسم حقوق الإنسان بجامعة هارفارد إن الأسلحة الآلية بشكل كامل لا يمكنها أن تفي بمتطلبات القانون الدولي الإنساني. فلا يمكن لهذه الأسلحة أن تميز على النحو الكافي بين الجنود والمدنيين في ساحة المعركة، أو أن تستعين بإمكانيات التفكير واتخاذ القرار البشرية اللازمة لتقدير مدى تناسب الهجمات – من حيث إن كانت الخسائر المدنية تفوق الميزة العسكرية المتحققة أم لا.

كما أن هذه الروبوتات تقوض من معايير عدم قانونية قتل المدنيين. فالأسلحة الآلية بشكل كامل لا يمكنها إظهار التعاطف البشري مع ضحاياها، ويمكن لأصحاب القرار في الدول المختلفة إساءة استخدام هذه الأسلحة بتوجيهها للتصدي لشعوبهم. وبينما يمكن أن يؤدي استبدال القوات البشرية بروبوتات مقاتلة إلى إنقاذ أرواح العسكريين، إلا أنها سوف تؤدي أيضاً إلى زيادة سهولة نشوب الحروب، مع إحالة عبء النزاعات المسلحة من العسكريين إلى المدنيين.

وأخيراً، فإن استخدام الأسلحة الآلية بشكل كامل سوف يؤدي إلى ظهور ثغرة ضخمة فيما يخص المحاسبة. فمحاولة تحميل القائد أو المبرمج أو الصانع المسؤولية القانونية على تصرفات الروبوت مسألة تواجهها تحديات كثيرة. سوف يؤدي نقص المحاسبة إلى تقويض القدرة على ردع الانتهاكات للقانون الدولي، وتعويض الضحايا من خلال عدالة ناجزة تُعيد إليهم حقوقهم المهدرة.

بينما أغلب الجيوش تقول بأن البشر سوف يحافظون في المستقبل القريب على بعض السيطرة على تصرفات الروبوتات المجهزة بالأسلحة، فإن فعالية هذا الإشراف تعتبر محل تساؤلات وشكوك، على حد قول هيومن رايتس ووتش وقسم حقوق الإنسان بهارفارد. كما أن تصريحات العسكريين تركت الباب مفتوحاً لاستخدام الأسلحة الآلية بشكل كامل في المستقبل.

وقال ستيف غوس: "مطلوب التدخل الآن، قبل أن تتجاوز الروبوتات القاتلة الخط الفاصل بين الخيال العلمي والتحقق على أرض الواقع".

 

Your tax deductible gift can help stop human rights violations and save lives around the world.

الموضوع