حرب أوكرانيا تسرَّع التوجه العالمي نحو «الروبوتات القاتلة»

28 فبراير 2023
28 فبراير 2023

ترجمة: أحمد بن عبدالله الكلباني-

يعمل الجيش الأمريكي بشكل مكثف على تطوير ما يعرف بالأسلحة المستقلة أو الأسلحة الروبوتية، وهذا ما أكده إعلان صادر عن وزارة الدفاع الأمريكية.

الإعلان الذي تم إصداره في 25 يناير 2023 هو الأول منذ عقد من الزمن الذي يركز على أسلحة الذكاء الاصطناعي المستقلة.

وجاء الإعلان الأمريكي بعد حوالي 3 أشهر من إعلان صادر عن حلف الناتو، وتحديدا في 13 أكتوبر 2022، والذي يهدف إلى الحفاظ على «التفوق التكنولوجي» للحلف فيما يسمى أحيانًا «الروبوتات القاتلة».

كلا الإعلانين يعكسان درسًا مهمًا تعلمته الجيوش في جميع أنحاء العالم من العمليات القتالية الأخيرة في أوكرانيا وناغورنو كاراباخ، وهو درس يمكن عنونته بـ «الذكاء الاصطناعي المسلح.. هو مستقبل الحرب».

في حديث منقول عن «ريتشارد مويس»، مدير منظمة «المادة 36»، وهي منظمة إنسانية تركز على الحد من الضرر الناجم عن الأسلحة، قال فيه: «نحن على علمٍ بأن القادة يرون أن هناك قيمة عسكرية كبيرة تكمن وراء الأسلحة والذخائر المستعملة في الحرب الأوكرانية».

ويمكن لهذه الأسلحة، التي هي بالغالب عبارة عن تقاطع بين قنبلة وطائرة بدون طيار، أن تحوم لفترات طويلة أثناء انتظار هدف، وأضاف «ريتشارد مويس» إنه رغم استعمال الطائرات بدون طيار والصواريخ شبه المستقلة بشكل مكثف في الوقت الحالي، إلا أن التحكم بتلك الأسلحة يجيء وفق أوامر وقرارات بشرية دون تدخل الذكاء الاصطناعي، الذي بدأ بالفعل بالتصرف بشكل تلقائي في كثير من المجالات.

ومع تزايد الخسائر في أوكرانيا، يتزايد الضغط في سبيل تحقيق الانتصار الساحق، ولن يتأتى ذلك إلا من خلال استخدام أسلحة مستقلة تمامًا، روبوتات يمكنها اختيار أهدافها ومطاردتها ومهاجمتها بمفردها دون الحاجة إلى أي إشراف بشري. وفي هذا الشهر، أعلنت شركة تصنيع روسية رئيسية عن خطط لتطوير نسخة قتالية جديدة من روبوت الاستطلاع «ماركر»، وهي مركبة أرضية بدون سائق بشري، وذلك لتعزيز قواتها الموجودة في الأراضي الأوكرانية، وفي المقابل يتم استخدام طائرات بدون طيار ذاتية التحكم بالكامل للدفاع عن منشآت الطاقة الأوكرانية.

والطريق إلى تصنيع أسلحة مستقلة تماما، تتخذ قراراتها من تلقاء نفسها وفق معطيات دقيقة، قد يكون أمرا قريبا، إذ يقول «وحيد نوابي» الرئيس التنفيذي لشركة المقاولات الدفاعية الأمريكية، التي تصنع الطائرة بدون طيار المعروفة بـ Switchblade شبه المستقلة، يقول: «إن التكنولوجيا في متناول اليد بالفعل لتحويل هذه الأسلحة لتصبح مستقلة تمامًا».

كما يقول «جادل ميخايلو فيدوروف» وزير التحول الرقمي الأوكراني بأن الأسلحة ذاتية التشغيل بالكامل هي «الخطوة التالية المنطقية والحتمية» للحرب، وأضاف مؤخرًا أن الجنود قد يراهم في ساحة المعركة في الأشهر الستة المقبلة فقط. ويدافع مؤيدو أنظمة الأسلحة المستقلة بالكامل عن الفكرة، معللين ذلك بالكثير من الأسباب منها أن التكنولوجيا ستُبقي الجنود بعيدًا عن المخاطر المهلكة من خلال إبعادهم عن ساحة المعركة، كما أنها ستسمح باتخاذ القرارات العسكرية بسرعة تفوق قدرة البشر بكثير، مما يسمح بتحسين القدرات الدفاعية وتحولها بشكل جذري.

في الوقت الحالي تتطلب الأسلحة شبه المستقلة -التي تعتمد على أوامر بشرية عن بُعد مثل الذخائر التي تسافر لأميال للوصول إلى أهدافها، أو التي تتعقب بعض الأهداف المتحركة لتنفجر بها- وجود إنسانٍ في الحلقة يوجه لها الأوامر.

على النقيض من ذلك، يمكن للطائرات بدون طيار ذاتية التحكم «المستقلة»، مثل ما يسمى بـ «صائدي الطائرات بدون طيار» المنتشرة الآن في أوكرانيا، تتبع وتعطيل الصواريخ والطائرات بدون طيار شبه المستقلة التي تصل إلى الأجواء الأوكرانية ليلا ونهارا، وبدون الحاجة إلى عقل بشري يتابع ويحلل ويعطي الأوامر، وذلك بشكل أسرع وأكثر كفاءة من الأسلحة التي يتحكم فيها الإنسان.

ورغم كفاءة الأسلحة المستقلة، وفق كثير من التجارب والنماذج، إلا أن هناك عدد من المنتقدين لها، وإن كان بعضهم لا يصنف نفسه ضمن المنتقدين، لكنهم يطالبون بالتمهل قليل قبل الاعتماد التام على تلك الأسلحة، منادين بوقف البحث وتطوير الأسلحة المستقلة.

وذلك استنادًا على مخاوفهم التي ترى أن تلك الأسلحة ستصل إلى مرحلة لاستهداف البشر بشكل مباشر، وليس فقط المركبات والآليات والبنى الأساسية والأسلحة الأخرى، يرون بأن قرارات الحرب بشأن الحياة والموت يجب أن تظل في أيدي البشر، بدلا من تحولها إلى آليات بلا قلب ولا ضمير تعمل وفق خوارزمية تسحب البساط من الإنسان لتنزع الإنسانية بشكل رقمي.

ومن الجهات التي تقف وقفة انتقاد المنظمة العالمية لحقوق الإنسان «هيومن رايتس ووتش»، وإلى جانبها «حملة وقف الروبوتات القاتلة»، ومن منظورهما أن الأسلحة المستقلة وأنظمتها تفتقر إلى الحكم البشري اللازم للتمييز بين المدنيين والأهداف العسكرية المستهدفة.

وترى العديد من المنظمات بأن الجيوش التي تستثمر بشكل كبير في أنظمة الأسلحة المستقلة، بما في ذلك الولايات المتحدة وروسيا والصين وكوريا الجنوبية والاتحاد الأوروبي، تأخذ العالم إلى سباق تسلح جديد مكلف ومزعزع للاستقرار. قد تكون إحدى النتائج وقوع هذه التكنولوجيا الجديدة الخطيرة في أيدي الإرهابيين وآخرين خارج سيطرة الحكومات.

وفي المقابل تحاول وزارة الدفاع الأمريكية نفي بعض المخاوف الرئيسية، إذ أعلنت أنها ستستخدم أنظمة أسلحة مستقلة ذات «مستويات مناسبة من الحكم البشري على استخدام القوة». وأصدرت المنظمة العالمية لحقوق الإنسان «هيومن رايتس ووتش» بيانا قالت فيه إن التوجيه الجديد فشل في توضيح ما تعنيه عبارة «المستوى المناسب» ولا يضع مبادئ توجيهية لمن يجب أن يحدد ذلك. أما «جريجوري ألين»، الخبير في مركز الدراسات الاستراتيجية والدولية بالدفاع الوطني والعلاقات الدولية، فيرى أن هذه اللغة تضع حدًا أدنى من «السيطرة البشرية الهادفة» التي يطالب بها النقاد.

ويشير إلى أن صياغة وزارة الدفاع تسمح باحتمال أنه في حالات معينة، مثل طائرات المراقبة، فإن مستوى التحكم البشري الذي يعتبر مناسبًا «قد يكون قليلًا أو لا شيء». يتضمن التوجيه المحدث أيضًا لغة تعد بالاستخدام الأخلاقي لأنظمة الأسلحة المستقلة، وتحديدًا من خلال إنشاء نظام رقابة لتطوير التكنولوجيا وتوظيفها، ومن خلال الإصرار على استخدام الأسلحة وفقًا لقوانين الحرب الدولية القائمة. لكن «ريتشارد مويس»، مدير منظمة «المادة 36» أشار إلى أن القانون الدولي لا يوفر حاليًا إطارًا مناسبًا لاستيعاب مفهوم استقلالية السلاح، ناهيك عن تنظيمه. لا يوضح الإطار القانوني الحالي، على سبيل المثال، أن القادة مسؤولون عن فهم ما الذي سيطلق الأنظمة التي يستخدمونها، أو أنهم يجب أن يحدوا من المنطقة والوقت اللذين ستعمل فيهما تلك الأنظمة.

قال ريتشارد مويس: «يكمن الخطر في عدم وجود خط واضح بين ما نحن فيه الآن، والمكان الذي قبلنا».

وللبنتاغون بيانات متعددة تؤكد ضرورة الالتزام بنشر أنظمة أسلحة مستقلة، إلى جانب الامتثال للقانون الإنساني الدولي، الذي ينتقد فكرة التوجه التام نحو الأسلحة المستقلة، وهذا ما يدفعنا إلى طرح تساؤل «كيف ستوازن الولايات المتحدة بين هذه الالتزامات؟

و من جانبها تصر اللجنة الدولية للصليب الأحمر، الراعية للقانون الدولي الإنساني، على أن الالتزامات القانونية للقادة والمشغلين «لا يمكن نقلها إلى آلة أو خوارزمية أو نظام سلاح».

في الوقت الحالي، يتحمل البشر مسؤولية حماية المدنيين والحد من أضرار القتال من خلال التأكد من أن استخدام القوة يتناسب مع الأهداف العسكرية.

إذا تم نشر أسلحة الذكاء الاصطناعي في ساحة المعارك، فمن يجب أن يتحمل المسؤولية عندما تحدث وفيات مدنية عن طريق الخطأ؟ بالواقع لا توجد إجابة واضحة على هذا السؤال المهم للغاية.

جيمس دوز أستاذ اللغة الإنجليزية في كلية ماكاليستر