إذكاء الحروب
17 مارس 2026
17 مارس 2026
المعتصم الريامي -
هي أيامٌ مرعبة، على الكثير ممن يعيش في المنطقة، وفي العالم، والتي بدأت منذ أن قرر أحدهم القدح على الزناد (أو الزر الإلكتروني) لتبدأ الحرب التي نعيشها منذ نهاية فبراير وحتى وقت كتابة المقال في مارس 2026 بين أمريكا وإسرائيل من جهة وإيران من جهة وما لبثت أن طالت النيران كل المنطقة، وربما يزيد الأمر سوءًا ورعبًا، حين تعرف أنه في أول يوم من الحرب، قام الجيش الأمريكي -والإسرائيلي- باستهداف أكثر من ألف موقع باستخدام الذكاء الاصطناعي! فكيف استحال هذا الذكاء من استخداماته المدنية والرفاه التقني إلى مهلكة ومحرقة للبشر!
مما يروى قديما عند العرب، أن الذكاء أصله من اتقاد النار، فيذكي النار من يوقدها، ويقولون أحرقني ذكاؤها، أي احترقت من شدة لهبها، وأصبحت العرب تدعو شديد الفطنة سريع الفهم متّقد الذهن بالذكي، وللمفارقة العجيبة ها هي كلمة الذكاء تعود إلى النار وحرائقها كما بدأت، وتلك جريرة الذكاء الاصطناعي.
في هذه الحرب، وفي أول يوم لها، أفاد المسؤولون الأمريكيون بأنهم قاموا -بالاشتراك مع الجيش الإسرائيلي- بأكثر من 900 غارة جوية على مواقع ومنشآت وشخصيات في إيران، هذا الرقم الهائل من الضربات التي أودت بحياة أكثر من 40 من قيادات النظام الإيراني، ليس من السهل أن يقوم بها أي جيش، كما يصرح وزير الحرب الأمريكي أنه لا يوجد أي تحالف في العالم يمكنه القيام بذلك، فقد استعان الجيش الأمريكي بالذكاء الاصطناعي، وبدلًا من استغراق مئات أو آلاف العساكر في التحليل والمقارنة والتدقيق واتخاذ القرار، كان الحاسوب قد اختصر الأمر. ودور الذكاء الاصطناعي يبدأ من التخطيط إلى المراقبة والترصد إلى تنفيذ الضربة، في دورة قتل كاملة، هذه الدورة تسمى عسكريا بسلسلة الاستهداف والقتل، وقد أصبحت أدوات الذكاء الاصطناعي منخرطة ومتورطة في سلسلة القتل هذه.
هذا التوحش التقني، إن أجزله التعبير، يأتي ضمن مشروع أمريكي يعرف باسم «ميفن» MAVEN، الذي بدأ منذ عام 2017 وتطور حتى أصبح العمود الفقري لعمليات الجيش الأمريكي، وهو من تطوير شركة بالانتير Palantir ، حيث يقوم النظام بجمع البيانات من مئات المصادر من الأقمار الصناعية والطائرات بدون طيار وأجهزة الاستشعار والمكالمات الهاتفية المعترضة ومصادر أخرى لتسريع اتخاذ قرار القتل. ولسوء حظنا -وربما سوء حظ العالم أجمع- أن الأمريكان -ومن خلفهم الإسرائيليين- لم يجدوا منطقة مناسبة لتجربة هذه الأسلحة إلا الشرق الأوسط، فقد جربوا هذا النظام في اليمن وليبيا والعراق وسوريا وصولًا إلى إيران اليوم. وأما إسرائيل فلديها الإنجيل واللافندر، وهي أسماء ذات دلالات دينية وجمالية براقة، تخفي خلفها وحشية معالجة البيانات الضخمة لإنتاج «قوائم تصفية» لا تنتهي، ولديها أيضا نظام «أين أبي؟» المتهم بقتل آلاف المدنيين في غزة.
يعمل نظام القتل الأمريكي «ميفن» وفق تصميم هيكلي دقيق يتكون من عدة طبقات، يبدأ من طبقة لاستلام واستيعاب المعلومات والبيانات اللحظية الضخمة والمباشرة من مصادرها ومعالجة تدفقاتها، وهو معتمد هنا على خدمات الأنظمة السحابية المقدمة من أمازون AWS -والتي لم تكن بمنأى عن الحرب، فقد استهدفت إيران مراكز بياناتها أكثر من مرة مؤخرا، في دبي والبحرين- إدراكاً منها أن المعركة تدور في الحاسوب في «السحابة» قبل الأرض. ومن ثم تمر هذه البيانات بنظام تحليل، باستخدام النماذج اللغوية الضخمة LLM، حيث تتولى أنظمة الذكاء الاصطناعي مقارنة البيانات والسلوكيات بما لديها من معلومات ضخمة، وتقاربها مع أنماط تاريخية أخرى، لتخرج بنتائج يمكن الاستناد عليها. وفي الطبقة الأخيرة يتم توليد قائمة استهداف وفق معايير محددة مسبقا تشمل: الهدف، ودرجة اليقين والتأكد الاستخباراتي من المعلومات، وتقدير الأضرار الجانبية -والتي قد تنطوي على قتل مئات الأبرياء المدنيين، بناءً على معادلة حسابية جافة- ، وأولوية الأهداف عملياتياً، وتوافر المنظومات الهجومية الملائمة.
وقد تم إدماج أنظمة الذكاء الاصطناعي مؤخرا، بعد لمعان نجمها، مع نظام ميفن، وقد اختار الجيش الأمريكي أنظمة كلود claude المطور من قبل شركة أنثروبيك لإذكاء سلسلة القتل، وقد دمجه دمجا كاملا مع كل أنظمته الأخرى، وحين أدركت شركة أنثروبيك أن وزارة الحرب الأمريكية -نعم هي الحرب وليس الدفاع- استخدمته في عملية خطف الرئيس الفنزويلي وكذلك في الحرب على إيران، انفجر خلاف حاد حول الحدود والقوانين وأخلاقية الاستخدام، والحق في اتخاذ قرار القتل الآلي، وقد اعترضت الشركة حول هذه الاستخدامات وعبّر رئيسها التنفيذي عن قلقه البالغ حول المأزق الكبير لمستقبل هذه التقنية والاعتماد عليها ، مما دفع وزارة الحرب أن تصنف نظام «كلود» أنه نظام معادٍ ويشكل تهديدا للأمن القومي، في الوقت الذي تعطيه صلاحية الوصول لكل معلوماتها ليتخذ عنها قرارات الاستهداف، وهذا دفع شركة أنثروبيك للتوجه لمقاضاة وزارة الحرب، حتى انقضاء مدة الانتقال من أنظمة كلود إلى أنظمة أخرى مثل أنظمة أوبن إيه أي، المطورة لشات جي بي تي، والتي أبدت استعدادا لذلك، وهذا ما أثار موجة غضب عليها ودعوات كبيرة لحذف تطبيقها في أمريكا والعديد من الدول.
يأتي استخدام أنظمة الذكاء الاصطناعي هذه دون الأخذ في الحسبان الكثير من المخاطر التقنية، علاوة على عدم اعتبار المعايير الأخلاقية والقانونية، فليس من المجهول أو الجديد أن النماذج اللغوية التي تبدو ذكية، قد تتذاكى لتعطي معلومات في ظاهرها دقيقة وحقيقية بينما هي مزيفة تماما، في ظاهرة تسمى هلوسة الذكاء الاصطناعي، هذه الهلوسة التي قد نتقبلها في محادثة نصية مع الذكاء الاصطناعي قد تقتل الأبرياء دون أن تتحمل أدنى معايير المسؤولية. وقد كشفت تقارير أن نظام لافندر قام بتحديد 37000 هدف لتقوم إسرائيل بتصفيته، وكانت نسبة الخطأ أكثر من 10%، هذا يعني أن هناك أكثر من 3000 ضحية لمثل هذا الخطأ الكارثي.
كما أن هذه الأنظمة تعتمد على بيانات تاريخية لتتوقع المستقبل، بينما تخبرنا المعارك أنها ساحة ديناميكية مفتوحة، تتغير بشكل غير محسوب في كثير من الأوقات، وهذا ما يعزز من احتمالات الخطأ، ففي كابول في أفغانستان عام 2022 قامت مسيرةٌ أمريكية بقصف ناقلة ماء وذلك لأن نمط حركتها كان مشابهًا لناقلة متفجرات، وليس أدل من ذلك الجريمة المروعة التي أودت بحياة 168 من الأطفال الأبرياء في مدرستهم في إيران -قبل أسابيع- حيث تشير آخر التحقيقات أن سبب القصف الأمريكي كان البيانات غير الدقيقة عن وجود مستودع أسلحة أو قاعدة عسكرية كان مكان هذه المدرسة قبل أكثر من 10 سنوات.
ثم ماذا لو تم التشويش على إشارات الإحداثيات المكانية GPS مثلا، هذا سيحول الأخطاء إلى كوارث أكبر، وذلك ما حصل حين قامت روسيا بالتشويش على مسيرات أوكرانية. ولو افترضنا أن هناك مراجعة بشرية تتم بعد تحديد الأهداف، فإنها ستأخذ وقتًا طويلا جدا لا يمكن للبشر مواكبة الذكاء الاصطناعي فيها، وهذا سيقوض فارق السرعة الذي يتم التعويل عليه في أنظمة القتل الذكية هذه. وقد أكدت بعض الدراسات أن المراجعة البشرية في حرب إسرائيل على غزة كانت تجري بمعدل دقيقة واحدة لكل هدف، وهذا بالتأكيد ليس كافيًا أبدًا للتحقق من أي هدف. كما أن أنظمة الذكاء الاصطناعي الحالية تعاني من مشكلة الغموض، أو ما يطلق عليها بمعضلة “الصندوق الأسود”، فحين تولد هذه الأنظمة آلاف الأهداف، تكون مستندة على الآلاف من المصادر الاستخباراتية المدمجة من صور وبيانات وخرائط ومكالمات وإحداثيات، ويصعب تقنياً تتبع مسار التفكير الذي قام به هذا النظام خطوة بخطوة حتى يصل إلى الاستنتاج. هذا لا يمنع المساءلة القانونية نظرياً، لكنه يُعقّد إثبات منطق القرار الذي اتخذه هذا النظام. وهناك أيضا معضلات التحيز الخوارزمي بناءً على العرق أو اللون أو الجنس، والذي تثبت الدراسات أنه قد يصنف المدنيين الأبرياء كإرهابيين، بشكل خاطئ، فقط بناءً على بيانات تاريخية عنصرية تدرب عليها. وقد كشفت الدراسات أن خوارزميات التعرف على الوجه المستخدمة في برامج المراقبة الأمنية أخطأت في التعرف على وجوه ذوي البشرة الداكنة بمعدل يفوق أخطاءها مع وجوه ذوي البشرة الفاتحة بنسبة تصل إلى 35%. وفي سياق الحروب ، إذا دُرِّبت هذه الأنظمة على بيانات تاريخية تربط مجتمعات بعينها بالنشاط المسلح، فإن الخوارزمية ستُعيد استخدام هذا التحيز وتُكرّسه، وقد كان هذا أحد أبرز الانتقادات الموجهة لنظام الاستهداف الإسرائيلي الذي دُرِّب على بيانات تتعلق بالناس في غزة.
بالتأكيد أنه من الملح جدا أن نتساءل عن القيود والضوابط في استخدام الذكاء الاصطناعي في «اختصار وتبسيط القتل»، فعلى سبيل المثال وزارة الحرب الأمريكية أصدرت في مطلع هذا العام مذكرةً تُعلن أن العقود والاتفاقات مع شركات الذكاء الاصطناعي يجب أن تنص على إمكانية توظيف التقنية لـ”أي استخدام” دون قيود. وهذا يعني أنه إذا قرر شخصٌ ما -مثلا- أن يوجه أسلحة آليةً ذكية لتقوم بإبادة جماعية، فإنها لن تتردد في التخطيط والتنفيذ على الفور، وإذا قررت حكومة أن تتنصت على كل مواطنيها وتضيق الخناق عليهم فإن هذه الأدوات الخارقة في متناول خدمتها.
في عام 1948 وبعدما أنهت أمريكا الحرب العالمية الثانية بإلقائها القنابل النووية، قال أحد جنرالات الحرب حينها: أن العالم صنع إنجازا عبقريا، بلا حكمة، وأصبح لديه قدرةً، بلا ضمير. ولعل هذا هو الحال في أسلحة الذكاء الاصطناعي، والأنكى أن هذه الأسلحة قد يكون بيدها اتخاذ قرار القتل من تلقاء نفسها. فحين تقتل الآلة، من يصبح المسؤول حينها، أخلاقيا وقانونيا: من صنعه وطوره وبرمجه، أم من أعطاه التعليمات الأولى، أم من دربه ببيانات ومعلومات، أم من القانون الذي لم يقنن والمجتمع الذي لم يضغط تجاه تنظيم كل هذا؟ أم الشركة التي باعت النظام؟ هذا «الهروب من المسؤولية» جعل الحروب «رخيصة» سياسياً وأخلاقياً لمن يملك التكنولوجيا. أما الأمم المتحدة فلا تزال عالقة في تعريف «أنظمة القتل المستقلة»، فالصين تقول إن أي جهاز أو نظام غير قابل للإيقاف يعتبر مستقلًا، أما فرنسا فتقول إن أي نظام يختار أهدافه بنفسه هو المستقل، وأما روسيا وأمريكا فترفضان أي اتفاقيات ملزمة من هذا النوع من أساسها، وإسرائيل ترفض التوقيع على أي اتفاقات من هذا النوع. يبدو أن الوجه الجديد لحروب العالم بدأ ينكشف أكثر فأكثر وأننا أمام أيام مرعبةٍ حقًا.
المعتصم الريامي مطور ومهتم بالتقنية
