No Image
عمان العلمي

كلود تحت القصف.. حين يصبح الذكاء الاصطناعي صانع حرب

17 مارس 2026
17 مارس 2026

د. محمود البحري -

كُشف مؤخرًا عن تفاصيل استخدام الذكاء الاصطناعي في الضربات ضد إيران وفي العملية العسكرية في فنزويلا، ويرى الخبراء أن هذا مجرد بداية لتحول كبير في طبيعة الحروب، وأن دور الشبكات العصبية في اتخاذ القرارات القتالية سيزداد بسرعة كبيرة. نحلل في هذه المقالة تقارير وأبحاثًا حول استخدام أداة الذكاء الاصطناعي (كلود) في الصراع العسكري الحالي.

ذكرت وكالة نوفستي أنه خلال شهرين فقط، قامت الولايات المتحدة وإسرائيل، حليفتها، بإزاحة قيادتي دولتين في وقت واحد؛ حيث تم اختطاف رئيس فنزويلا نيكولاس مادورو، وقتل آية الله خامنئي، ويبدو أن الأمريكيين اختاروا التوقيت الأمثل لتنفيذ الضربة، فدقة المعلومات، وسرعة وصولها، وكذلك اختيار السيناريو الأمثل للعملية، تم تأمينها بواسطة أنظمة ذكية، ولعبت وكلاء الذكاء الاصطناعي (AI Agents) الدور الرئيسي في ذلك.

يعترف البنتاغون رسميًا باستخدام الذكاء الاصطناعي في العمليات القتالية، لكنه لا يقدم تفاصيل حول ذلك، وإذا حكمنا من خلال المعلومات غير المباشرة، فإن الأمر يبدو تقريبًا على النحو التالي:

يقوم برنامج الاستخبارات Palantir ومصادر معلومات أخرى بدءًا من الأقمار الصناعية في المدار وصولًا إلى الأشخاص على الأرض بجمع كميات هائلة من البيانات، ثم تقوم أنظمة الذكاء الاصطناعي بمعالجة هذه الكميات الضخمة من البيانات وتحليلها وتفسيرها.

ووفقًا لما كتبته صحيفة «الغارديان»، فإن مثل هذه الآلية تستخدم التعلم الآلي لتحديد الأهداف وترتيبها حسب الأولوية، كما تقترح نوع السلاح المناسب مع الأخذ في الاعتبار المخزونات المتوفرة ونتائج استخدام الأسلحة سابقًا ضد أهداف مشابهة، كما تقوم أيضًا بتقييم الأسس القانونية لتوجيه الضربة.

ويوضح الباحثون أنه بمساعدة الذكاء الاصطناعي يمكن تنظيم وتوزيع القوات والوسائل العسكرية بشكل أكثر كفاءة لضمان إصابة الهدف، مع الأخذ في الاعتبار جميع العوامل، بدءًا من وسائل المواجهة أو الدفاع التي يمتلكها الخصم، وخصائص الجغرافيا والتضاريس في المنطقة، وصولًا إلى الظروف الجوية.

ومن المرجح أنه يتم استخدام عدة نماذج من الذكاء الاصطناعي في الوقت نفسه، فإذا توصلت معظم هذه النماذج إلى القرار نفسه، تبدأ العملية العسكرية، وكل ذلك يحدث تقريبًا بشكل فوري.

وحتى الآن لا توجد معلومات تفيد بأن الذكاء الاصطناعي هو من يضغط على الزناد بنفسه، فما زال إطلاق الصواريخ يتم بواسطة البشر، ومع ذلك، يعتزم البنتاغون في المستقبل تفويض هذه المهمة أيضًا إلى الخوارزميات غير البشرية.

· الذكاء الاصطناعي بين الأخلاق والقوة العسكرية:

علم الرأي العام العالمي بذلك بفضل فضيحة كبيرة شارك فيها وزير الحرب بيت هيغسِث وداريو أمودي رئيس شركة Anthropic المطوِّرة لروبوت الدردشة Claude. وقد انفصلت هذه الشركة عام 2021 عن شركة OpenAI المطوِّرة لبرنامج ChatGPT الشهير، وكانت الأسباب أخلاقية؛ إذ رأى الشقيقان داريو ودانييلا أمودي أن رئيسهما آنذاك سام ألتمان كان يطور شيئًا قد يكون خطيرًا على البشرية، لذلك قررا تطوير ذكاء اصطناعي خاص بهما يكون على العكس خادمًا للبشر ويحميهم، وقد تم التأكيد على الطابع الإنساني (الأنثروبوسنتري) لهذا المشروع حتى في اسم الشركة، وتفوّق النموذج الناتج على منافسيه من حيث الكفاءة وجذب انتباه البنتاغون، وقد حصل الأخوان أمودي على عقد حكومي دفاعي كبير.

وبحسب داريو أمودي، فإن النظام يُستخدم من قبل وزارة الدفاع «لحل مهام بالغة الأهمية مثل تحليل المعلومات الاستخباراتية، والنمذجة والمحاكاة، والتخطيط العملياتي، والعمليات السيبرانية، وغير ذلك الكثير». ووفقًا لما ذكرته وسائل الإعلام، فقد تم استخدام Claude خلال الهجوم على فنزويلا، والذي أسفر -بحسب التقارير- عن مقتل 83 شخصًا واختطاف رئيس دولة ذات سيادة.

على الرغم من نجاح العملية، فإن هناك أمرًا في الاتفاق مع شركة Anthropic لم يكن يرضي البنتاغون إطلاقًا، فوفقًا للعقد، حصلت وزارة الدفاع الأمريكية على حق استخدام النظام كما تشاء، باستثناء حالتين:

1. المراقبة الجماعية للمواطنين الأمريكيين (أما غير الأمريكيين فيُسمح بمراقبتهم).

2. استخدام النظام في أسلحة قتالية مستقلة بالكامل.

وبحسب رأي داريو أمودي، فإن أنظمة الذكاء الاصطناعي ليست موثوقة بما يكفي حتى الآن للسماح لها بقتل البشر بشكل مستقل، و قد ظهر هذا الخلاف إلى العلن لأول مرة في شهر ديسمبر، فوفقًا لوسائل الإعلام، وخلال مناقشة سيناريو حرب نووية افتراضية، سأل قادة الجيش ممثل شركة Anthropic عما إذا كان نظامهم قادرًا على اتخاذ قرار تدمير صاروخ معادٍ بشكل مستقل، فأجاب الخبير التقني مازحًا بأن البنتاغون ربما ينبغي له أولًا التواصل مع الدعم الفني في مثل هذه الحالة، ومع ذلك، تنفي الشركة حدوث هذا الحوار.

وقبل أيام قليلة من الهجوم على إيران، وضع بيت هيغسِث إنذارًا نهائيًا لأمودي: إما أن يحذف من العقد هذين البندين «الإنسانيين»، أو ستصنف الحكومة شركة Anthropic على أنها «تهديد لسلسلة التوريد». وهذا التصنيف يمنع الشركات من التعاون مع المؤسسات الحكومية، وقد كان يُمنح حتى الآن فقط للشركات القادمة من دول تعتبرها الولايات المتحدة خصومًا محتملين.

لكن داريو أمودي رفض ذلك بشكل قاطع، رغم أنه أكد علنًا وطنيته وأعرب عن أمله في الحفاظ على العقد الحكومي الكبير، وجاء رد فعل البيت الأبيض والبنتاغون شديدًا للغاية؛ إذ أمر دونالد ترامب جميع الوكالات الفيدرالية بالتوقف فورًا عن استخدام نظام Claude، واصفًا شركة Anthropic بأنها «شركة يسارية متطرفة يديرها أشخاص لا يملكون أدنى فهم للعالم الحقيقي». أما هيغسِث فقد اتهم أمودي بما وصفه بـ«الإيثار المنافق».

وصرح وزير الحرب الأمريكي بقوله «هدفهم الحقيقي واضح: الاستحواذ على حق النقض (الفيتو) على القرارات العملياتية للقوات المسلحة للولايات المتحدة، هذا أمر غير مقبول، ولن يصبح الجيش الأمريكي أبدًا رهينة للأهواء الأيديولوجية لشركات التكنولوجيا الكبرى»، كما أصدر توجيهًا باعتبار شركة Anthropic «تهديدًا لسلسلة التوريد».

ومع ذلك، إذا صدّقنا ما ذكرته وسائل الإعلام، فإن هذه التصريحات الصاخبة لم تمنع استخدام نظام Claude في الهجوم على إيران، وفي وقت لاحق أوضح البنتاغون أن التخلي عن خدمات Anthropic سيستغرق نحو ستة أشهر.

من جانبه، أعلن سام ألتمان، رئيس شركة OpenAI، دعمه العلني لداريو أمودي.

وبعد ذلك مباشرة حصلت شركته على عقد مع الجيش ليحل محل عقده.

· الذكاء الاصطناعي بين دعم القرار العسكري وخطر الثقة العمياء

يرى دميتري ستيفانوفيتش، الباحث في مركز الأمن الدولي التابع لمعهد الاقتصاد العالمي والعلاقات الدولية في الأكاديمية الروسية للعلوم في تصريح لوكالة ريا نوفوستي، أن مثالية ما يسميهم «الإيثاريين المتزمتين» من غير المرجح أن تنتصر؛ فوزارة الدفاع ستتمكن عاجلًا أم آجلًا من استخدام أنظمة الذكاء الاصطناعي دون أي قيود، ويقول الخبير موضحًا: «في الولايات المتحدة يوجد تشريع داخلي خاص ومثير للاهتمام، وإذا كانت شركة محلية تعمل في مجال الذكاء الاصطناعي، فسيكون من الصعب جدًا عليها مقاومة ما يمكن تسميته بطلبات أو اقتراحات أو حتى تعليمات صادرة عن الجهات الحكومية. فكل شيء هناك منظم بشكل صارم.»

وبرأيه، ستظل القرارات العسكرية الرئيسية في المستقبل القريب تُتخذ من قبل البشر،

لكن يبقى السؤال الكبير: إلى أي مدى سيكون هؤلاء البشر مطلعين على المعلومات الكافية لاتخاذ القرار الصحيح؟

يقول ستيفانوفيتش: «بسبب الكميات الهائلة من البيانات، والقدرة الحاسوبية العالية، وسرعة المعالجة، لا يستطيع الإنسان دائمًا تتبع السبب الدقيق الذي جعل الآلة تصل إلى استنتاج معين، وهنا تكمن المشكلة الرئيسية: فقد يبدأ الناس في الثقة العمياء بالتركيبات والقرارات المقترحة دون التفكير في أسبابها الحقيقية أو عواقبها المحتملة، ويذكّر الخبير بأن هذا الأمر حدث بالفعل في غزة؛ حيث أدت الثقة المفرطة في كفاءة الأنظمة الآلية لمعالجة المعلومات وتحديد الأهداف إلى دمار كبير وخسائر بين السكان المدنيين، ولا يزال غير واضح من الذي اتخذ قرار ضرب مدرسة للبنات في إيران، لكن من الصعب استبعاد احتمال حدوث خطأ من جانب الذكاء الاصطناعي في هذه الحالة أيضًا، كما أن الأبحاث الأخيرة حول هذا الموضوع تزيد من القلق.

· الذكاء الاصطناعي والحرب النووية

أجرى أستاذ الاستراتيجية في كلية كينغز بلندن كينيث باين، تجربة طلب فيها من ثلاثة من أحدث النماذج اللغوية GPT-5.2 وClaude Sonnet 4 وGemini 3 Flash أن تتقمص دور قادة عالميين في محاكاة لأزمة نووية، وكان الهدف من الدراسة معرفة ما إذا كان وكيل الذكاء الاصطناعي سيحافظ على السلام أم سيبدأ الحرب.

وقد لعبت روبوتات الدردشة 21 جولة ضد بعضها البعض، سواء في ظروف ضغط الوقت الضيق أو بدون قيود زمنية صارمة، وتضمنت السيناريوهات نزاعات إقليمية، وتهديدات لوجود النظام الحاكم، وحالات تخشى فيها إحدى الدول أن تقوم الأخرى بتوجيه الضربة الأولى في أي لحظة.

في كل جولة، كان على الذكاء الاصطناعي قبل اتخاذ أي خطوة أن يمر بعملية من ثلاث مراحل:

· تحليل نقاط القوة والضعف لدى أطراف الصراع.

· توقع الخطوات المحتملة للخصم.

· اتخاذ القرار.

وكان القرار الأخير قد يكون تصريحًا أو فعلًا، ولم يكن من الضروري أن تتطابق الأقوال مع الأفعال، فعلى سبيل المثال، يمكن أن تعلن السعي إلى السلام وفي الوقت نفسه تطلق الصواريخ، وقد هيمن نموذج Claude في الألعاب الطويلة، لكنه واجه صعوبة في ظروف ضغط الوقت الشديد، أما GPT-5.2 فكان حذرًا أثناء الأزمات التي تتطور ببطء، لكنه أصبح عدوانيًا للغاية عندما يقترب الموعد النهائي، بينما كان Gemini الأكثر عدمًا للتنبؤ، إذ كان يتنقل باستمرار بين إشارات السلام والتهديدات، لكن النتيجة الأهم كانت أن النماذج استخدمت السلاح النووي في 95٪ من السيناريوهات. وبحسب كينيث باين، أظهرت دراسته أن المنطق الاستراتيجي للذكاء الاصطناعي لا يتطابق دائمًا مع المنطق البشري، ولذلك من الصعب على البشر التنبؤ بكيفية تصرف العقل الآلي في اللحظات الحرجة.

ويبقى السؤال مفتوحًا: هل يدرك ذلك صانعو القرار في وزارة الدفاع الأمريكية، التي أصبحت تمتلك سلاحًا غير مسبوق من قبل؟

من يملك الذكاء الاصطناعي «كلود» ؟

لا يزال الأمن والأخلاقيات في الذكاء الاصطناعي يشكلان منطقة رمادية، فبالرغم من كل التقدم الذي تحقق، فإن العديد من أدوات الذكاء الاصطناعي اليوم معروفة للأسف باستخدامها بيانات مشكوكًا فيها، وتقديم نتائج غير موضوعية، وعدم توفير الشفافية في طريقة عملها.

يُعد الذكاء الاصطناعي Claude أحد الأنظمة القليلة التي تعلن عن نفسها بشكل صريح بوصفها تقدم ذكاءً أخلاقيًا، ويؤكد مطوّروه أنهم أنشأوا نظام ذكاء اصطناعي يعتمد فقط على المعلومات المتاحة بحرية وعلى الاستدلال المبني على الأدلة، وبطبيعة الحال، فإن مثل هذه الادعاءات الجريئة تثير الكثير من التساؤلات.

فمن يقف بالضبط وراء Claude AI؟ وكيف يضمن هيكل ملكية الشركة الحفاظ على قيمها بدلًا من تعريضها للخطر من أجل تحقيق الأرباح؟

تم إنشاء الذكاء الاصطناعي Claude وهو مملوك لشركة Anthropic، التي تأسست عام 2021 على يد باحثين سابقين في OpenAI وهما داريو أمودي ودانييلا أمودي.

تعمل شركة Anthropic كشركة ذات منفعة عامة (PBC)، أي أنها ملزمة قانونيًا بتحقيق توازن بين تحقيق الأرباح وخدمة هدف عام. وقد استثمرت شركتا Amazon وGoogle مبالغ كبيرة في الشركة، لكنهما لا تملكان حق التصويت في عملية اتخاذ القرارات.

يعتمد Claude على ما يُعرف بالذكاء الاصطناعي الدستوري (Constitutional AI)، حيث يقوم بمراجعة إجاباته بنفسه وفق مجموعة مكتوبة من القواعد الأخلاقية المستوحاة من مبادئ حقوق الإنسان والنزاهة والخصوصية.

نموذج Claude: النشأة والتطور ومبادئ التصميم الأخلاقي؟

Claude، وهو النموذج الرئيسي للذكاء الاصطناعي، سُمّي على اسم كلود شانون، عالم الرياضيات الذي يُعرف بأنه أبو نظرية المعلومات.

تم إطلاق النسخة الأولى من Claude في مارس 2023، وتلتها النسخة المحسّنة Claude 2 ثم Claude 3، إضافةً إلى الإصدارات الأحدث التي تنافس نماذج GPT التابعة لشركة OpenAI.

كما أن أساليب البحث التي تستخدمها شركة Anthropic، وخاصة ما يُعرف بالتعلم الدستوري للذكاء الاصطناعي، حيث يتم تدريب Claude باستخدام إرشادات أخلاقية واضحة، أصبحت أساسًا للعديد من أنظمة الذكاء الاصطناعي الأخرى، بما في ذلك دردشة الذكاء الاصطناعي الخاصة بمنصة Undetectable AI ، لذلك، يُعد AI Chat مساعدًا حواريًا آمنًا يركز على الخصوصية، ومستوحى من المبادئ الصارمة في تصميم نظام كلود (Claude).

كيف يعمل الذكاء

الاصطناعي «كلود»؟

يعمل الذكاء الاصطناعي Claude بالطريقة نفسها التي يعمل بها أي ذكاء اصطناعي توليدي؛ حيث تم تدريبه على قراءة جزء كبير من محتوى الإنترنت وتعلّم كيفية التنبؤ بالاستجابة المناسبة لمدخلاتك أو أسئلتك.

إنه نموذج لغوي كبير تم تدريبه على كميات هائلة من البيانات النصية لكن ما يميز Claude عن غيره من روبوتات الدردشة هو الطريقة التي تم تدريبه بها على المراجعة الذاتية والتصرف الآمن.

ومن الناحية التقنية، يعتمد Claude على بنية المحوِّل (Transformer Architecture)، وهي نفس البنية العامة المستخدمة في نماذج GPT وGemini، مما يسمح له بالتعامل مع سياقات نصية طويلة.

وفي ختام مقالتنا نقول أن في خضم التحولات المتسارعة التي يشهدها العالم، لم يعد الذكاء الاصطناعي مجرد أداة تقنية مساعدة، بل تحول إلى فاعل رئيسي في رسم ملامح الحروب الحديثة، بين وعود الشركات بـ«ذكاء أخلاقي» وتطلعات الجيوش إلى «دقة قاتلة»، تبرز إشكاليات كبرى: من يتحكم بمن؟ وهل يمكن للآلة أن تكون أكثر إنسانية من الإنسان؟

قصة «كلود» ليست مجرد حكاية تقنية، بل مرآة لصراع أعمق بين قيم الإنسانية ومنطق القوة، فبينما يسعى مطوروه إلى تحصينه بمبادئ أخلاقية، يسعى البنتاغون إلى توظيفه بلا قيود، وفي المنتصف، يبقى السؤال الأصعب: هل نحن بصدد صناعة جيل جديد من الحروب التي تُقرر فيها الخوارزميات مصير الملايين، بينما يبقى الإنسان مجرد مشغّل زر؟

ما يحدث اليوم في غزة، إيران، وفنزويلا ليس سوى البداية، المستقبل يحمل في جعبته حروبًا لا تُدار بالدبابات والطائرات فقط، بل بالبيانات والخوارزميات، حيث ستكون ساحات المعارك ساحات «ذكاء» قبل أن تكون ساحات نار. وفي هذا العالم الجديد، يظل السؤال مفتوحًا: هل نصنع آلات تحمينا، أم آلات تقرر من يحق له البقاء على قيد الحياة؟

د. محمود البحري منسق برنامج الحوسبة والوسائط المتعددة

رئيس تحرير مجلة جامعة صحار للابتكارات الهندسية وتكنولوجيا المعلومات - جامعة صحار