كريستينا نايت ـ سكوت سينجر- ترجمة - نهى مصطفى
مع تزايد دور الذكاء الاصطناعي في المنافسة الاقتصادية والاستراتيجية بين الولايات المتحدة والصين، تبرز مخاطر عابرة للحدود تتجاوز قدرة الدول على احتوائها. إذ يمكن لأي فرد استخدام نموذج واحد أو عدة نماذج لتطوير أمراض خطيرة، أو شن هجمات إلكترونية مؤتمتة على شبكات الطاقة أو المستشفيات، أو إنتاج ونشر مقاطع مزيفة عالية الواقعية تقوض ثقة الجمهور، بغض النظر عن موقعه، سواء في داليان أو دالاس أو دلهي. وفي مثل هذا السياق، لن تستفيد الولايات المتحدة أو الصين من سباق الذكاء الاصطناعي الذي قد يتسبب فيه نموذج من أي من البلدين بأضرار كارثية في أي مكان.
تظهر النماذج الصينية ثغرات مقلقة. فعلى سبيل المثال، يفتقر نموذج اللغة الكبير مفتوح المصدر من DeepSeek، R1-0528، إلى كثير من الضوابط الأمنية الموجودة في الأنظمة الأمريكية. ووفقًا لبحث حكومي أمريكي، يستجيب هذا النموذج للتعليمات الخبيثة بمعدل يفوق نظائره الأمريكية بنحو 12 مرة. كما يبدو أكثر عرضة للاختراق؛ إذ تؤدي تقنيات تجاوز الحماية إلى استجابات ضارة في 94% من الحالات، مقابل 8% فقط في الأنظمة الأمريكية المماثلة. ويتفاقم هذا الخطر عند تشغيل النموذج ضمن أنظمة متعددة مستقلة، مثل OpenClaw الذي انتشر سريعًا، ويستطيع تصفح الإنترنت والوصول إلى قواعد بيانات واسعة دون إشراف بشري.
بصفتهما القوتين المهيمنتين في مجال الذكاء الاصطناعي التوليدي، ستحدد واشنطن وبكين ما إذا كانت هذه التقنية ستحقق فوائد مشتركة واسعة أم تولد مخاطر جديدة. فعندما تطور القوى الكبرى تقنيات عالية المخاطر، تصبح قنوات الاتصال ضرورية لتجنب سوء الفهم الذي قد يقود إلى نتائج كارثية. وخلال ذروة الحرب الباردة، تبادل علماء أمريكيون وسوفييات معلومات حول منع الاستخدام غير المصرح به للأسلحة النووية. ويظل تبادل المعرفة في المجالات الحساسة مسألة دقيقة تتطلب موازنة بين ما يُكشف وما يُحجب، لكن حتى الخصوم يمكنهم إيجاد أرضية للتعاون.
في هذا السياق، يحتاج البلدان إلى العمل معًا لإدارة مخاطر الذكاء الاصطناعي رغم تنافسهما التكنولوجي. ولا يعني الحد من المخاطر إبطاء الابتكار، وإنما بناء فهم مشترك لأولويات السلامة، وتنسيق اختبارات الثغرات، وتطبيق إجراءات الحماية، ووضع ممارسات مشتركة للحد من التهديدات. وفي المقابل، يتعين على الصين تعزيز قدراتها التقنية بما يسمح لها بالمشاركة الفعّالة في هذا المجال. يظل التعاون ضرورة، وهو ممكن إذا ركز الطرفان على آليات اكتشاف المخاطر بدلًا من تفاصيلها، بما يتيح لهما المنافسة مع تقليص أخطر تداعيات هذه التقنية.
يتطلب جعل الذكاء الاصطناعي أكثر أمانا فهما دقيقا للمخاطر التي يطرحها والأدوات المتاحة للحد منها. وتؤدي التقييمات المنهجية للتقنيات المتقدمة دورًا شبيهًا بالتجارب السريرية للأدوية واختبارات التصادم للسيارات، إذ تكشف المخاطر قبل الاستخدام وأثناءه للحد من الأضرار الممكنة.
لكن هذه الأنظمة تختلف عن الأدوية والسيارات؛ فهي تقنيات متعددة الاستخدام تتطور باستمرار بعد إطلاقها، ويمكن توظيفها بطرق لم يتوقعها مطوروها، وتنتشر بسرعة عالمية غير مسبوقة. لذلك لا يكفي اختبارها قبل طرحها في السوق، بل يتطلب الأمر متابعة مستمرة للمخاطر والتدخل في الوقت المناسب.
بدأت الولايات المتحدة والصين إدراك الحاجة إلى تشديد معايير الأمان عبر سلسلة تطوير الذكاء الاصطناعي. في الولايات المتحدة، يتشكل نظام متعدد المستويات تقوده الشركات الكبرى التي تمتلك قدرات تقنية لتقييم المخاطر وتعديل نماذجها، مع دور لجهات مستقلة تختبر هذه الأنظمة. ويمتد هذا النهج إلى التطبيقات المختلفة، حيث تطور منظمات متخصصة أدوات لرصد المحتوى الضار. كما تسهم الجهات الحكومية، مثل مركز معايير وابتكار الذكاء الاصطناعي، في تحويل هذه الجهود إلى سياسات ومعايير أكثر دقة.
في المقابل، لا تزال الصين تفتقر إلى بنية تقنية متكاملة لقياس المخاطر الكبرى. فقد ركزت لفترة طويلة على ما تسميه أمن المحتوى، أي ضبط المخرجات بما يتماشى مع أولوياتها السياسية. غير أن هذا التركيز بدأ يتسع ليشمل المخاطر الأوسع، إذ باتت السلطات تولي اهتمامًا أكبر بتداعيات الذكاء الاصطناعي على المجتمع. وفي فبراير، طرحت إدارة الفضاء الإلكتروني مقترحات لتنظيم التفاعل مع الأنظمة الشبيهة بالبشر، في إشارة إلى القلق من آثار مثل الإدمان والاعتماد.
ورغم أن النقاش حول المخاطر يسبق أحيانا السياسات الفعلية، بدأت بكين اتخاذ خطوات ملموسة. ففي سبتمبر 2025، أصدرت إطارا محدثًا لحوكمة سلامة الذكاء الاصطناعي، تناول قضايا مثل تسهيل تطوير الأسلحة الخطرة واحتمالات فقدان السيطرة على الأنظمة المتقدمة. كما حذر من مخاطر النماذج مفتوحة المصدر التي تسهل إساءة الاستخدام. وفي السياق نفسه، اختبرت مؤسسات بحثية حكومية نماذج متقدمة لرصد المخاطر؛ إذ قيم مختبر شنغهاي للذكاء الاصطناعي في يوليو 2025 نحو 18 نموذجًا عبر سبعة مجالات، وكشف عن مخاطر بيولوجية وكيميائية، إلى جانب مؤشرات على سلوكيات خداعية محتملة، وهي نتائج تتقاطع مع تقييمات مطوري الذكاء الاصطناعي في الولايات المتحدة.
تدرك الصين على نحو متزايد أن سوء إدارة المخاطر قد يعرقل طموحاتها في مجال الذكاء الاصطناعي، لكن الحد الفعلي من هذه المخاطر يتطلب توسيع هذه الجهود وتعزيز البنية التقنية الداعمة لها. فقيمة أي تعاون في هذا المجال ترتبط بقدرة كل طرف على الإسهام بأدوات فعّالة للقياس والمعالجة.
رغم عمق الخلافات بين واشنطن وبكين، فإن بناء أرضية مشتركة يظل ممكنًا. فكما تتنافس شركات الطيران الكبرى تجاريًا مع التزامها بمعايير سلامة موحدة، يمكن للولايات المتحدة والصين الجمع بين التنافس والتعاون في وضع قواعد أساسية للأمان. وبالتعاون مع العلماء والمختبرات الرائدة، يمكن للطرفين تطوير فهم مشترك للمخاطر الكبرى، حتى مع اختلاف الأطر القانونية والثقافية، والاتفاق على أولويات عالمية وحلول تقنية قابلة للتطبيق.
يمكن أن يستند هذا التعاون إلى مبادرات قائمة، مثل التقارير الدولية التي تقيم تطور الذكاء الاصطناعي، واختبارات السلامة المشتركة التي كشفت عن ثغرات ومخاطر متشابهة، إضافة إلى الحوارات غير الرسمية بين الخبراء التي تساعد على تحديد نقاط الالتقاء والاختلاف.
توضح تجربة تعديل الجينات أهمية التوافق في إدارة المخاطر، حيث دفعت هذه الواقعة إلى تعزيز التعاون الدولي في وضع معايير أخلاقية، وشجعت جهات أمريكية ودولية الصين على تطوير أطر تنظيمية أكثر صرامة. واستجابت بكين عبر تحديث قوانينها، فحظرت التعديل الجيني غير المصرح به، وفرضت رقابة مركزية على الأبحاث، وأنشأت لجنة وطنية لأخلاقيات البحث. ونتيجة لذلك، أصبحت قواعد السلامة البيولوجية في الصين أقرب إلى المعايير المعمول بها في أوروبا وأمريكا الشمالية، على الأقل من حيث الإطار التنظيمي.
لكن السعي إلى فهم مشترك للمخاطر لا يكفي لمنع الضرر على المستوى العالمي. فثمة حاجة إلى تعاون عملي بين الولايات المتحدة والصين لوضع أفضل الممارسات التقنية للحد من مخاطر نماذج الذكاء الاصطناعي. ويقتضي ذلك موازنة دقيقة شبيهة بما حدث في المجال النووي خلال الحرب الباردة: تبادل قدر كاف من المعرفة للحد من الأخطار، مع حماية المعلومات الحساسة والأسرار التجارية. ويشمل ذلك التنسيق حول أساليب اختبار الأنظمة لاكتشاف قدراتها الخطرة، وبناء ضمانات تقلل من هذه المخاطر.
في مجال الاختبار، تبرز أهمية تنظيم ما يعرف بفرق الاختبار الحمراء، التي تتولى فحص ضوابط الأمان وكشف الثغرات. ويتعين على الطرفين الاتفاق على كيفية تصميم هذه الاختبارات وتوسيع نطاقها لتغطية طيف أوسع من التهديدات، بما في ذلك استخدام نماذج لغوية متقدمة بدلًا من الاعتماد الكامل على الخبراء، ودراسة المخاطر الناتجة عن دمج الذكاء الاصطناعي في تطبيقات قادرة على العمل بشكل مستقل. ومع ذلك، يجب تجنب الكشف عن تفاصيل تكتيكية قد تمنح الطرف الآخر أفضلية.
لا ينبغي أن يقتصر الاختبار على البيئة الرقمية. فدراسات المحاكاة المختبرية تتيح تقييم المخاطر في سياقات واقعية أو شبه واقعية، مثل قياس قدرة الذكاء الاصطناعي على تسريع تطوير مواد خطرة مقارنة بالاعتماد على المعرفة العلمية التقليدية. ويتطلب ذلك وضع بروتوكولات أمان صارمة، واستخدام تجارب محاكاة غير ضارة بدلًا من التعامل المباشر مع مخاطر حقيقية.
ومن خلال التركيز على منهجية الاختبار بدلًا من تفاصيله، يمكن تحقيق تعاون تقني فعّال دون كشف معلومات حساسة أو التفريط في مزايا استراتيجية. ويسمح هذا النهج بوضع معايير مشتركة دون الخوض في الأساليب الدقيقة أو المعارف المتخصصة التي قد تساء استخدامها.
إلى جانب الاختبارات، يمثل تطوير الضمانات التقنية أولوية موازية. فالأنظمة الحالية تعاني قصورًا مزدوجًا: فهي لا تصمد أمام الهجمات المتقدمة، وفي الوقت نفسه تعرقل استخدامات مشروعة، مثل أبحاث الأمن السيبراني أو الدفاع البيولوجي. ومن ثم، يحتاج الطرفان إلى تطوير أدوات أكثر دقة قادرة على التمييز بين الاستخدام الآمن والخطر، وإدارة المخاطر المرتبطة بسلوك النماذج نفسها.
يمكن تحقيق تعاون عملي في مجال الضمانات إذا ركز على الأدوات الخارجية التي تضبط سلوك النماذج بعد نشرها. فبوسع الولايات المتحدة والصين مناقشة فلاتر المحتوى وضوابط التنفيذ وقيود الاستخدام دون الخوض في تفاصيل بناء النماذج نفسها، إذ إن الكشف عن آلياتها الداخلية قد يعرض تقنيات حساسة للاستغلال. ومع ذلك، فإن تبادل المناهج العامة يظل خطوة مهمة، لأن أيا من الطرفين لا يمتلك حتى الآن قدرة كاملة على منع إساءة استخدام الذكاء الاصطناعي المتقدم.
تعثر أول حوار حكومي رسمي بين البلدين حول الذكاء الاصطناعي، الذي عقد في جنيف في مايو 2024، نتيجة اختلاف الأولويات؛ إذ ركز الوفد الأمريكي على الجوانب التقنية، بينما انشغل الجانب الصيني بالاعتبارات السياسية والتنظيمية. يعكس ذلك فجوة في المقاربة بين التركيز على المخاطر التقنية من جهة والمخاوف السيادية من جهة أخرى.
ما تحتاجه المرحلة الحالية هو حوار مستقر ومحدد حول المخاطر العالمية، بمعزل عن تقلبات العلاقات الثنائية الأوسع. ويتطلب ذلك إشراك خبراء يتمتعون بصلات بالحكومات لكن يعملون خارجها، بما يتيح مساحة أوسع للتفاهم التقني. فمشاركة مؤسسات بحثية وشبكات علمية قريبة من دوائر صنع القرار يمكن أن تخلق لغة مشتركة وتدعم النقاشات الرسمية. وتستطيع دول أخرى ذات خبرة تقنية وعلاقات متوازنة مع الطرفين أن تسهم في استمرارية هذا الحوار، عبر توفير منصات للتنسيق وتبادل الخبرات، بما يساعد على تقليل فجوات الثقة عند تصاعد التوترات.
من شأن حوار ناجح أن يمكن صانعي السياسات من فهم المخاطر دون عرقلة الابتكار، وأن يعزز القدرة على رصد التهديدات المرتبطة بالنماذج الجديدة، وتحسين أدوات الأمان، ورفع مستوى الشفافية بين الشركات والحكومات والمستخدمين. وفي النهاية، يظل التعاون الطريق الأكثر واقعية لفهم المخاطر العالمية للذكاء الاصطناعي والحد منها، قبل أن تتحول إلى أزمات يصعب احتواؤها.