في الأسابيع الأخيرة، كان روبوت الدردشة Grok -نظام الذكاء الاصطناعي الذي طورته شركة xAI التي يملكها إيلون ماسك- مشغولا بتوليد صور جنسية دون رضا لنساء وأطفال على منصة التواصل الاجتماعي «أكس». وقد استحث هذا تحقيقات وتدقيق رسمي من قبل الهيئات التنظيمية في الاتحاد الأوروبي، وفرنسا، والهند، وماليزيا، والمملكة المتحدة. وصف مسؤولون أوروبيون هذا السلوك بأنه غير قانوني. وأطلقت الهيئات التنظيمية البريطانية تحقيقات عاجلة. وحذرت حكومات أخرى من أن مخرجات Grok ربما تنتهك القوانين الجنائية وقوانين سلامة المنصات المحلية. وبعيدا عن النزاعات التنظيمية الهامشية، تمتد هذه المناقشات إلى جوهر حوكمة الذكاء الاصطناعي.

تتفق الحكومات في مختلف أنحاء العالم على نحو متزايد على فرضية أساسية فيما يرتبط بإدارة الذكاء الاصطناعي: يجب أن تكون الأنظمة التي تُـنشَر على نطاق واسع آمنة، ومن الممكن التحكم فيها، وخاضعة لرقابة حقيقية. هذه المعايير واضحة وثابتة، سواء كانت محددة في قانون الخدمات الرقمية (DSA) في الاتحاد الأوروبي، أو مبادئ الذكاء الاصطناعي في منظمة التعاون الاقتصادي والتنمية، أو إطار أخلاقيات الذكاء الاصطناعي في اليونسكو، أو أنظمة السلامة الوطنية الناشئة. إن أنظمة الذكاء الاصطناعي التي تسمح بحدوث ضرر متوقع، وخاصة الاستغلال الجنسي، لا تتوافق مع توقعات المجتمع من هذه التكنولوجيا وحوكمتها.

من المتفق عليه عالميا أيضا على نطاق واسع أن الصور الجنسية التي تشمل قاصرين -سواء كانت حقيقية، أو معدلة، أو مولدة بالذكاء الاصطناعي- تشكل واحدا من الخطوط الحمراء الأكثر وضوحا في حوكمة التكنولوجيا. ويتفق القانون الدولي، وأطر حقوق الإنسان، والقوانين الجنائية المحلية على هذه النقطة.

إن توليد Grok لمثل هذه المواد لا يقع في منطقة رمادية. إنه يعكس فشلا واضحا وأساسيا في تصميم النظام وتقييمات السلامة، والرقابة، والتحكم. والسهولة التي يمكن بها حث Grok على إنتاج صور جنسية تضم قاصرين، واتساع نطاق الرقابة التنظيمية التي يواجهها الآن، وغياب اختبارات السلامة التي يمكن التحقق منها علنا، كل هذا يشير إلى فشل في تلبية توقعات المجتمع الأساسية فيما يتعلق بأنظمة الذكاء الاصطناعي القوية. وإعلان ماسك أن خدمة توليد الصور ستكون متاحة الآن لأصحاب الاشتراكات المدفوعة فقط لا يحل شيئا من هذه الإخفاقات.

هذه ليست مشكلة عارضة. ففي يوليو الماضي، حثت الحكومة البولندية الاتحاد الأوروبي على فتح تحقيق بشأن Grok بسبب سلوكه «الجانح». وفي أكتوبر، أرسلت أكثر من عشرين من المنظمات المدنية ومنظمات المصلحة العامة رسالة تحث مكتب الإدارة والميزانية في الولايات المتحدة على تعليق نشر Grok الـمُزمع عبر الوكالات الفيدرالية في الولايات المتحدة. أعرب عدد كبير من خبراء سلامة الذكاء الاصطناعي عن مخاوفهم بشأن كفاية إجراءات الحماية المعمول بها عند استخدام Grok، حيث زعم بعض المراقبين أن بنية الأمان والسلامة غير كافية لنظام بهذا الحجم.

كانت هذه المخاوف موضع تجاهل إلى حد كبير، حيث سعت الحكومات والقادة السياسيون إلى التعامل مع، أو الشراكة مع، أو التودد إلى xAI ومؤسسها. لكن حقيقة أن Grok تخضع الآن للتدقيق في عدد كبير من مناطق الاختصاص يبدو وكأنه يثبت صحة هذه المخاوف، بينما يكشف عن مشكلة بنيوية عميقة: تُـنشَر أنظمة الذكاء الاصطناعي المتقدمة وتُـتاح للجمهور دون ضمانات تتناسب مع مخاطرها. يجب أن يكون هذا بمثابة تحذير للدول التي تفكر في نشر أنظمة ذكاء اصطناعي مماثلة.

مع تزايد إقبال الحكومات على دمج أنظمة الذكاء الاصطناعي في الإدارة العامة والمشتريات وسير العمل السياسي، يتطلب الحفاظ على ثقة الجمهور ضمانات بأن هذه التكنولوجيات تمتثل للالتزامات الدولية، وتحترم الحقوق الأساسية، ولا تعرض المؤسسات لمخاطر قانونية أو مخاطر السُـمعة. لتحقيق هذه الغاية، يتعين على الهيئات التنظيمية استخدام قضية Grok لإثبات أن قواعدها ليست اختيارية.

تعتمد حوكمة الذكاء الاصطناعي المسؤولة على التوافق بين المبادئ المعلنة والقرارات التشغيلية. في حين أعربت حكومات وهيئات حكومية دولية عديدة بالتفصيل عن التزاماتها تجاه أنظمة الذكاء الاصطناعي الآمنة، والموضوعية، والخاضعة للرقابة المستمرة، فإن هذه الالتزامات تفقد مصداقيتها عندما تتسامح الدول مع نشر أنظمة تنتهك المعايير الدولية المشتركة على نطاق واسع مع إفلاتها بوضوح من العقاب.

على النقيض من ذلك، فإن تعليق نشر نموذج ما في انتظار تقييم صارم وشفاف يتوافق مع أفضل الممارسات العالمية في إدارة مخاطر الذكاء الاصطناعي. ويتيح هذا للحكومات تحديد ما إذا كان النظام يتوافق مع القانون المحلي، والمعايير الدولية، وتوقعات السلامة المتطورة قبل أن يصبح أكثر رسوخا. على ذات القدر من الأهمية، يثبت هذا أن أطر الحوكمة ليست مجرد بيانات طموحة، بل هي قيود تشغيلية -وأن الانتهاكات لن تمر دون عواقب حقيقية.

تؤكد واقعة Grok على درس أساسي في عصر الذكاء الاصطناعي: من الممكن أن تتفاقم ثغرات الحوكمة بسرعة تضاهي سرعة تطور القدرات التكنولوجية. عندما تفشل الحواجز الوقائية، لا تقتصر الأضرار على منصة أو منطقة اختصاص واحدة؛ بل تنتشر على نطاق عالمي، الأمر الذي يؤدي إلى إطلاق ردود فعل من جانب المؤسسات العامة والأنظمة القانونية.

من منظور الجهات التنظيمية الأوروبية، يمثل إنتاج Grok الأخير اختبارا حاسما لما إذا كان قانون الخدمات الرقمية (DSA) ليعمل كنظام إنفاذ ملزم أو أنه مجرد بيان نوايا. في وقت حيث لا تزال الحكومات، في الاتحاد الأوروبي وخارجه، تحدد ملامح حوكمة الذكاء الاصطناعي على مستوى العالم، قد تكون هذه القضية مؤشرا مبكرا لما يمكن أن تتوقعه شركات التكنولوجيا عندما تتجاوز أنظمة الذكاء الاصطناعي الحدود القانونية، وخاصة عندما يتعلق الضرر بسلوك فظيع مثل استغلال الأطفال.

الواقع أن الاستجابة التي تقتصر على الإدلاء ببيانات عامة تعبر عن القلق لابد وأن يؤدي إلى مزيد من الانتهاكات في المستقبل، لأنه يشير إلى أن الإنفاذ يفتقر إلى أنياب. في المقابل، من شأن الرد الذي يشمل التحقيقات، وتعليق العمل، والعقوبات، أن يوضح أن حدودا بعينها لا يمكن تجاوزها، بصرف النظر عن حجم الشركة، أو شهرتها، أو نفوذها السياسي.

لا ينبغي التعامل مع Grok على أنه حالة شاذة مؤسفة تُـدار بهدوء ثم تُـنسى، بل باعتباره انتهاكا خطيرا، كما هو بالفعل. كحد أدنى، يجب إجراء تحقيق رسمي، وتعليق النشر، وفرض عقوبات حقيقية.

لا يجوز لتدابير الأمن المتساهلة، والضمانات غير الكافية، أو الشفافية الهزيلة فيما يتعلق باختبارات السلامة أن تمر دون عواقب. وحيثما تتضمن العقود الحكومية أحكاما تتعلق بالسلامة، أو الامتثال، أو الإنهاء لسبب ما، فينبغي إنفاذها. وحيثما تنص القوانين على عقوبات أو غرامات، يجب تطبيقها. وأي شيء أقل من ذلك ينطوي على خطر إرسال إشارة إلى أكبر شركات التكنولوجيا بأنها قادرة على نشر أنظمة الذكاء الاصطناعي بكل تهاون، ودون خوف من مواجهة المساءلة إذا تجاوزت تلك الأنظمة حتى أبرز الخطوط القانونية والأخلاقية الحمراء.

جيه بي برانش مدافع عن مساءلة شركات التكنولوجيا الكبرى في منظمة المواطن العام.

خدمة بروجيكت سنديكيت