ترجمة

معضلة الذكاء الاصطناعي الثلاثية: نحو استراتيجية واقعية لحوكمة التكنولوجيا الحديثة

 

سيباستيان إلبوم ـ سيباستيان مالابي - ترجمة- نهى مصطفى

في أواخر عام 2022، أدى إطلاق ChatGPT إلى انطلاق سباق عالمي محموم للسيطرة على تقنيات الذكاء الاصطناعي. واستجابةً لذلك، أسست إدارة بايدن «معهد سلامة الذكاء الاصطناعي الأمريكي»، وهو مكتب متخصص مكلف بوضع بروتوكولات وقواعد لتحديد المخاطر التي يسببها الذكاء الاصطناعي. كما أنشأت دول أخرى مثل كندا واليابان وسنغافورة وكوريا الجنوبية والمملكة المتحدة، بالإضافة إلى الاتحاد الأوروبي، هيئات رقابية مشابهة. اجتمع قادة العالم لمناقشة مستقبل الذكاء الاصطناعي في «بليتشلي بارك»، وهي ضيعة ريفية إنجليزية اشتهرت بأنها المكان الذي عمل فيه محللو الشيفرات التابعون للحلفاء سرًا خلال الحرب العالمية الثانية. وشهدت الأشهر الخمسة عشرة التي تلت ذلك الاجتماع إقامة مؤتمرات متابعة في مدينتي سيؤول وباريس.

وأمام هذه التقنية التي تبشر بتغيير جذري في مجالات العمل والحرب وحتى في مفهوم الإنسانية نفسه، أصبحت الظروف مهيأة تمامًا لاستجابة سياسية منظمة، حتى إن المسؤولين عن مختبرات الذكاء الاصطناعي التجارية أنفسهم، دعوا لفرض حوكمة منسقة للذكاء الاصطناعي.

اليوم، باتت هذه الدعوات نادرة. تراجعت المطالبة بتنظيم الذكاء الاصطناعي رغم تطوره السريع ومخاوف الجمهور من فقدان الوظائف؛ حيث لم يعد قادة الحكومات والقطاع الخاص يرون فرض رقابة وطنية أو دولية أمرًا مرجحًا، وذلك بسبب توجهات إدارة ترامب الرافضة للقيود التنظيمية، ولأن الذكاء الاصطناعي بات محركًا أساسيًّا لنمو الاقتصاد الأمريكي الذي يخشى الجميع عرقلته أو تحمل تكاليف إبطائه. أدى إطلاق نماذج ذكاء اصطناعي صينية قوية مثل DeepSeek إلى تثبيط الحكومة الأمريكية عن عرقلة المختبرات المحلية خشية أن تسبقها الصين في السباق.

حتى لو انفجرت فقاعة الذكاء الاصطناعي وأدت إلى إفلاس بعض الشركات الكبرى، فعمالقة التكنولوجيا في الولايات المتحدة والصين، بما يملكونه من موارد مالية ضخمة، سيستمرون في تسريع نشر هذه التقنية. وبسبب هذه المنافسة الشديدة، ستظل فرص تنظيم وحوكمة الذكاء الاصطناعي مليئة بالتحديات، لكن المخاطر المترتبة على ذلك أكبر من أن يتم تجاهلها. وعاجلًا أم آجلًا، ستتضح هذه الحقيقة للجميع، وربما يحدث ذلك عقب كارثة كبرى، مثل هجوم إلكتروني تشنه جهة خبيثة على بنية تحتية حيوية.

ينذر الذكاء الاصطناعي باضطرابات اجتماعية ونفسية لا تقل شأنًا عن تلك التي أحدثتها الثورة الصناعية، والتي مهدت الطريق لقرن من الحروب العالمية والثورات السياسية. وفي مرحلة ما، ستدرك الحكومات أن رفضها التدخل في مسار هذه الثورة التكنولوجية يعد تهربًا من المسؤولية. ورغم الجهود التنظيمية المتفرقة، في ولاية كاليفورنيا وغيرها من الولايات الأمريكية، لكنها لن تصنع إطارًا موحدًا للحوكمة، إلا أنها تؤكد بوضوح أن الكثيرين لا يشعرون بالارتياح تجاه خيار الوقوف مكتوفي الأيدي.

مع ذلك، وللاستعداد لعودة الذكاء الاصطناعي إلى صدارة الأجندة الوطنية، يجب على مؤيديه تجاوز أخطاء الماضي المتمثلة في تشتت الأجندة التنظيمية بين مشاكل لا حصر لها، والتركيز بدلًا من ذلك على أولويات واضحة وخطط عملية؛ وهذا يتطلب فهمًا عميقًا للموازنات الصعبة والتمييز بين القوانين الواقعية وغير القابلة للتطبيق، مع تبني سياسات ذكية تحفز الشركات الخاصة عبر «ضريبة مخاطر» لدعم أبحاث السلامة، وإنشاء «مستودع بيانات وطني» يمنح الدولة الموارد والصلاحيات اللازمة لمراقبة الأنظمة الرائدة وضمان أمانها.

تنقسم أهداف سياسات الذكاء الاصطناعي في الولايات المتحدة إلى ثلاث فئات رئيسية: الأمن القومي بتعزيز قدرات الجيش والاستخبارات، والأمن الاقتصادي بزيادة تنافسية الشركات عالميًّا، والأمن المجتمعي بالحماية من البطالة والجرائم الإلكترونية والمخاطر الوجودية. وتكمن الصعوبة في أن السعي لتحقيق هذه الأهداف الثلاثة معًا في وقت واحد يخلق أجندة ضخمة ومعقدة يصعب تطبيقها على أرض الواقع.

لنفترض ثلاثة سيناريوهات، يتضمن كل منها السعي لتحقيق هدفين من الأهداف الثلاثة المحتملة. تتمحور المشكلة في وجود تعارض حتمي بين الأهداف؛ فتبني خيار الأمن القومي والاقتصادي (كما تفعل إدارة ترامب) يتطلب تسريع الاستثمار والنشر، مما يضحي بالأمن المجتمعي الذي يحتاج إلى إبطاء الوتيرة لدراسة المخاطر. وعلى العكس، فإن التركيز على سلامة المجتمع سيؤدي بالضرورة إلى إضعاف التنافسية الاقتصادية والقوة العسكرية. لذا، يجب على جميع الأطراف إدراك أنه لا يمكن تحقيق السيادة والسرعة مع ضمان الأمان الكامل في آن واحد.

في سيناريو ثانٍ، قد تعطي دولة ما الأولوية للأمن القومي والأمن المجتمعي، يتم فيه التعامل مع الذكاء الاصطناعي كالتكنولوجيا النووية، بحصره في الاستخدامات العسكرية والطاقة وحظره تجاريًّا. هذا يحمي الوظائف والمجتمع من الاضطرابات، لكنه يدمر الأمن الاقتصادي ويجعل الشركات المحلية تتخلف عن المنافسة العالمية.

في سيناريو ثالث، قد تعطي دولة ما الأولوية للأمن الاقتصادي والأمن المجتمعي، ويتبنى نهج «الابتكار المسؤول»، حيث يتم التطوير بسرعة مع اشتراط رقابة صارمة قبل الطرح للجمهور لكسب ثقة المجتمع. إلا أن هذا النهج يضعف الأمن القومي؛ فبينما تلتزم الدولة بالحذر، قد يقوم المنافسون بنشر أسلحة سيبرانية وذاتية التشغيل بسرعة تمنحهم التفوق العسكري.

تزداد معضلة الموازنة بين أهداف الذكاء الاصطناعي تعقيدًا بسبب مفهوم «التفرد التكنولوجي»، الذي يفترض وصول الآلات لذكاء خارق يطور نفسه ذاتيًّا؛ فإذا صح هذا التصور، ستصبح الجهود الراهنة لتحقيق الأمن القومي والاقتصادي بلا قيمة، وينحصر التركيز السياسي في هدفين فقط: السبق للوصول إلى هذا التفرد قبل المنافسين، ومنح الأولوية القصوى للأمن المجتمعي لتجنب فناء البشرية أمام ذكاء يتجاوز قدراتها.

تعتمد سياسة واشنطن الحالية على فرضية «التفرد التكنولوجي» الوشيك لتبرير سباقها المحموم ضد الصين وضبط الصادرات، ظنًا منها أن الفوز بـ«ذكاء خارق آمن» سيحسم التفوق العالمي نهائيًّا. إلا أن الواقع يشكك في هذه الرؤية؛ فبرغم مساهمة الذكاء الاصطناعي في تطوير أجيال جديدة من نفسه، إلا أن «التفرد» بمعناه الكامل مستبعد، لأن هذه التقنيات تفتقر للقدرة الذاتية على الفعل، وتظل بحاجة ماسة لبيئات عمل وقرارات مؤسسية يديرها البشر بالكامل في المستقبل المنظور. على سبيل المثال، قد تتمكن أنظمة الذكاء الخارق قريبًا من استبدال معظم المحامين، ولكن يتطلب ذلك تجاوز عقبات معقدة، تبدأ من الوصول للبيانات الحساسة وحل مسائل المسؤولية القانونية، وصولًا إلى الحصول على الموافقات التنظيمية ومواجهة ضغوط أصحاب العمل.

يتجاهل سيناريو التفرد التكنولوجي العقبات المادية التي تعترض قابلية توسع الذكاء الاصطناعي. فلبلوغ الذكاء الخارق وتطبيقه على ملايين المهام، تحتاج أنظمة الذكاء الاصطناعي إلى رفوف من أشباه الموصلات، وأنظمة تبريد متطورة، وكميات هائلة من الكهرباء. ولتحقيق ذلك، يتعين على مصنعي الرقائق بناء مرافق تصنيع، وتوفير أحدث الآلات لطباعة الدوائر على السيليكون، والتفاوض على الحصول على العناصر الأرضية النادرة، وضمان حصول شبكات الكهرباء الوطنية على محطات فرعية وخطوط نقل جديدة.

تختزل رؤية «الانفجار الذكائي» التطور في حلقة تقنية فقط، متجاهلةً العقبات المادية والتفاوضية التي لا يحلها إلا البشر، كالطاقة والتصنيع والتمويل، مما يعني أن الذكاء الخارق سيظهر تدريجيًّا ولن يحسم السباق بين واشنطن وبكين في لحظة خاطفة؛ وهذا يضعف منطق التسرع نحو «التفرد الآمن» أو الجدوى قصيرة المدى لضوابط التصدير، ويؤكد أن موازنة أهداف سياسة الذكاء الاصطناعي ستظل مشروعًا طويل الأمد.

بعد استيعاب معضلة الذكاء الاصطناعي الثلاثية وتجنب وهم التفرد التكنولوجي، يتعين على دعاة حوكمة الذكاء الاصطناعي إتمام خطوة أخيرة. يجب عليهم أن يكونوا صريحين بشأن حقيقة أن بعض المخاوف المرتبطة بالذكاء الاصطناعي إما مبالغ فيها أو تدفع السوق نفسه إلى معالجتها، ما يقلل الحاجة إلى تدخل تنظيمي. كانت النماذج اللغوية مصدر قلق حقيقي قبل 2023، لكنها تراجعت مع تحسن الأداء، ولدى المختبرات حافز قوي لزيادة الدقة. وفي المقابل، تظل مخاوف فقدان وظائف العاملين في مجالات المعرفة قائمة، لكن الحل لن يأتي عبر تجميد التقدم التقني، وهو خيار غير واقعي؛ فالحل في التكيف وتوفير شبكات أمان اجتماعي، لا في وقف الابتكار.

فشلت ضوابط تصدير أشباه الموصلات التي فرضتها إدارة بايدن في تحقيق أهدافها الثلاثة المرجوة (الأمن القومي، والاقتصادي، والمجتمعي)، فعلى الرغم من محاولات واشنطن إبطاء التقدم الصيني عسكريًّا وتجاريًّا، استمر قطاع الذكاء الاصطناعي في الصين بالنمو بفضل عمليات تهريب الرقائق، والاعتماد على كميات ضخمة من الرقائق الأقل جودة، وتحسين كفاءة البرمجيات؛ مما أدى في النهاية إلى نتائج عكسية تمثلت في تسريع وتيرة تطوير الصين لصناعة أشباه الموصلات محليًّا بدلًا من عرقلتها.

تبدو سياسة تقييد النماذج مفتوحة المصدر جذابة نظريًّا لأنها تضحي ببعض المكاسب الاقتصادية لتعزيز الأمن القومي والمجتمعي، عبر منع الخصوم من امتلاك تقنيات قوية وتجنب إساءة استخدامها في أغراض تخريبية أو غير أخلاقية، كما أنها تضمن بقاء التكنولوجيا تحت سيطرة مختبرات معروفة يمكن للحكومات محاسبتها. ورغم استحالة حظر هذه النماذج كليًّا، يرى المؤيدون إمكانية تقييد أقوى الإصدارات منها من خلال الضغط التنظيمي على الشركات الكبرى المطورة لها (مثل ميتا وميسترال)، والتي تتخذ من الولايات المتحدة أو الدول الحليفة مقرًا لها وتعتمد على أسواقها ورؤوس أموالها.

قد يبدو فرض قيود صارمة على نماذج المفتوحة المصدر ممكنًا إذا استطاعت الحكومات حرمان المطورين من التمويل والعملاء والبنية التحتية، عبر تحالف غربي يقيد رأس المال ويمنع تشغيل النماذج عالية المخاطر في مراكز البيانات الكبرى، ما قد يدفع الشركات إلى التخلي عنها. لكن هذه السياسة تصطدم بواقع أن المطورين الصينيين لن ينضموا إلى مثل هذا التحالف، ومع ضعف الروابط بينهم وبين السوق الأمريكية، سيواصلون طرح نماذج متقدمة. عندها سيؤدي تقييد الشركات الأمريكية فقط إلى زيادة اعتماد الدول النامية على التكنولوجيا الصينية الأرخص، ما يجعل هذه القيود غير عملية في ظل استمرار التوتر بين واشنطن وبكين.

أفضل سبيل لتنظيم الذكاء الاصطناعي هو تبني حلين وسطين بتكلفة اقتصادية محدودة ومكاسب أمنية أكبر. يرتكز الأول على اعتبار سلامة النماذج منفعة خاصة وعامة معًا؛ فالمختبرات لديها حافز لجعل نماذجها آمنة لمستخدميها، لكنها قد تتجاهل الأضرار العامة، مثل نشر معلومات مضللة استجابة لطلبات المستخدمين. وبما أن السوق لا يدفعها للاستثمار الكافي في أبحاث السلامة لتفادي هذه الآثار، يمكن معالجة الخلل عبر فرض «ضريبة مخاطر» تحفزها على تحمل التكلفة الاجتماعية لأدواتها. تقترح هذه السياسة فرض ضريبة مخاطر بنسبة 5% على المطورين الذين ينفقون مبالغ ضخمة لبناء النماذج، بحيث يواجه من ينفق مليار دولار التزامًا بقيمة 50 مليون دولار، مع منح إعفاء ضريبي بنسبة 25% عن كل دولار يخصص لأبحاث السلامة؛ فإذا أنفق المختبر 200 مليون دولار على السلامة، فإن الإعفاء البالغ 50 مليون دولار سيلغي فاتورته الضريبية تمامًا. ورغم اعتراض الصناعة، فإن هذا التدخل المتواضع يهدف لتحويل الموارد نحو السلامة لتعزيز ثقة الجمهور والأمن المجتمعي، فضلًا عن إنعاش المختبرات الأكاديمية التي تعاني أمام احتكار القطاع الخاص، وذلك عبر السماح للشركات بالحصول على إعفاءات مقابل تمويل منح المؤسسة الوطنية للعلوم التي تخصص حاليًّا مليار دولار سنويًّا لعلوم الحاسوب، بالإضافة إلى ضرورة استثمار البيانات الحكومية غير العامة لتعويض نضوب النصوص المتاحة على الإنترنت المفتوح.

في العام الماضي، أعلنت إدارة ترامب عن خطة لوزارة الطاقة لنشر مجموعات البيانات العلمية التي جمعها 17 مختبرًا وطنيًّا، ليتمكن مختبرات الذكاء الاصطناعي الخاصة من استخدامها لتدريب نماذج الذكاء الاصطناعي. ويمكن توسيع نطاق هذه المبادرة لتشمل مجالات أخرى. في مجال الرعاية الصحية، على سبيل المثال، يمكن للبيانات السريرية المجهولة المصدر التي تحتفظ بها الحكومة أن تساعد النماذج من تشخيص الأمراض ووصف الأدوية. بإمكان إدارة ترامب إنشاء مستودع بيانات وطني تحت مظلة مركز معايير وابتكار الذكاء الاصطناعي (CAISI) الحكومي، الذي أنشأته إدارة بايدن في الأصل تحت اسم معهد سلامة الذكاء الاصطناعي الأمريكي. سيتولى هذا المستودع تنظيف وإخفاء هوية مجموعة واسعة من البيانات الحكومية غير المنشورة حاليًّا، بما يضمن أعلى معايير الخصوصية، ثم يشاركها مع مطوري الذكاء الاصطناعي في القطاع الخاص. سيدفع المطورون مقابل هذه البيانات. ستستخدم العائدات لتحسين قدرات المركز على مراقبة سلامة نماذج الذكاء الاصطناعي التي يطورها القطاع الخاص.

يحتاج مركز تنظيم الذكاء الاصطناعي إلى صلاحيات تنفيذية تماثل إدارة الغذاء والدواء، ليكون قادرًا على منع نشر النماذج الخطيرة؛ ويهدف ذلك إلى تحقيق قفزة في الأمن المجتمعي مقابل تكلفة اقتصادية طفيفة ودون الإضرار بالأمن القومي. ورغم أن اختبار النماذج قبل نشرها قد يسبب تأخيرًا بسيطًا للمختبرات، إلا أنه سيعزز ثقة الجمهور ويوفر بيانات مدققة للتدريب، كما يمكن حماية المصالح العسكرية عبر السماح لمسؤولي الدفاع والاستخبارات بمعاينة النماذج والتخطيط لاستخدامها قبل مراجعتها علنيًّا وقبل أن تصبح متاحة للعالم.

يعتبر تنظيم النماذج الاحتكارية الأمريكية وفرض ضرائب لتمويل أبحاث سلامتها أمرين ضروريين يتجاوزان المنافسة مع الصين؛ فبما أنها الأكثر قوة، فإن وضع معايير أمان لها سيحولها تدريجيًّا إلى «معيار صناعي» عالمي يلفظ السوق أي نموذج مفتوح يفتقر إليها. علاوة على ذلك، يمثل هذا التنظيم المحلي حجر أساس لمشروع حوكمة دولي مستقبلي، على غرار معاهدة عدم انتشار الأسلحة النووية، يستغل فترات الانفراج السياسي المحتملة لفرض قيود عالمية تمنع انتشار النسخ الخطيرة من الذكاء الاصطناعي.