قبل فترة قريبة، أرسل إليّ أحد الأصدقاء مقالا -لم يُذكر كاتبه- يتناول تهديدات محتملة قادمة في مجال الذكاء الاصطناعي، مستندًا إلى استنتاجات استُخلصت من تصريحات لمسؤولين سابقين في شركات كبرى تعمل في هذا المجال.
جاءت تلك التصريحات في صورة تحذيرات غير مباشرة، وتمثّل بعضها في استقالات مفاجئة لكبار التنفيذيين، ما أثار كثيرًا من علامات الاستفهام عما يجري خلف الأبواب المغلقة في مختبرات تطوير التقنيات المتقدمة وأهمها نماذج الذكاء الاصطناعي.
أتبع صديقي مشاركته للمقال بسؤال مباشر: هل هناك خطر حقيقي في الذكاء الاصطناعي؟ أجبته باختصار: نعم، التهديد موجود، ولكن حجم هذا التهديد وطبيعته يعتمدان إلى حدٍّ كبير على ما قد يُفرَج عنه من تقنيات كانت تُصنَّف ضمن المشروعات السرية في معامل الشركات التقنية الكبرى، أو تلك المحصورة في الاستعمالات العسكرية والأمنية لدى الدول الراعية لمشروعات الذكاء الاصطناعي وأبحاثه، والأهم من ذلك، يعتمد على وعينا التقني وتحسس مواطن مخاطره الأمنية والمجتمعية بعموم زواياها.
سبق أن شهدنا تحذيرات علنية صدرت عن شخصيات بارزة في هذا المجال، من بينها استقالة عرّاب الذكاء الاصطناعي وأشهر رموزه «جيفري هينتون» «Geoffrey Hinton» الذي عبّر عن قلقه العميق من المسار المتسارع غير المنضبط لتطور أنظمة الذكاء الاصطناعي، ومن قدرتها المحتملة على تشكيل ما يمكن وصفه بالخطر الوجودي إذا لم تحط بضوابط أخلاقية وتشريعية صارمة.
كذلك أشرنا مرارًا إلى أن للذكاء الاصطناعي وجهًا سلبيًا لا يقل خطورة عن أي سلاح آخر؛ فالعلم بطبيعته أداة مزدوجة الاستعمال، ويمكن توجيهه نحو البناء أو الهدم، ويقدّم لنا التاريخ أمثلةً واضحة على ذلك؛ فالتقنية النووية -على سبيل المثال- أمكن استعمالها في إنتاج الطاقة الكهربائية وخدمة التنمية البشرية، ولكن في المقابل نراها أيضا تتحول إلى سلاح فتاك قادر على إبادة البشرية.
ولنا في القنبلة النووية التي أسقطتها الولايات المتحدة الأمريكية على اليابان إبان الحرب العالمية الثانية مثال صارخ على الوجه التدميري لهذا المسار العلمي.
ينطبق الأمر ذاته على التقنيات البيولوجية؛ إذ يمكن توظيفها في تطوير اللقاحات والعلاجات وإنقاذ ملايين الأنفس، أو إساءة استعمالها في إنتاج أسلحة بيولوجية قاتلة.
من المنظور نفسه، ينطبق هذا المبدأ على الذكاء الاصطناعي؛ فبقدر ما يَعِد بإحداث تحولات إيجابية في الطب والصناعة والتعليم والأمن السيبراني، فإنه يحمل في طياته إمكانات عالية التأثير إذا أسيء استخدامه أو أُطلق دون أطر حوكمية واضحة ومسؤولة. لذلك فإن السؤال الحقيقي لا يتعلق بما إذا كان الذكاء الاصطناعي خطيرًا في ذاته، ولكن عن كيفية إدارته وأهداف تشغيله، ومن يمتلك السيطرة على مفاتيح تطويره وتوجيهه.
قبل فترة ليست ببعيدة، كتبتُ مقالة تناولتُ فيها تطورات الذكاء الاصطناعي المستقبلية المتوقعة وتحديدا لعام 2026، وصرّحتُ فيها بوضوحٍ بأننا -على الأرجح- لن نشهد في المدى القريب تقنيات جديدة تُحدث مستوى الدهشة ذاته الذي شهدناه في عام 2023، ولا سيما مع بروز ما يُعرف بنماذج الذكاء الاصطناعي التوليدية، وما أظهرته آنذاك من قدرات لغوية وتحليلية واستدلالية لافتة.
لكن لا يعني هذا التصريح أن مسار التطوير قد توقّف، أو أن عجلة الابتكار قد تباطأت جذريا، وإنما ما قصدته أن عنصر «الصدمة المعرفية» أو الدهشة الأولى قد انحسر؛ حيث تبلغ الدهشة الإنسانية بطبيعتها ذروتها عند اللحظة الأولى للاكتشاف، ثم تبدأ تدريجيا في التلاشي مع الاعتياد والتطبيع، وفي تقديري، -هذا ما يحدث حاليا- أن شعور المفاجأة تجاهها اختفى دون أن تختفي التقنية وتطويراتها.
أرى أن الوعي التقني في المرحلة القادمة لا يرتبط بظهور قفزة مفاجئة بقدر ما هو ترسّخ مفاهيم الذكاء الاصطناعي في الوعي الجمعي، وانتقالها من حالة الاستغراب إلى حالة الاعتياد؛ إذ بدأت المجتمعات تتقبّل وجود هذه الأنظمة بوصفها جزءا من البنية اليومية للحياة سواء في بيئات العمل أو في السوق المهني أو في قطاعات الخدمات، ووجدت ذلك -شخصيا- أن المتخصص وغير المتخصص صار الذكاء الاصطناعي جزءًا مصاحبًا لحياته ونقاشاته، وكذلك يمكننا أن نلحظ بوضوح أن بعض الوظائف أُُتمتت بالكامل -دون إنكار أن بعض أشكال الأتمتة تحمل فوائد موضوعية خاصة في الأعمال الشاقة أو عالية المخاطر أو تلك التي تتطلب دقة تشغيلية متكررة-، وأخرى تقلّص فيها الدور البشري إلى حدٍّ كبير، وهنا مكمن الخطر الخفي الذي أصبح خطرا مُطبَّعا ومقبولا اجتماعيا، وخصوصا في البيئات الرأسمالية المنتجة للمال والصناعة التي تنظر إلى الذكاء الاصطناعي من زاوية الكفاءة وتعظيم الربحية وتقليل التكاليف دون تحسس الخطر الذي يمس المجتمع وأفراده.
سبق أن أشرتُ مرارًا في محاضرات ومقالات متخصصة إلى أن أي توسّع في تطبيقات الذكاء الاصطناعي ينبغي أن يكون خاضعًا لرقابة تنظيمية واضحة، وأن يستند إلى منظومات أخلاقية وأمنية صارمة؛ فالذكاء الاصطناعي -في صميمه التقني- يعمل بالوقود المتمثل في البيانات، ولا يمكن أن نعتبر البيانات كتلة واحدة متجانسة؛ إذ إنها تشمل بيانات شخصية وخاصة، وبيانات مؤسسية، وأخرى ذات تصنيف أمني مرتبط بالأمن الوطني للدول.
من هنا تنشأ المعضلة الإستراتيجية عند أول انطلاقة تفعيلية وتشغيلية شاملة لأنظمة الذكاء الاصطناعي، وعلينا أن نبقي هذه القاعدة في صميم وعينا التقني بأن من يملك التقنية ويملك القدرة على تخزين البيانات الضخمة وتحليلها، يملك في الواقع أداة نفوذ يمكن أن تتجاوز في أثرها أدوات القوة التقليدية.
لذلك لا ينبغي أن يتحول الانبهار بالتطبيقات الذكية إلى اندفاعٍ غير محسوب، ولا أن يُختزل النقاش في مكاسب الكفاءة الاقتصادية وحدها دون تأمين حوكمة واضحة لاستعمالات الذكاء الاصطناعي، ومن دون بناء منظومات متقدمة لأمن البيانات والأمن السيبراني.
رغم انحسار عنصر الدهشة والمفاجأة تجاه الذكاء الاصطناعي وتطوراته؛ فيمكن لهذا الانحسار أن يقود -من حيث لا نشعر- إلى عدم ملاحظتنا للقفزات العميقة التي تتحقق في أجزائه المختلفة سواء في جوانبها الإيجابية أو في أبعادها السلبية التي عبّرنا عن بعضها آنفا، ولهذا نؤكد أن تلاشي الدهشة لا يعني تلاشي الخطر، وإنما تضاعف تأثيره بشكل خفي غير ملحوظ نتيجة التخدير التقني الجمعي.
لهذا نحن بحاجة إلى ضخّ مزيد من الوعي المؤسسي والمجتمعي بهذا الحقل العلمي، ومضاعفة الجهود لفهم مخاطره قبل الاندفاع غير المحسوب إلى تعميم تطبيقاته أو جهل مستجداته.
ويمكن لنا أن نستقرئ بعض ملامح هذا الوعي عبر الجهود الدولية الجارية لتنظيم المجال؛ فنجد -مثلا- موافقة الأمم المتحدة مؤخرا على تشكيل لجنة علمية تضم نحو أربعين خبيرا لدراسة تأثيرات الذكاء الاصطناعي في المجتمع والاقتصاد، وبمشاركة واسعة من دول العالم، رغم تحفّظ الولايات المتحدة على إدارة هذه اللجنة تحت مظلة المنظمة الأممية.
ويتمثّل الهدف المعلن في بلورة رؤية عالمية مشتركة لحوكمة الذكاء الاصطناعي بما يوازن بين الابتكار والمسؤولية.
في السياق الأوروبي، يعمل الاتحاد الأوروبي على تطوير إطار تنظيمي شامل يُعرف باسم «AI Act» يقوم على تصنيف تطبيقات الذكاء الاصطناعي وفق مستويات المخاطر؛ فتخضع التطبيقات عالية الخطورة لقيود صارمة ومتطلبات امتثال دقيقة، وفي حين تُمنح التطبيقات منخفضة المخاطر مساحة أوسع، ويهدف هذا النهج إلى بناء تنظيم استباقي يمنح السوق قدرا من الوضوح القانوني ويعزز الثقة المجتمعية في التقنية.
أما في الولايات المتحدة، فتبرز مقاربة أكثر جدلية؛ إذ يتقاطع تياران رئيسان: تيار داخل الصناعة التقنية يدعو إلى أطر تنظيمية أكثر صرامة لضمان الأمان والمسؤولية، وتيار آخر يرفض تشديد القيود خشية أن يعوق ذلك مسارات الابتكار والمنافسة العالمية.
كذلك من جهة أخرى، أطلقت «اليونسكو» مشاورات مفتوحة شملت برلمانيين وخبراء وممثلين عن المجتمع المدني العالمي سعيا إلى صياغة إرشادات عالمية تستند إلى خبرات متنوعة وثقافات قانونية مختلفة تهدف إلى رفد البعد الأخلاقي والإنساني في استعمالات الذكاء الاصطناعي..
د. معمر بن علي التوبي أكاديمي وباحث عُماني