صيحات التحذير من الذكاء الاصطناعي
صدرت تصريحات مرعبة لعالم الفيزياء «ستيفن هوكينج» في عام 2014 تُنذر بالخطر القادم من الذكاء الاصطناعي الذي تنبأ فيه بانقراض الجنس البشري، إلا أنّ هذه التصريحات تناولها العالم بأنها شيء من المبالغات؛ إذ يومها -في عام 2014- لم يكن للذكاء الاصطناعي الصيت الذي نشهده في يومنا حتى جاء عام 2022؛ ليظهر نموذج الذكاء الاصطناعي التوليدي «ChatGPT»؛ لتتوالى صيحات الإنذار والتحذير من مخاطر الذكاء الاصطناعي يوما بعد يوم. جاءت بعدها تحذيرات عرّاب الذكاء الاصطناعي وأبوه الروحي «جيفري هينتون»، و«سام ألتمان» الرئيس التنفيذي لشركة «OpenAI» صانعة نموذج الدردشة الذكي التوليدي الشهير «ChatGPT»، ودعوات العلماء المطالبة لتجميد أنشطة تطويرات الذكاء الاصطناعي، والتحذيرات الصادرة من مواقع صنّاع القرار في دول العالم ومنها الولايات المتحدة الأمريكية وآخرها -بتاريخ 12/6/2023 -تحذيرات الأمين العالم للأمم المتحدة «أنطونيو جوتيريش» من خطورة الذكاء الاصطناعي الوجودية الذي يراها لا تقل خطرا عن الخطر النووي.
أحاول تصفّح كل ما يمكن أن أصل إليه من أخبار عالمية -في الصحف والقنوات العربية والإنجليزية- فيما يخص الذكاء الاصطناعي؛ لمتابعة مستجدات هذا الملف التقني الساخن، ومحاولة قراءة المشهد الحالي وتحديد التوقعات القادمة. عرفت الذكاء الاصطناعي منذ سنوات طويلة، وتعاملت معه عبر الأنظمة الحاسوبية والقوانين الرياضية إلا أنني لم أشهد ديناميكية إعلامية تتناول هذا الملف بهذه الحماسة والتفاعل مثل التي أراها هذه الأيام وتحديدا منذ نهاية عام 2022. لم يأتِ هذا الحراك الإعلامي المتفاعل مع مخاوف العلماء والساسة من فراغ بل نتيجة وجود خطر وجودي يصفه البعض -مثل الأمين العام للأمم المتحدة- بالخطر الوجودي الذي لا يقل خطرًا عن السلاح النووي. لا أريد إعادة طرح هذه المخاوف التي تناولتها مرارًا وتكرارًا كما تناولها غيري عبر الإعلام سواءً المحلي أو العالمي، ولكن أريد أن أضع القارئ أمام جوهر هذه المعضلة الرقمية التي انقسم الناس في شأنها إلى فريقين؛ فريق متوجس يتفاعل بقلق مع هذه القضية، وفريق غير مكترث كونه يرى القضية مجرد زوبعة إعلامية تحمل الكثير من المبالغات. سأعطي رأيي -الشخصي- الذي ينطلق من مبررات فنية «علمية» وكذلك من مشاهد سياسية؛ حيث إن الذكاء الاصطناعي بتطوراته الحالية والقادمة يحمل ملامحَ مقلقة تتحرك نحو بلوغ درجة الذكاء الاصطناعي العام التي تنافس الإنسان في قدراته التفكيرية، وهذه تقود إلى طرح سؤال عميق -سبق لجيفري هينتون طرحه- وهو: كيف لكائن ذكي -مثل الإنسان- أن يتحكم بكائن رقمي -الذكاء الاصطناعي- يفوقه ذكاء؟ إذ لم يسبق للعلم أن يشهد مثل هذا، ولنتخيل مدى الخطر الذي يمكن أن يقترب في حالة تفوق الذكاء الاصطناعي على صانعه «الإنسان» في الذكاء بجميع أنواعه. للقارئ حق التأمل في مثل هذا السناريو ونتائجه مع التأكيد «العلمي» في إمكانية حدوث هذا كون ملامح هذا الذكاء الاصطناعي بدأت تُظهر تفوقًا على الإنسان في عدد من المجالات.
تكمن المشكلة الرئيسة -التي تقود الذكاء الاصطناعي إلى منعطفه الخطير- في الجانب السياسي؛ كون الجانب العلمي يأخذ مجراه «الطبيعي» في تطويرات الذكاء الاصطناعي سالكًا بذلك التطور العلمي الحتمي، ويحمل على عاتقه بلوغ أقصى حالات الاستفادة من هذه التقنيات المتقدمة التي لا يمكن تجاوز سلبياتها دون وجود القرار السياسي الصارم، وهنا القضية أشبه بقضية بدايات ظهور الطاقة النووية وتطوراتها التي تفرّع جزء منها إلى تطورات سياسية-عسكرية تحت مظلة أبحاث سرية ترعاها المؤسسات العسكرية لبعض الدول الكبرى، ولم تكن هناك إرادة سياسية كافية -في وقتها- لمنع خطر محتمل جراء هذه الطفرات النووية التي تحولت إلى أسلحة «نووية» حتى وقوع أول كارثة نووية عالمية بعد إلقاء الولايات المتحدة الأمريكية قنبلتها النووية على هيروشيما في اليابان؛ لتحدث كارثة إنسانية لم تعهدها البشرية من قبل، ولتبقى آثارها -السلبية- لسنوات طويلة، تمتد لأجيال متعاقبة تضررت بسببها أنظمتهم البيولوجية. هنا استفاق العالم من صدمة قال إنها تهديد للوجود البشري؛ ليعلن عن قوانين وتشريعات وأخلاقيات تنظم استعمالات الطاقة النووية وتحد من الانتشار النووي الضار. ما أشبه اليوم بالأمس؛ إذ نرى المشهد يتكرر وسط صيحات الإنذار والتحذيرات التي لم يُحرّك لها ساكنٌ بشكل مقنع، وهذه المرة مع سلاح رقمي يهدد الوجود البشري بأشكال متعددة لا يمكن حصرها في القتل والتدمير عبر أسلحة تعمل بأنظمة ذكية بل تشمل المساس بالأنظمة الاقتصادية والمالية والصناعية والاستقرار البشري وخصوصياته.
بدأت بعض البوادر العالمية التي تحاول أن تجد لها منصة حوار جادة فيما يخص تقنين استعمالات الذكاء الاصطناعي وتطويراته؛ حيث أعلن البرلمان الأوروبي عن مشروعه الساعي للتصويت لإجراءات وقوانين تعالج المخاوف المتصاعدة تجاه الذكاء الاصطناعي والحدّ من استعمالاته الضارة للبشر بما فيها نوع البيانات المستعملة في تدريب نماذج الذكاء الاصطناعي لضمان أعلى المعايير الأخلاقية. أعلنت كذلك المملكة المتحدة البريطانية عن نيتها تنظيم أول قمة عالمية لسلامة الذكاء الاصطناعي؛ من أجل أن تقوم بدور قيادي عالمي في قضية حوكمة الذكاء الاصطناعي. كذلك أظهر الأمين العام للأمم المتحدة رغبته «الجادة» في تأسيس وكالة دولية للذكاء الاصطناعي على غرار الوكالة الدولية للطاقة النووية؛ لتأتي هذه التحركات ترجمة لمخاوف حقيقية تحاول بواسطتها هذه الدول الحدَّ من التفرعات السلبية للذكاء الاصطناعي واستعمالاته الضارة. لا أرغب في بث الخوف عبر هذه اللغة المتشائمة -كما يمكن أن يراها البعض- ولكنني أعكس واقعًا لا بد للجميع إدراكه ومعرفة أبجدياته الأساسية حتى نصل إلى أعلى مستويات الوعي العلمي بما فيه الرقمي، ولنكون جزءًا مؤثرًا لا متأثرًا في هذا العالم؛ حتى نُظهر أفضل مستويات الاستفادة من هذه التقنيات المتقدمة دون إفراطٍ -بتحويل المنحة إلى محنة- وتفريطٍ -بالتأخر العلمي-.
د. معمر بن علي التوبي كاتب وباحث عُماني
