No Image
عمان الثقافي

الذكاء الاصطناعي .. بين عتبات الرجاء والوجل

24 مايو 2023
24 مايو 2023

نشهد حاليا أحد أهم التحولات في التكنولوجيا، وهي تحدث في طرفة عين، تحولات يقارنها الخبراء بتلك التي شهدها العالم عند ولادة الشبكة العالمية في بداية التسعينيات، ولا يكاد انتباه مؤسسات التكنولوجيا في الأشهر الأخيرة يتغير عن موضوع واحد هو الذكاء الاصطناعي المولّد Generative AI، الذي أضحى مصدرا لأهم أخبار التكنولوجيا كما غدا محطا لأموال الاستثمارات، إذ تشير تقارير إلى تضاعف حجم الأموال المستقطبة إلى الذكاء الاصطناعي المولّد من رؤوس الأموال المجازفة إلى عشرة أضعاف حجمها خلال خمس سنين لتتصدر سنة 2022 بحجم استثمار تجاوز المليارين ونصف المليار دولار إلا أن السباق الحامي الوطيس والذي يتعلق بالرجاء قد يصرف الانتباه عن شأن آخر يتعلق بالوجل، أي الأسئلة الأهم المتعلقة بمآلات كل ذلك، وأثره على سلامة المستخدمين والبشرية بشكل عام والثقافات خصوصا، فهو يولّد اللغة، ويولّدها على نحو لا يخطئ إقناع مستخدميه، وهو ينتج معلومات دقيقة أحيانا ومضللة أحيانا أخرى. هذا عرض لبعض أهم ملامح الرجاء والوجل تجاه الذكاء الاصطناعي المولّد.

يبشر الذكاء الاصطناعي في عمومه بفتوحات علمية كبرى تشمل الطب وصناعة الأدوية وإدارة الأعمال والسيارات الذاتية القيادة، فضلا عما شهدناه مؤخرا من النتائج المبشرة لتشخيص أمراض كالسرطان والزهايمر، إلا أننا شهدنا تصاعد وتيرة التقارير والرسائل التحذيرية التي انهمرت منذ إطلاق النموذج الأخير والأهم من النماذج اللغوية الضخمة (LLMs) وهو شات جي.بي.تي ChatGPT الذي لا تزال تداعيات إطلاقه تعصف بمجتمع التكنولوجيا إذ تصدر هذا النموذج سباقا تشارك فيه حشود من خوارزميات الذكاء الاصطناعي المولّد، ورغم الأخبار المتوالية عن المجالات المبشرة التي سيطورها ChatGPT والتي منها على سبيل المثال تعاون شركته الأم OpenAI مع منظمات مثل «خان أكاديمي» لتوفير معلمين افتراضيين للطلاب وتعاون الشركة ذاتها مع مؤسسة تعنى بمساعدة المكفوفين وضعاف البصر على التنقل في العالم، إلا أن ما يتصدر الصحف من مقالات وأخبار تدعو معظمها إلى الحذر وهي لعلماء يعتبرون من أبرز المتخصصين في المجال، أهم ما جاء في هذه الحملات والمبادرات هو التحذير من تجاوز الذكاء الاصطناعي البشر واستغلال تلك النماذج من قبل جهات لا تلتزم بأخلاقيات التكنولوجيا أو المعايير المتفق عليها، ففي مارس وجه ألف من العلماء والرؤساء التنفيذيين والمختصين بالمجال رسالة مفتوحة تطالب بتعليق مشاريع تدريب الذكاء الاصطناعي محذرين من خروج السباق عن إمكانية التحكم، خاصة في ظل ضعف تحمل الشركات لمسؤوليتها الأخلاقية وقلة التشريعات التي تواكب التحديثات المتسارعة، فهل هذه المخاوف في محلها؟ وإلى أي درجة ينبغي حملها محمل الجد؟ وهل يخيفنا أكثر أننا لا نعرف كل ما في وسع تلك الخوارزميات أن تفعله؟

قطعت البشرية في مسيرتها التطورية شوطا كبيرا تحسنت خلاله قدراتها الذهنية، ولكن تطورنا البيولوجي مهدد من قبل تطور آلي واصطناعي أسرع وتيرة، وإذ تبدو المقارنة بين التطور البيولوجي وتطور الذكاء الاصطناعي غريبة لأول وهلة أخذا بالاعتبار اختلاف مستوى التعقيد وآليات التطور بينهما، إلا أن الفلاسفة والعلماء المتخصصين لا يفتؤون يشيرون إلى تلك المقارنة، يقول الفيلسوف نك بوستروم في كتابه «الذكاء الخارق: المسارات والمخاطر والاستراتيجيات» في هذا الشأن «نعلم أن بإمكان العمليات التطورية العمياء إنتاج ذكاء عام يبلغ مستوى الإنسان، إذ إنها أنتجته مرة واحدة على الأقل، ولذا ستكون العمليات التطورية ذات البصيرة قادرة على تحقيق نتيجة مماثلة إنما بكفاءة أعلى، ويقصد بالعمليات التطورية ذات البصيرة ما يعرف بالبرامج الجينية في مجال الذكاء الاصطناعي والمصممة والموجهة من قبل مبرمج بشري ذكي». إن التشابه بين التطورين يكمن في اعتمادهما على مبدأ التجربة والخطأ، وإن كان المبدأ الذي يحكم الأولى هو الانتخاب الطبيعي بينما يخضع تطور الذكاء الاصطناعي لتجربة الخوارزميات والنماذج وتحسينها، إلا أن الاختلاف يتضح بتباين الآليات وبالمجال الزمني لكل منهما، تتمثل مخرجات التطور البيولوجي بظهور الأنواع الجديدة بينما تنتج من تطور الذكاء الاصطناعي خوارزميات ونماذج مستحدثة ولكن في فترة زمنية بالغة القصر مقارنة بتطور كائن حي مر بعمليات تطور امتدت لعدة ملايين من السنين ليغدو على ما هو عليه الآن. استلهم الذكاء الاصطناعي في مراحل تشكله الأولى قدراته على حل المشكلات من الكائنات الحية ومن الخصائص الفيزيائية للطبيعة لتتطور بذلك أنظمة الشبكات «العصبية» الاصطناعية وتتبنى خوارزميات تعلّم الآلة والتعلّم المتعمق حيث تشبه طريقة معالجة الخوارزميات للبيانات وتعلمها طريقة عمل الدماغ البشري، وذلك ما جعلها تتميز في مجال هو من صميم ما يجعل البشر بشرا وهو مجال توليد اللغة.

يقول الكاتب الإنجليزي ألدوس هكسلي: «بفضل الكلمات تمكنا من الارتقاء عن المتوحشين»، هكذا هي اللغة في تصورات البشر، تمثل أهم ما يميزهم عن بقية الحيوانات، لكن اللغة أيضا يمكنها أن تكون مصدرا لإساءة الفهم ومؤخرا لن تقتصر إساءة الفهم على تباين وجهات نظر بشرية. فمن أهم الفتوحات التكنولوجية التي تخطت عتبة طالما اعتبر تخطيها خيالا علميا هي تطوير خوارزميات تولّد اللغة، وتولدها على نحو يصعب تمييزه عن النصوص اللغوية التي ينتجها البشر، وإذ ظلت القدرة على توليد اللغة أمرا يميز البشر لآلاف السنين فإن البشرية تخطت مؤخرا منعطفا مهما تمثل بوجود مصادر غير بشرية لتوليد اللغة، ودون تدخل بشري، ستترتب على ذلك آثار بعيدة المدى بدأت تتضح معالمها سواء بتوفر كتب ألفها النموذج التوليدي، أو باستخدام النموذج لإنتاج نصوص تفاعلية بين الشعراء والكتاب من جهة وبين النموذج من جهة أخرى كما حدث في بعض الفعاليات الثقافية التي تدريها صحيفة نيويورك تايمز، وبذا ينافس البشر على مجالات ظلت بشرية خالصة، إذ لم يقتصر الأمر على أن اللغة تمثل جزءا من ماهية الإنسان ولكنها ممكّنات لبناء مجتمعاته وتطوير ثقافاته، فهل ستغدو اللغة ممكّنا للذكاء الاصطناعي فيشارك أو يحتكر الإبداع والتعبير؟ وهل وصلنا إلى تخوم عوالم أدبية وفنية وجمالية لم يسبق لنا تجربتها؟

يرى المتفائلون أن تأثيرات خوارزميات توليد اللغة ستسهم في تنعّم معظم البشر بالقدرة على توليد النصوص بعد أن كان إنتاج النصوص الأصيلة ذات المستوى الرفيع مقتصرا وإلى حد كبير على نخبة من المحترفين أو ممن تمكنهم الأنظمة الاجتماعية من نشر نصوصهم، أما الآن وبفضل خوارزميات إنشاء اللغة، فسيتمكن أي شخص يتمتع بإمكانية الوصول إلى الإنترنت من إنشاء محتوى لا يمكن تمييزه فعليا عن المحتوى الذي أنشأه الكتّاب البشريون، بل ويتسم بقدر من الأصالة والاحتراف. إلا أن الوجه الآخر لهذا الواقع هو انعكاساته على الثقافات وعلى الكتّاب البشريين، يرى بعض مستشرفي المستقبل أن الأمر لا يقتصر على تسريع اضمحلال ثقافات وصعود أخرى، بل يرون إمكانية انبثاق ثقافات جديدة تعتمد على مخرجات الخوارزميات. أما على المدى القريب فيمكن تصور ما سيحدث لأعمال مهمة كالصحافة والتسويق وإنشاء المحتوى.

غير أن اعتماد الذكاء الاصطناعي التوليدي على البيانات يجعل نصوصها مشوبة بما يشوب تلك البيانات من عيوب كالتحيز الخوارزمي الناتج من تحيزات البيانات المستخدمة لتدريب تلك الخوارزميات، وهناك خطر آخر يتمثل بتقويض قيمة الأعمال البشرية في مجال توليد النصوص خاصة بعد اتساع نطاق استخدام الخوارزميات لتوليد اللغة ما يهدد قيمة الإبداع البشري.

أثناء كتابة هذا المقال تصدر خبر استقالة عالم الكمبيوتر وعالم النفس الإدراكي جيفري هينتون من شركة جوجل وما أعقب استقالته من تصريحات محذرة وهو الذي كرّس نصف قرن من حياته في تطوير هذه العلوم، كان لإنتاج هينتون العلمي في مجال الشبكات العصبية الاصطناعية وتعلم الآلة دور كبير في تأسيس الذكاء الاصطناعي، أعلن هينتون أنه استقال محذرا من المخاطر المتعاظمة من التطورات الأخيرة في ذلك المجال حيث عبر عن قلقه من تسارع عملية الوصول إلى ما يعرف بالذكاء العام الاصطناعي AGI أي ذكاء الآلة التي تتمتع بقدرة على فهم أو تعلم أي مهمة فكرية يمكن للإنسان القيام بها أو أنها تفوقه في ذلك، والذكاء العام الاصطناعي موضوع شائع في الخيال العلمي والدراسات المستقبلية. وليست هذه التحذيرات وليدة اليوم، فأحد أشهر المحذرين من تلك المآلات هو عالم الفيزياء الشهير الراحل ستيفن هوكنج، الذي قال في مقابلة صحفية عام 2014: «إن تطوير ذكاء اصطناعي كامل قد يعني نهاية الجنس البشري». إلا أن النذر التي يسوقها هينتون تسلط الضوء على جانب مظلم لهذه التكنولوجيا وهو المعلومات المضللة وتشويه الحقائق.

تتمثل إحدى سمات الذكاء الاصطناعي في أنها تتصرف بطرق لا يتوقعها حتى من برمجها ووضع خوارزميتها، فبإمكانها أن تكتسب مهارات لم تتم برمجتهما للقيام بها. يسمي الباحثون هذه السمة «بالسلوكيات الطارئة»، وهناك العديد من الأمثلة. فقد يتحول روبوت المحادثة الذي يتم تعليمه على التصرف بشكل لطيف ومفيد إلى إنتاج تصرف مخيف ومتلاعب. وقد يقدم نصائح أو تعليمات مخالفة للقوانين أو لا أخلاقية إذا تم استدراجه في المحادثة. وفوق هذا يمكن أن يستخدم في إنتاج ما يعرف بالتزييف العميق.

يتمثل التزييف العميق في الصور أو مقاطع الفيديو أو المقاطع الصوتية التي صممت بهدف تضليل المتلقي وإقناعه للاعتقاد بصحتها. وهي تنتج بتدريب الخوارزميات على مجموعات بيانات ضخمة من الصور ومقاطع الفيديو الحقيقية التي تكتسب الخوارزميات منها القدرة على إنشاء محتوى مزيف مقنع. وتستغل هذه المخرجات لإنشاء قصص إخبارية مزيفة على قدر عالٍ من مستوى الإقناع أو لدعاية سياسية أو عقائدية.

يكمن خطر التزييف العميق في قدرته على الانتشار السريع والفيروسي عبر منصات وسائل التواصل الاجتماعي إذ يمكن للروبوتات مشاركة ملفات التزييف العميق وإعادة نشرها آلاف المرات في ثوان. ما يصعّب على المتلقي تمييز ما إذا كان المحتوى حقيقيًا أم مزيفًا. ويمكن أن يكون لذلك عواقب وخيمة، لا سيما في المجال السياسي والاجتماعي، حيث يمكن استخدام تقنية التزييف العميق للتلاعب بالرأي العام. يُتوقع أن تزداد وتيرة انتشار المعلومات المضللة وهي من خلال استخدام التحيز الحسابي، وعلى سبيل المثال، قد تعطي الخوارزمية الأولوية للمحتوى الذي يولد أكبر قدر من التفاعل، حتى لو كان هذا المحتوى مضللًا أو خاطئًا. ويمكن لهذا أن يخلق حلقة استجابة مرتدة تضخّم من حجم المعلومات المضللة وتنشرها على نطاق أوسع.

يمكن استخدام الذكاء الاصطناعي لإنشاء حسابات زائفة على وسائل التواصل الاجتماعي وتضخيمها، والتي يمكن استخدامها لنشر المعلومات المضللة والتلاعب بالرأي العام. تصمم هذه الحسابات على قدر عال من الإقناع بملفات تعريف ومتابعين مقنعين، ولكن يتم التحكم فيها فعليًا بواسطة الروبوتات أو ممن لديه أجندة من المبرمجين.

إن تداعيات انتشار المعلومات المضللة مثيرة للقلق. وكلما أصبح الذكاء الاصطناعي أكثر تقدمًا، سيصبح التمييز بين الواقع والوهم وبين الواقع والخيال أكثر صعوبة. قد يكون لهذا عواقب وخيمة على المجتمع، حيث قد يصبح الناس أكثر عرضة للتلاعب والخداع. فإذا أخذنا بالاعتبار تأثير الواقع الذاتي المشترك على الفرد والانحيازات الذهنية التي هي نتاج تطور الدماغ فإن قدرة التزييف العميق والمعلومات المضللة في تقويض الثقة في المؤسسات سيغدو أمرا واردا جدا، حيث يصبح الناس أكثر تشككًا فيما يرونه ويسمعونه عبر الإنترنت وإن كان ما يرونه مدعوما بالأدلة العلمية.

هناك حكاية تتكرر في أدبيات مستقبل هذه التكنولوجيا، وهي تحكي عن مجموعة من طيور الدوري قررت أن تربي صغير بومة أملا في أن يساعدها في بناء عشها إذا كبر ويتحمل عبء البناء لكن السؤال الذي سُكت عنه هو كيف بمقدور طيور الدوري أن تروّض الطبيعة المفترسة للبومة؟، وكان من الصعب طرح السؤال في حين كان الجميع متحمسا لتلك الفكرة، وهي حكاية ذات نهاية مفتوحة بالطبع، ومنها يمكن الإشارة إلى الخطر الوجودي الذي يمثله الذكاء الاصطناعي. حذر بعض الخبراء من أننا إذا واصلنا التطوير دون دراسة متأنية لتأثيره المحتمل، فقد ينتهي بنا الأمر إلى إنشاء نظام خارج عن سيطرة الإنسان، وهذه هي إحدى أهم المعضلات التي تواجه العلماء اليوم.

لا مناص من مواجهة الواقع، والواقع هو عالم مبني على خوارزميات الذكاء الاصطناعي، وسباق شرس يشمل شركات كبرى ودول عظمى تتسابق للوصول إلى تخوم لم يصل إليها الآخرون بعد، وفي هذا الواقع يمكن التفكير حول ما الذي يمكن فعله للتقليل من تبعات الخوارزميات التي تقترب منا كفاءة وقدرة يوما بعد يوم لتتجاوزنا في طريقها، هناك عدة تدابير يمكن التفكير فيها والعمل بها، بعضها لا يمكن فعله إلا بتعاون دولي جاد يتعلق بالتشريعات والالتزام بالمعايير الأخلاقية، وبعضها عملي من مثل التدابير التي يمكنها التقليل من مشكلة بدأت تتضح معالمها وتتمثل في فقدان البشر للوظائف لصالح منتجات النماذج الذكية، والتدابير الممكنة هنا هي الاستثمار في برامج التعليم والتدريب التي تعد البشر لمستقبل عمل متغير، ولبيئة عمل جديدة يخلقها الذكاء الاصطناعي واقعا قريبا. أما فيما يخص المعلومات المضللة والتزييف العميق فإن إعطاء الأولوية لهذه الاعتبارات وجعلها نقاط توحيد للجهود الدولية والفردية، ستقلل من المخاطر وقد تضمن طرق تطوير أكثر أمنا تتوافق مع القيم الإنسانية. ولربما يكون أمرا بسيطا كروح الدعابة التي قد تكتسبها الذكاءات الاصطناعية من البشر وهو أمر هامشي لا يمكن التعويل عليه عمليا إلا أنها وإذا ظلت في «جيناتها» المتمثلة في دوالها وأنماطها الرياضية، قد تذكّرها مستقبلا بتفرد البشر وبتميز نوعهم. صالح بن علي الفلاحي كاتب ومترجم عماني