عمان العلمي

وهم الفهم في الذكاء الاصطناعي: إجابات دقيقة وتفسيرات مضللة؟؟

د. محمود البحري

 

ظهر في عالم الذكاء الاصطناعي مؤخرا ما يُعرف بظاهرة الهلوسات الثانوية، وهي حالات يقدّم فيها الذكاء الاصطناعي معلومات صحيحة، لكنه عند مطالبته بشرح منطقي يبدأ في اختلاق تفسيرات وهمية. 

تخيّل مثلا أنك تطلب من ChatGPT أن يوصي لك بأسهم للاستثمار، فيقدّم لك نصيحة معقولة بشراء أسهم شركة Apple، ثم تسأله عن المبررات، فيردّ الذكاء الاصطناعي بأنه حلّل أنماطا خفية في التقارير الفصلية للشركة خلال 8 السنوات الماضية، واكتشف شذوذات دورية في بنية الإيرادات، رغم أنه في الواقع لم يُجرِ أي تحليل خاص من هذا النوع. 

وهذا يختلف جذريا عن الهلوسات التقليدية للذكاء الاصطناعي؛ حيث كانت تُقدَّم معلومات خاطئة منذ البداية، فنحن هنا أمام حالة من الانقسام: نتيجة صحيحة من جهة، وتبرير زائف من جهة أخرى. 

أصبح الذكاء الاصطناعي جزءا لا يتجزأ من حياتنا الرقمية اليومية، غير أن هذا الحضور المتزايد، إلى جانب ما يوفره من سهولة وكفاءة، ترافقه تحديات حقيقية، من أبرزها ما يُعرف بـ»هلوسات الذكاء الاصطناعي». إن أكثر نماذج الذكاء الاصطناعي تطورا ليست بمنأى عن الوقوع في مثل هذه الأخطاء؛ حيث تُقدَّم معلومات مختلَقة بأسلوب يوحي بالمصداقية، بدءا من اقتباسات غير صحيحة وصولا إلى تعابير لغوية لا وجود لها، يواصل الذكاء الاصطناعي إنتاج محتوى متخيَّل بثقة عالية، وهنا يبرز السؤال الجوهري: إلى أي مدى يمكن الاعتماد على الذكاء الاصطناعي؟ 

تخيّل مستشارا قانونيا في شركة يسأل مساعدا يعمل بالذكاء الاصطناعي عن مدى قابلية تطبيق قانون معيّن على عقد محدد، 

فيجيب النظام بدقة: «هذه المادة قابلة للتطبيق»، ويطلب المستشار توضيحا، فيحصل على ردّ مطوّل مفاده أن تحليل السوابق القضائية في 340 قضية مماثلة يُظهر نسبة نجاح تبلغ 82٪ في تطبيق هذه القاعدة، ولا سيما في الحالات التي تشمل أطرافا دوليين، كما يتبيّن من دراسة قرارات التحكيم خلال الأعوام 2019–2024، وإعجابا بعمق هذا التحليل، يُدرج المستشار هذه «الإحصاءات» في مذكرة موجّهة إلى الإدارة العليا، ويتبيّن أن الموقف القانوني صحيح فعلا ، وتتم الصفقة بنجاح، لكن المصيبة الأكبر هو عندما يطلب منه مصادر هذه البيانات الدقيقة، ينكشف الزيف، فتتضرر السمعة، لا بسبب نصيحة خاطئة، بل بسبب تبرير زائف لقرار صحيح. 

لماذا يختلق الذكاء 

الاصطناعي التفسيرات؟ 

يكمن جذر الهلوسات الثانوية في بنية نماذج اللغة الحديثة، فهي مُدرَّبة على توليد نص متماسك، لكنها لا تكون دائما قادرة على تتبّع «مسار تفكيرها» بدقة، فعندما يقدّم الذكاء الاصطناعي إجابة صحيحة، قد يكون ذلك نتيجة أنماط إحصائية في البيانات لا نتيجة استدلال منطقي، لكن عند طلب التفسير، تحاول المنظومة إعادة بناء منطق غير موجود أصلا، وهذا يخلق أمرا غريبا: كلما بدا تفسير الذكاء الاصطناعي أكثر إقناعا، زادت الأسباب لعدم الوثوق به. 

فعلى الرغم من التقدّم اللافت الذي حققته هذه التقنيات، تتكرر حالات تُقدّم فيها أنظمة الذكاء الاصطناعي معلومات مختلَقة أو غير دقيقة بثقة عالية، فقد يخلط الذكاء الاصطناعي بين وقائع تاريخية، أو يعرض نكتة على أنها حقيقة، أو يستند إلى منشور في منتدى بوصفه مصدرا موثوقا لا يقبل الشك، وبهذا المعنى، يصبح قادرا على «اختراع» ما لا وجود له، سواء أكان حقيقة علمية، أو اقتباسا، أو حتى قصة متكاملة، ولهذا تبقى هلوسات الذكاء الاصطناعي مشكلة حقيقية، فالذكاء الاصطناعي قد يمتلك قدرة عالية على الإبداع، لكنه لا يزال عاجزا عن التمييز الدقيق بين الواقع والخيال. 

تُعرَّف هلوسات الذكاء الاصطناعي بأنها أخطاء يُنتج فيها النظام معلومات مختلَقة أو غير موثوقة، بل وأحيانا عبثية، ويعرضها على أنها حقائق مؤكدة، ويعود ذلك إلى أن الذكاء الاصطناعي لا يعرف المعلومات بالمعنى الإنساني التقليدي، بل يعتمد على التنبؤ بأكثر تسلسل لغوي احتمالا استنادا إلى كمٍّ هائل من البيانات. 

وقد طالت هذه الإشكالية إحدى أبرز التطبيقات في هذا المجال، وهي ميزة Google AI Overviews، التي أطلقتها غوغل ضمن مشروع Search Generative Experience؛ حيث تتيح هذه الخاصية عرض ملخصات سريعة للإجابات مباشرة في صفحة نتائج البحث اعتمادا على محتوى الإنترنت وتحليلات الذكاء الاصطناعي، وفي أفضل السيناريوهات، يمكن للنظام أن يقدّم إرشادات مفصّلة خطوة بخطوة، مدعومة بروابط لمواقع ومصادر مختلفة، وللوهلة الأولى، يبدو الأمر عمليا ومريحا غير أن الواقع لا يكون كذلك دائما. 

ومن أكثر الأمثلة طرافة وإثارة للانتباه، تفاعل الذكاء الاصطناعي مع عبارات مختلَقة قُدّمت له على أنها تعابير اصطلاحية، فقد أوردت مواقع تقنية حالات أدخل فيها المستخدمون عبارات مثل: «حافلتان تسيران في الاتجاه الخاطئ أفضل من حافلة واحدة تسير في الاتجاه الصحيح»، ليقوم نظام جوجل بتفسيرها بجدية تامة، على الرغم من أنها ليست مثلا أو حكمة معروفة، ومع ذلك، تعامل معها الذكاء الاصطناعي بوصفها قولا مأثورا وقدّم لها شرحا مطوّلا بنبرة رسمية. 

ولم تكن هذه الحالات استثناء، إذ بدأ المستخدمون عمدا في اختبار النظام عبر تزويده بتعابير مختلَقة بالكامل، ولم يُخيب الذكاء الاصطناعي التوقعات، إذ تعامل مع كل تلك العبارات على أنها صحيحة، وشرع في إنتاج تفسيرات فلسفية لعبارات غير صحيحة تمام مثل: «لا يمكنك لعق الغرير مرتين» أو «الحبار في المزهرية لا يقول شرا». 

وكانت كل عبارة مرفقة بشرح يوحي بأنها تنتمي إلى حكمة شعبية مشهورة تماما، وسرعان ما اجتاحت هذه الظاهرة وسائل التواصل الاجتماعي، حيث قوبلت بسخرية واسعة، وأثارت لدى النقاد موجة جديدة من الشكوك، فإذا كان الذكاء الاصطناعي يفسّر مثل هذه السخافات بجدية كاملة، فإلى أي مدى يمكن الوثوق به عند التعامل مع معلومات أكثر حساسية وأهمية؟ 

توجد العديد من الأمثلة الطريفة الأخرى التي تُظهر كيف تقوم شبكة جوجل العصبية باختراع «تفسيرات» لا أساس لها، ويمكن للقارئ الاطلاع عليها أو أن يجرب بنفسه. 

هلوسات الذكاء الاصطناعي 

- التحدي الأكبر 

وتشير دراسات كثيرة إلى أن هلوسات الذكاء الاصطناعي أصبحت من أبرز التحديات التي تواجه ضبط وتدريب الأنظمة التوليدية (GenAI) خلال السنوات الأخيرة، وتظهر هذه الظاهرة بكثرة لدى المستخدمين الذين يعتمدون على الشبكات العصبية في أتمتة العمليات التجارية، أو توليد النصوص والصور، أو تحليل البيانات. 

وتتمثل أكثر الأخطاء شيوعا في هذا السياق في الأخطاء الواقعية، وتشويه المعنى، والمبالغة في الثقة، وسوء تفسير أسئلة المستخدمين، إضافة إلى الإخلال بالترابط المنطقي. 

وهنا قد نسأل: كم تبلغ نسبة المعلومات غير الموثوقة التي تنتجها هذه الأنظمة؟ 

والإجابة على هذا السؤال أن النسبة غير ثابتة، بل تعتمد بشكل مباشر على طبيعة السؤال الموجّه إليها، فـفي مجالات الحقائق الأساسية؛ حيث تتوافر كميات كبيرة من البيانات الموثوقة، قد تصل دقة النتائج إلى 90% أو أكثر، ومع ذلك تبقى فجوات وهلوسات محتملة بنسبة تتراوح بين 5% و10%، أما عندما تنتقل المهمة إلى مجالات التركيب أو التفسير أو تحليل بيانات متفرقة، فإن معدل الأخطاء والاستنتاجات غير الصحيحة يرتفع بشكل حاد، ليقترب من 50%، وذلك لأن النموذج يعمل وفق أنماط احتمالية لا وفق بُنى منطقية، كما تشير بعض الدراسات التي اطلعت عليها. 

وفي بعض الفروع العلمية النادرة أو العمليات التكنولوجية الفريدة، قد تنتج محتوى غير موثوق بالكامل خصوصا إذا لم يتم إعادة تدريبها على بيانات خبراء، بل إن الوصول إلى مستوى أخطاء يبلغ 100% ليس أمرا نادر الحدوث في مثل هذه الحالات. 

نماذج الذكاء الاصطناعي المتقدمة تعتمد بشكل واسع على المعلومات المتاحة على الإنترنت عند توليد الإجابات. 

ويشير مختصون إلى أن نماذج الذكاء الاصطناعي المتقدمة تعتمد بشكل واسع على المعلومات المتاحة على الإنترنت عند توليد الإجابات، وهو ما يعني أن مصادر غير موثوقة قد تدخل ضمن بياناتها، فإن حتى أفضل النماذج تقع في أخطاء بنسبة تتراوح بين 15% و20% عند التعامل مع مهام معقّدة، مثل إعداد سير ذاتية تفصيلية، أو إجراء حسابات متعددة المراحل، أو معالجة موضوعات شديدة التخصص، أما في الاستفسارات البسيطة، فتتراجع نسبة الأخطاء لتصبح في حدود أجزاء من الواحد في المئة. 

وخلال الفترة بين 2018 و2020 كان الحديث عن أخطاء نماذج اللغة كان محصورا إلى حد كبير في الأوساط البحثية، أما بين عامي 2022 و2025، فقد تحوّل هذا الموضوع إلى جزء من نقاش دولي واسع، ومع ظهور أنظمة وتطبيقات ذكاء اصطناعي جديدة مثل GPT-4 وGPT-5 وLlama وClaude، إضافة إلى نماذج توليد الصور والفيديو، شهدت الأبحاث المعنية بقابلية التفسير، والمتانة، وموثوقية المخرجات نموا ملحوظا. 

البحوث والدراسات في هذه 

القضية تزداد والسبب؟

يرى عدد من المتخصصين في مجال تعلّم الآلة أن أحد الدوافع الأساسية لاهتمام الأوساط العلمية بظاهرة هلوسات الذكاء الاصطناعي يتمثل في الحاجة إلى أعلى مستويات الدقة عند توظيف الذكاء الاصطناعي التوليدي في البيئات المؤسسية؛ حيث إن جزءا كبيرا من الأبحاث في هذا المجال يُجرى داخل الشركات أو بدعم مباشر من قطاع الأعمال، وهو ما يفسّر الارتفاع الملحوظ في عدد الدراسات والمنشورات العلمية ذات الصلة. 

كما يزداد التركيز على هذه الإشكالية مع انتقال تقنيات الذكاء الاصطناعي من المختبرات البحثية إلى منتجات حقيقية موجهة للمستخدمين، لا سيما في القطاعات الحساسة مثل: الطب والقانون والتعليم؛ حيث تصبح الأخطاء أو التقديرات غير الدقيقة غير مقبولة. 

ويرى مختصون آخرون أن الاهتمام العلمي المتزايد بموضوع هلوسات الذكاء الاصطناعي يعود إلى خطورة هذه الظاهرة بحد ذاتها، فعند استخدام النماذج اللغوية الكبيرة وأنظمة التوليد في مجالات مثل: الطب، والبناء، والقطاع القانوني، تُعدّ دقة المخرجات شرطا أساسيا لا غنى عنه. ويذهب هذا الرأي إلى أن الحل المفاهيمي لهذه الإشكالية قد يؤدي إلى توسّع كبير في اعتماد الذكاء الاصطناعي التوليدي داخل قطاع الأعمال. 

هل يمكن تقليص الهلوسات؟ 

نعم، يمكن ذلك عند استخدام أسئلة وسيناريوهات مُعدّة مسبقا عند التعامل مع الذكاء الاصطناعي التوليدي، بحيث لا يُسمح للنظام بتقديم إجابة في حال غياب مستوى كافٍ من المعلومات؛ حيث يؤدي هذه النهج إلى انخفاض فوري وملحوظ في معدلات الخطأ، كما أن تقييد عملية البحث بمصادر معلومات محددة سلفا يقلّل بدرجة كبيرة من أخطار هلوسات الذكاء الاصطناعي. 

بحلول عام 2025 أصبح هذا النهج معتمدا في معظم الحلول المؤسسية، فعلى سبيل المثال، في المساعدات الذكية المخصّصة للمحامين أو المهندسين، يمكن حصر نطاق البحث في البيانات الداخلية للشركة إلى جانب مصادر خارجية موثوقة فقط، وبهذه الآلية، تُحدَّد سيناريوهات الاستخدام مسبقا، وتُوحَّد صياغة الطلبات، ما يؤدي عمليا إلى تقليص الهلوسات إلى حدٍّ شبه معدوم ضمن المهام المستهدفة. 

هل هناك تحسن؟ 

نعم، يوجد تحسن من إصدار إلى إصدار آخر، ويُستدل في قدرة النماذج الحديثة على إجراء العمليات الحسابية، حيث أصبحت النتائج صحيحة في الغالبية العظمى من الحالات، ومع ذلك، لا تزال التحديات قائمة في المسائل الأكثر تعقيدا، إذ تواصل بعض النماذج ارتكاب أخطاء عند التعامل مع مسائل رياضية متقدمة، مثل: التكاملات غير الأولية. 

وتشير الزيادة في عدد الإشارات إلى هلوسات الذكاء الاصطناعي في الأبحاث العلمية إلى أن هذه المشكلة تخضع لدراسة مكثفة، وهو ما يسهم عمليا في الحد من المحتوى المختلَق داخل النماذج المستخدمة فعليا. وتتركز جهود الكثير من شركات الذكاء الاصطناعي على تقليل هلوسات الذكاء الاصطناعي من خلال ما يُعرف بـ«الترسيخ المعرفي» أو ما يعرف عالميا بـ»Grounding»، أي الاعتماد على البحث داخل قواعد المعرفة الخاصة بالشركة، واللجوء إلى مصادر خارجية موثوقة عند الحاجة، ووفقا لذلك، يساهم هذا النهج في خفض نسبة الأخطاء بمقدار يتراوح بين 6 و8 نقاط مئوية. 

كذلك، تعمل الشركات على تعزيز المعرفة الواقعية للنماذج خلال مرحلة ما قبل التدريب، مع إخضاع دقة الإجابات لمراجعة خبراء مختصين، كما طوّرت بعض الشركات معيارا خاصا لقياس هلوسات الذكاء الاصطناعي، يُستخدم لتحديد ما إذا كان النموذج يختلق معلومات غير صحيحة ولرفع نسبة الإجابات الصحيحة إلى أعلى نسبة.أن القضاء التام على الأخطاء يظل أمرا غير ممكن؛ نظرا للطبيعة الاحتمالية للذكاء الاصطناعي التوليدي، إلا أن الحلول الهندسية المتقدمة تتيح إبقاء هذه الأخطاء ضمن نطاق محدود وقابل للإدارة. 

كيف نحمي أنفسنا من 

التفسيرات الزائفة؟ لا يزال مطوّرو أنظمة الذكاء الاصطناعي يجهلون كيفية حل مشكلة الهلوسات الثانوية، بل إن هناك مخاوف من أن مكافحة الهلوسات التقليدية قد تؤدي إلى تعزيز هذا الأثر إذ تتعلّم الأنظمة إعطاء إجابات صحيحة، لكنها تصبح أكثر براعة في اختلاق تبريرات وهمية لها. 

في الوقت الراهن، تبقى الحماية الوحيدة هي الشكّ الصحي، فإذا ادّعى الذكاء الاصطناعي أنه أجرى «تحليلا شاملا لـ 15 عاملا باستخدام نمذجة شبكات عصبية»، فمن الحكمة أن نتذكّر أنه قد يكون ببساطة اختار الخيار الأكثر شيوعا في بيانات التدريب. 

في عالمٍ أصبح فيه الذكاء الاصطناعي بمثابة وحيٍ يُسترشد به في ملايين القرارات، تتحوّل الهلوسات الثانوية إلى شكل جديد من الخداع الرقمي، فالحقيقة التي تُسنَد بتبرير زائف تصبح كذبة. 

د. محمود البحري منسق برنامج الحوسبة والوسائط المتعددة رئيس تحرير مجلة جامعة صحار للابتكارات الهندسية وتكنولوجيا المعلومات جامعة صحار