هلوسة الذكاء الاصطناعي
الثلاثاء / 30 / ربيع الأول / 1447 هـ - 22:01 - الثلاثاء 23 سبتمبر 2025 22:01
تُعرَّف هلوسة الذّكاء الاصطناعيّ (AI Hallucination) بحسب منظمة التعاون والتنمية الاقتصادية (2025) بأنها الحالات التي تنتج فيها نماذج الذّكاء الاصطناعيّ التوليدية مخرجات غير دقيقة أو زائفة أو مشوهة لكنها تبدو مقنعة، ومن ممارسات الهلوسة أن يقوم النموذج بتوليد اجابات متناقضة أو غير موثقة علميًا، لكنها تبدو حقيقية وصحيحة ومتماسكة.
ومن الناحية العملية، لا يُمكن منع ظاهرة هلوسة نماذج الذّكاء الاصطناعيّ التوليدية نهائيًا، لكن يُمكن التعامل معها لتقليل آثارها والحد من مخاطرها عبر تحسين جودة الأوامر والتحقق البشري من النتائج ومراجعتها، إنّ هلوسة نماذج الذّكاء الاصطناعيّ التوليدية من المُمكن أن تنعكس على التعليم والبحث العلمي، حيث إنّ توليد مراجع وهمية أو نتائج من المُمكن أن يحوّر المعرفة الناتجة من هذه الأدوات، وهذا بحد ذاته يعد تحديًا في كافة المجالات لا سيما في مجالي التعليم والبحث العلمي، حيث يعتمد عدد كبير من الأكاديميين والباحثين والمُعلمين والطلبة على مخرجات نماذج الذّكاء الاصطناعيّ التوليدية في جمع المعلومات أو صياغة الجمل والفقرات والنتائج، الأمر الذي يستدعي التحقق من النتائج قبل استخدامها في مجالات التعليم والبحث العلمي المختلفة.
وبحسب معهد ماساتشوستس للتكنولوجيا (2023) فإنّ المخاطر تتضاعف في مجالات الطب والإعلام وصناعة القرار جراء الاعتماد على نتائج نماذج الذّكاء الاصطناعيّ التوليدية المزيفة دون مراجعتها والتحقق من صحتها، قد تؤدي إلى نتائج لا يحمد عقباها مثل اقتراح علاج أو تشخيص طبي غير صحيح، أو نشر معلومات خاطئة عبر وسائل الإعلام أو تحليل مزيف يستخدم لدعم اتخاذ القرار. وقد أشارت دراسة جي وزملاؤه (2023) إلى أنّ هلوسة نماذج الذّكاء الاصطناعيّ التوليدية يمكن أن تتسبّب في ثقة الأفراد والمنظمات بها، إذ كلما تكررت الهلوسة تراجعت الثقة في الاعتماد على هذه النماذج في تنفيذ المهام.
إنّ الثقة العمياء في نماذج الذّكاء الاصطناعيّ التوليدية ليست مسألة تقنية فحسب، بل ترتبط بقبول المستخدمين على نطاق أوسع لاستخدام الذّكاء الاصطناعيّ في شتى المجالات، وهو ما يتطلب أهمية التحقق البشري والمراجعة والتصحيح والتأكد من موثوقية نتائجها وتتبع مصادرها وتوثيقها علميًا ما أمكن ذلك. بالإضافة إلى أهمية حوكمة استخدام هذه الأدوات والنماذج والالتزام بضوابط أخلاقية وقانونية لتقليل النتائج المرتبطة بالهلوسة؛ فالكثير من مستخدمي نماذج الذّكاء الاصطناعيّ التوليدية يظنون أنها تعرف كل شيء وهذا بالطبع ليس صحيحا، بل إنّ نماذج الذّكاء الاصطناعيّ التوليدية تتعامل مع البيانات التي دُربت عليها، بحيث تستطيع توليد نتائج وأفكار تلك البيانات التي دُربت عليها، في المقابل علينا أن نضع في الحسبان بأنّ هذه النماذج لا تفكر ولا تفهم ولا تدرك مثل طريقة تفكير وفهم وإدراك البشر. وهذا يقودنا إلى أنّ نماذج الذّكاء الاصطناعيّ التوليدية لا تملك القوة في ذاتها، بل في كيفية استخدامها وتوظيفها لخدمة البشر.
عليه، يتبين أنّ التعامل مع هلوسة نماذج الذّكاء الاصطناعيّ التوليدية يستدعي وعيًا من المستخدم ومسؤولية وفهم وإدراك ومعرفة كيفية استخدامها. وذلك بعدم الاعتماد المفرط على نتائج نماذج الذّكاء الاصطناعيّ التوليدية، إذ إنّ احتمالية توليد معلومات زائفة وغير حقيقية ومغلوطة ومزيفة كبيرة جدًا. كذلك من الأهمية بمكان تدريب المستخدمين على صياغة أوامر مركزة ودقيقة، لأنّ دقة النتائج وصحتها تعتمد بشكل كبير على الأوامر المقدمة لنماذج الذّكاء الاصطناعيّ التوليدية، فكلما كانت الأوامر مركزة ودقيقة، كانت النتائج أكثر وضوحًا.
مع ذلك، يبقى التحقق من التوثيق العلمي وتتبع مصادر النتائج أمر لا مفر منه وغاية في الأهمية، حيث إنّ التحقق من صحة المعلومات بالرجوع إلى مصادر حقيقية وموثوقة يضمن الحد من مخاطر الوقوع في النتائج المزيفة والمغلوطة. وبهذا فإنّ الاستخدام الأفضل لهذه النماذج يتطلب الجمع بين وعي وفهم المستخدم ودقة الأوامر والتأكد منها ومراجعتها، بما يعزز من القيمة الإيجابية لنتائج نماذج الذّكاء الاصطناعيّ التوليدية المتعددة ويقلل من مخاطر تزييفها.
وبالرغم من أنّ نماذج الذّكاء الاصطناعيّ التوليدية سهلت الكثير من المهام والأعمال على المستخدمين، إلا أنّ مراجعة البشر لنتائجها تظّل أمرًا غاية في الأهميّة لا مناصَ منه، ومن خلال اتباع ممارسات علمية واعية يمكننا الاستفادة إلى أقصى حد من نماذج الذّكاء الاصطناعيّ التوليدية لتقديم أعمال موثوقة ومُبتكرة.
عارف بن خميس الفزاري باحث في المعرفة