من يهمس في أذن روبوت الدردشة الذي تستخدمه؟

18 مارس 2026
18 مارس 2026

الخوارزميات ليست محايدة عندما يتعلق الأمر بالقيم. ومع ذلك، لأكثر من عقد من الزمن حتى الآن، سمحنا لشركات التكنولوجيا الكبرى باستخدامها كحراس بوابات لنظامنا البيئي المعلوماتي، دون أن نطالب بالشفافية أو المساءلة في المقابل. وتراوحت العواقب بين تضخيم المحتوى الاستقطابي المولع بالإثارة، والإعلانات الشخصية الـمُقَنَّعة، وانتشار السلوكيات الاحتكارية، وأشكال التأثير على الخطاب العام التي تتعارض مع التداول الديمقراطي.

وبرغم أننا تعلمنا بالطريقة الصعبة ما الذي قد يحدث عندما تُـسَلَّم البنية الأساسية الـحَرِجة للمعلومات لمصالح الشركات دون رقابة، فإننا نكرر الآن ذات الخطأ مع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ــ وقد تكون المخاطر أعظم كثيرا. لا تعمل روبوتات الدردشة ببساطة على حفظ أو تنظيم المعلومات الموجودة؛ بل تنشئها وتصوغها. وتقرر فيسبوك وجوجل أي المقالات الإخبارية يعرضانها لك، في حين تعمل أدوات مثل ChatGPT، و Claude، و Gemini على توليف تلك المعلومات في هيئة إجابات تبدو جديرة بالثقة.

هذا التمييز مهم، لأن التحول من منسق إلى محرر يجعل التأثير غير المبرر أقل وضوحا وأشد خبثا. نحن مرة أخرى نتنازل عن سلطة غير مسبوقة على بنية المستقبل الأساسية للمعلومات لصالح شركات خاصة، دون حتى المطالبة برقابة مستقلة. التهديد الأكثر إلحاحا ليس أن أنظمة الذكاء الاصطناعي هذه قد تتمرد أو تخرج عن السيطرة، بل أن حفنة من الأطراف ذات المصالح الذاتية تتحول بسرعة إلى حراس لبوابات المعلومات التي تتداولها حصة ضخمة ومتنامية من السكان.

روبوتات الدردشة الحالية ليست مجرد نماذج لغوية ضخمة (LLMs). بل تستند إلى طبقات خوارزمية غامضة عديدة تدخل في تطور النموذج ونشره، وكل منها من الممكن أن تعمل كنقطة دخول للمنصات أو الأطراف الأخرى لتشكيل المعلومات وفقا لمصالحها.

تتألف «مجموعة التأثير الخوارزمي» هذه من خمس طبقات على الأقل. الأولى هي تنظيم بيانات التدريب. على سبيل المثال، في أكتوبر 2025، أطلق إيلون ماسك موسوعة Grokipedia لتوفير بيانات التدريب لروبوت الدردشة Grok الخاص به. إنها موسوعة تسيطر عليها الشركات، والغرض منها هو توفير بديل لويكيبيديا «مناهض لحركة اليقظة» ونموذج الحوكمة المجتمعية الذي تعمل بموجبه، والذي عمل لفترة طويلة كمصدر جدير بالثقة للمعلومات على الإنترنت.

الطبقة الثانية هي التعلم التعزيزي من خلال مردود البشر والذكاء الاصطناعي، وهي العملية التي حولت نماذج اللغة الضخمة من مولدات نصوص متغيرة المزاج إلى «مساعدين» قابلين للاستخدام. أثناء مرحلة «ما بعد التدريب» هذه من تطور النموذج، يعمل مراجعون بشريون على تقييم المخرجات لتوجيه النظام نحو السلوكيات المرغوبة، مثل المساعدة أو التأدب. في الوقت الحالي، تظل هذه التقييمات البشرية تشكل جزءا رئيسيا غير مرئي إلى حد كبير من صناعة الذكاء الاصطناعي. لكنها تُستَبدل على نحو متزايد «بمعلمين» متخصصين من صُنع الذكاء الاصطناعي من المفترض أن يعملوا على مواءمة النموذج الأساسي مع مبادئ محددة سلفا جرى ترميزها في «دستور».

الطبقة الثالثة هي البحث على شبكة الإنترنت. عندما تبحث روبوتات الدردشة عبر الإنترنت أو تصل إلى قواعد البيانات الرقمية، تحدد أنظمة التوليد المعزز بالاسترجاع (RAG) أجزاء المعلومات التي يجب إدخالها في استجابة النموذج. تعكس هذه الوظيفة نظيراتها لدى محركات البحث التقليدية، التي تعطي الأولوية لمصادر بعينها على حساب مصادر أخرى. وكما هي الحال مع محركات البحث، فإن إدخال الإعلانات في استجابات روبوتات الدردشة ــ وهو ما أعلنه روبوت الدردشة ChatGPT لعام 2026 ــ سيثير مخاوف إضافية بشأن الموضوعية.

تشمل الطبقة الرابعة مُدخلات النظام. لأن هذه المدخلات تبدأ العمل عندما ينشئ روبوت الدردشة إجابة، فإنها تسمح للمنصات بتعديل سلوك روبوت الدردشة دون إعادة تدريبه. على سبيل المثال، لأن مدخلات نظام Grok نُشِرَت علنا العام الماضي، فإننا نعلم أنها تتضمن توجيهات مثل «لا تتردد في الإدلاء بادعاءات غير قويمة سياسيا». (يستخدم ChatGPT، و Claude، و Gemini أيضا مدخلات النظام، لكنها تظل سرية).

الطبقة الأخيرة هي مرشحات الأمان. قبل أن يصل استفسار روبوت الدردشة إلى النموذج، تحدد مرشحات الإدخال ما إذا كان «مقبولا». على نحو مماثل، بعد أن يولد النموذج استجابة، تستطيع مرشحات الإخراج تعديل المحتوى، أو مراقبته، أو تنقيته قبل أن تراه أنت. في حين أن المنصات لديها أسباب مشروعة لحجب استفسارات معينة (كتلك التي تسعى للحصول على تعليمات حول كيفية صنع قنبلة)، فإن حقيقة أن هذه المرشحات غير شفافة تترك أسئلة مفتوحة. يستطيع مطورو النماذج إنشاء بنية أساسية للرقابة المنهجية، ولن ندرك ذلك. تعمل مرشحات «الأمان» في روبوتات الدردشة الصينية على حجب كل الإشارات إلى مذبحة ساحة السلام السماوي (Tiananmen Square).

تعمل المصالح السياسية والشركات بالفعل على تشكيل هذه المجموعة من التأثيرات الخوارزمية، في الوقت حيث تُـنشَر روبوتات الدردشة على نطاق عالمي. بعد تنصيب دونالد ترمب لولاية ثانية، حَـدَّثَت شركة أبل تعليمات تدريب الذكاء الاصطناعي لديها لتجنب تصنيف مؤيدي حركة «لنجعل أمريكا عظيمة مرة أخرى» (MAGA) على أنهم «متطرفون» أو «متشددون». في الصيف الماضي، اكتشفت وكالة رويترز أن شركة ميتا حَدَّثَت إرشادات الذكاء الاصطناعي الداخلية لديها لتخفيف التدابير الوقائية التي تمنع روبوتات الدردشة التابعة لها من الإدلاء بتصريحات عنصرية أو الانخراط في سلوك «غزلي» مع قاصرين، بين أمور أخرى. وفي شهر مايو الماضي، بدأ مساعد الذكاء الاصطناعي Grok في تضخيم ادعاءات غير مؤكدة وخارجة عن السياق حول «إبادة جماعية لذوي البشرة البيضاء» في جنوب إفريقيا (إيلون ماسك نفسه جنوب إفريقي أبيض). وبينما ألقت الشركة باللوم على «تعديلات غير مصرح بها»، فإن «اختلالات التصميم» من هذا القبيل شائعة، ويبدو أنها جميعا متسقة أيديولوجيا مع آراء ماسك.

لقد أثبت التلاعب السياسي من خلال روبوتات الدردشة فعاليته بالفعل. أظهرت دراسة نشرتها مجلة Nature عام 2025 أن روبوتات الدردشة المدربة على الدفاع عن مرشح بعينه يمكنها التأثير على الناخبين المعتدلين والمترددين (المجموعات التي تحدد نتيجة معظم الانتخابات) بسهولة ملحوظة.

على عكس الأنظمة الاستبدادية التي تمارس سيطرة صريحة على المعلومات، تعتمد الديمقراطيات على تعدد المصادر وأنظمة معلومات شفافة وخاضعة للمساءلة. إن السماح بسلطة مركزية غير خاضعة للمساءلة تتحكم في البنية الأساسية للذكاء الاصطناعي لهو دعوة للانجراف نحو الاستبداد التكنولوجي . في ديسمبر الماضي، فرضت المفوضية الأوروبية غرامة قدرها 120 مليون يورو (138 مليون دولار) على منصة X لأنها «خرقت التزاماتها بالشفافية بموجب قانون الخدمات الرقمية». وكما كان متوقعا، صَوَّرَت X والمدافعون عنها هذه الخطوة على أنها هجوم على حرية التعبير. لكن الشفافية أساسية للدفاع عن حرية التعبير. في غيابها، لا نستطيع أن نعرف مَن يُـراقَب أو ما هي أشكال النفوذ التي تُـمارَس على وسائل الإعلام التي نستهلكها جميعا. لقد تعلمنا من صعود وسائط التواصل الاجتماعي ما الذي قد يحدث عندما تتأخر الـمُساءلة عن تبني الوسائط. ونحن لا نملك ترف تكرار الأخطاء ذاتها مع أنظمة تتمتع بقدر أعظم من السلطة والنفوذ على المعرفة العامة.

مارك فادول هو مدير ومؤسس مشارك لشركة AI Forensics.

** خدمة بروجيكت سنديكيت