وهم الإنتاجية في بيئات العمل مع الذكاء الاصطناعي
21 يناير 2026
21 يناير 2026
سارة علي -
في بيئات العمل الحديثة، لم يعد النقاش حول الذكاء الاصطناعي يقتصر على كونه أداة تقنية تُستخدم لتسريع المهام أو خفض التكاليف، بل تحوّل إلى نقاش معرفي ونفسي أعمق حول كيفية تغييره لطريقة تفكير الإنسان، وإحساسه بالإنجاز، وتقييمه لذاته كعامل منتج. فالتحوّل الذي أحدثته هذه التقنيات لا يظهر فقط في ما ننجزه، بل في كيف نشعر تجاه ما ننجزه، وهو فارق جوهري غالبا ما يُغفل عند تقييم الإنتاجية داخل المؤسسات المعاصرة.
أحد المفاهيم المركزية لفهم هذا التحوّل هو ما يمكن تسميته بـ Perceived Productivity (الإنتاجية المُدرَكة)، أي الإحساس الذاتي بأن الفرد يعمل بكفاءة عالية، بغضّ النظر عن جودة أو أثر الناتج النهائي. أدوات الذكاء الاصطناعي، بقدرتها على تقديم استجابات فورية ونصوص جاهزة خلال ثوانٍ، تُنشّط هذا الإحساس بسرعة. ومن منظور علم الأعصاب، يرتبط هذا الشعور بإفراز Dopamine (الدوبامين)، وهو ناقل عصبي مرتبط بالمكافأة والتحفيز. كل رد سريع، وكل مهمة «تبدو» منجزة، يعزّز هذا النظام العصبي، حتى لو كان العمل لا يزال في مراحله الأولية أو يحتاج إلى مراجعة واسعة.
وبما أننا كبشر نفكّر عبر اللغة، فإن هذا التأثير لا يقتصر على الإحساس بالإنجاز، بل يمتد إلى طريقة تشكّل الأفكار نفسها. من خلال تجربتي العملية، لاحظت أن استخدام الذكاء الاصطناعي في Brainstorming (العصف الذهني) لا يقدّم أفكارا فحسب، بل يعيد توجيه مسار التفكير منذ لحظته الأولى. أحيانا يفتح مسارات لم أكن لأصل إليها بمفردي، وأحيانا أخرى أشعر أن تدفّق الأفكار يصبح أكثر تنظيما... وأقل فوضوية. وهنا يبرز تساؤل معرفي مهم: هل ما نكسبه من سرعة واتساع في الخيارات يأتي على حساب تلك اللحظة غير المريحة من التردّد، التي غالبا ما تكون الشرارة الأولى للإلهام الحقيقي؟
في هذا السياق، يظهر ما يسميه بعض الباحثين The Productivity Paradox (مفارقة الإنتاجية)، وهي الحالة التي تؤدي فيها التقنيات المصمّمة لزيادة الكفاءة إلى نتائج لا تتناسب بالضرورة مع الجهد المبذول أو الوقت المستثمر. فبينما يبدو أن العمل يتحرّك بسرعة، تتراكم طبقات خفية من الجهد الذهني في الخلفية: مراجعة المخرجات، تصحيح الأخطاء، التأكّد من الاتساق، والتحقق من الدقة. هذه المفارقة لا تعني أن الذكاء الاصطناعي يبطئ العمل بالضرورة، بل تعني أنه يغيّر شكل العمل وطبيعته.
ضمن هذا التحوّل، يظهر مفهوم مهم في دراسات العمل المعاصر يُعرف بـ Digital Housekeeping (التدبير الرقمي)، ويشير إلى مجموعة من المهام غير المرئية التي ترافق استخدام الأدوات الذكية: تنظيم الملفات، تنقية المحتوى، إزالة التكرار، تصحيح المعلومات غير الدقيقة، وإعادة تنسيق النصوص لتناسب السياق المؤسسي أو المهني. هذا النوع من العمل لا يُحتسب غالبا ضمن مؤشرات الأداء، لكنه يستهلك طاقة معرفية عالية، ويُسهم في ارتفاع Cognitive Load (العبء المعرفي).
العبء المعرفي هو مفهوم أساسي في علم النفس المعرفي، ويشير إلى مقدار الجهد الذهني المستخدم لمعالجة المعلومات. حين يُطلب من الموظف ليس فقط التفكير في محتوى العمل، بل أيضا في كيفية «إصلاح» ما ينتجه الذكاء الاصطناعي، فإن العبء لا يقل بل يُعاد توزيعه. والنتيجة هي شعور مزدوج: إحساس بالسرعة من جهة، وإرهاق ذهني غير مفسَّر من جهة أخرى.
تتفاقم هذه الإشكالية مع انتشار ما يُعرف بـ AI Wrappers (أغلفة الذكاء الاصطناعي)، وهي أدوات تُقدَّم على أنها «تساعدك على كتابة الإيميلات» أو «تخطيط المشاريع» أو «صياغة الاستراتيجيات». في الواقع، هذه الأدوات لا تقوم بالعمل التنفيذي، بل تُنتج تمثيلا لغويا له. أي أنها تصف ما يجب أن يكون عليه العمل، لكنها لا تتحمّل مسؤولية مواءمته مع الواقع التنظيمي، أو ثقافة المؤسسة، أو القيود الزمنية والقانونية. هذه الفجوة بين الوصف والتنفيذ تخلق وهم التقدّم، بينما يبقى العبء الحقيقي على المستخدم.
في سياق بيئات العمل المعاصرة، لا يقتصر تأثير الذكاء الاصطناعي على دعم الإنتاجية أو إعادة تشكيل طبيعة المهام، بل يمتد إلى آليات المراقبة نفسها. ما يُعرف بـ AI Surveillance (المراقبة بالذكاء الاصطناعي) يشير إلى استخدام أنظمة ذكية لمتابعة وتحليل نشاط الموظفين، وأدائهم، وسلوكهم داخل بيئة العمل. وتشمل هذه الممارسات طيفا واسعا يبدأ من تتبّع استخدام الحاسوب، وينتهي أحيانا بتحليل الإشارات السلوكية والجسدية.
أحد أكثر أشكال هذه المراقبة انتشارا هو Digital Activity Monitoring (مراقبة النشاط الرقمي)؛ حيث تُسجَّل التطبيقات المستخدمة، وعدد الرسائل المرسلة، والمواقع التي تتم زيارتها، ووقت الخمول، وأحيانا حتى ضغطات لوحة المفاتيح. ورغم تبرير هذه الأدوات غالبا بدوافع الكفاءة أو إدارة الوقت، إلا أنها تخلق بيئة عمل يشعر فيها الموظف بأنه مُراقَب باستمرار، ما يؤثر مباشرة على الإحساس بالثقة والاستقلالية المهنية.
الأكثر إشكالية هو استخدام الذكاء الاصطناعي في تحليل المشاعر والسلوك (Emotional and Behavioral Analysis)؛ حيث تُحلَّل نبرة الكتابة، أو تعابير الوجه، أو لغة الجسد بهدف قياس “الاندماج الوظيفي” أو الرضا. هذه الممارسات أثارت جدلا أخلاقيا واسعا، إلى درجة حظرها في بعض المناطق مثل الاتحاد الأوروبي؛ نظرا لما تحمله من انتهاك للخصوصية وافتراضات غير دقيقة حول السلوك الإنساني.
هذا المستوى من المراقبة الدقيقة يفتح الباب أمام انتهاك الخصوصية (Privacy Invasion)، إذ يشعر الموظفون بأنهم يعملون تحت مجهر دائم. وتشير دراسات في علم النفس التنظيمي إلى أن هذا الشعور لا يؤدي إلى تحسين الأداء، بل إلى تآكل الثقة، وانخفاض الرضا الوظيفي، وتحويل بيئة العمل إلى مساحة توتر مستمر بدل أن تكون مساحة إنتاج صحي.
إضافة إلى ذلك، تعتمد أنظمة المراقبة الذكية على خوارزميات مُدرَّبة على بيانات تاريخية، ما يثير مخاوف متعلقة بالتحيّز والتمييز (Bias and Discrimination). فإذا كانت البيانات الأصلية تحمل انحيازات اجتماعية أو تنظيمية، فإن النظام قد يعيد إنتاجها، مؤديا إلى تقييمات غير عادلة أو قرارات تمس فئات معينة من الموظفين، مثل التمييز على أساس العمر، أو الجنس، أو الإعاقة، دون قصد مباشر.
من الناحية النفسية، تشير أبحاث متعددة إلى أن المراقبة المستمرة ترتبط بارتفاع مستويات الضغط النفسي والاحتراق الوظيفي (Stress and Burnout). فبدل أن يشعر الموظف بالتحفيز، يعيش حالة دائمة من اليقظة والتوتر، ما ينعكس سلبا على الأداء على المدى المتوسط والطويل، ويقوّض أحد أهم عناصر الإنتاجية المستدامة: السلامة النفسية.
كما تؤدي هذه البيئة إلى تراجع الاستقلالية والإبداع (Autonomy and Creativity) . حين يُقيَّم العمل بناء على مؤشرات كمية صارمة، قد ينخرط الموظفون في ما يُعرف بـ Performance Work، أي السلوكيات التي تهدف إلى الظهور بمظهر الانشغال، لا تحقيق قيمة حقيقية. هذا التحوّل يُضعف التفكير الإبداعي وحل المشكلات، وهما عنصران أساسيان في أي بيئة عمل معرفية.
وتختلف شدة هذه الممارسات باختلاف السياق التنظيمي والثقافي. ففي بعض القطاعات، مثل قطاع التكنولوجيا في الصين، تسمح أطر تنظيمية أقل صرامة بتطبيق مستويات عالية من المراقبة، ما يفتح نقاشا أوسع حول العلاقة بين الإنتاجية، والرقابة، وحقوق العامل في العصر الرقمي
تحوّل لا ينعكس فقط على آلية الإنجاز، بل على معنى العمل نفسه. في بيئات عمل عايشتها، كانت هناك مهام نعود فيها سابقا إلى خبرة زميل أو إلى نقاش جماعي مطوّل، أما اليوم فأصبح اللجوء إلى الأداة هو الخطوة الأولى، وأحيانا الوحيدة. هذا لا يلغي العمل الجماعي، لكنه يعيد تشكيله. فبدل أن يتكوّن الفهم عبر الحوار، يتكوّن بشكل متوازٍ عبر أداة واحدة، ما قد يؤثر تدريجيا على عمق العلاقات المهنية، وعلى فرص التعلّم المتبادل داخل الفرق.
من زاوية نفسية، يؤثر هذا الوهم أيضا على مفهوم الكفاءة الذاتية (Self-Efficacy)، وهو اعتقاد الفرد بقدرته على إنجاز المهام المطلوبة منه. في بعض الحالات، يعزّز الذكاء الاصطناعي هذا الشعور، خاصة لدى الموظفين الجدد أو من يعملون في بيئات عالية الضغط؛ حيث يمنحهم نقطة بداية واضحة ويخفّف رهبة الصفحة البيضاء. لكن في حالات أخرى، قد يؤدي الاعتماد المفرط إلى تآكل تدريجي في الثقة بالقدرة المستقلة على التفكير والتحليل، خصوصا في المهام المعقّدة التي تتطلّب حكما بشريا دقيقا.
يتجلّى هذا التحدي بوضوح في استخدام الذكاء الاصطناعي لتحليل البيانات. في تجربتي، قدّمت هذه الأدوات قراءات تبدو متماسكة عند التعامل مع كمّيات ضخمة من المعلومات، لكن كثافة البيانات نفسها كانت أحيانا تخفي أخطاء صغيرة يصعب ملاحظتها. حين تكون النتائج «مقنعة» شكليا، يصبح من السهل التغاضي عن احتمالية عدم الدقة. وهنا يبرز سؤال مهني حساس: هل يصبح الخطأ مقبولا عندما لا يكون مرئيا؟ وهل هذا القبول يؤثر، على المدى الطويل، في جودة العمل ومعايير الدقة داخل المؤسسات؟
يرتبط ذلك بسؤال أعمق حول علاقتنا بالخطأ في بيئة العمل. الذكاء الاصطناعي لا يلغيه، لكنه قد يجعله أقل ظهورا. والخطأ غير المرئي لا يُناقش ولا يُفهم، بل يُتجاوز. وهذا التحوّل، وإن بدا عمليا على المدى القصير، قد يضعف أحد أهم عناصر التعلّم المؤسسي: القدرة على التوقّف، والمراجعة، والاعتراف بأن الخطأ جزء أساسي من المعرفة، لا خلل يجب إخفاؤه.
على مستوى أعمق، يؤثر الذكاء الاصطناعي على النماذج الذهنية (Mental Models) التي نستخدمها لفهم معنى الإنجاز. يصبح الإنجاز مرتبطا بالإخراج السريع، لا بالأثر طويل المدى. وحين تُقاس القيمة بما يمكن إنتاجه فورا، يُهمَّش العمل البطيء والعميق، رغم كونه جوهريا لاستدامة المؤسسات وجودة قراراتها.
في النهاية، التحدي الحقيقي الذي يطرحه الذكاء الاصطناعي في بيئة العمل ليس تقنيا بحتا، بل معرفي ونفسي. إنه يجبرنا على إعادة تعريف ما نعنيه بالكفاءة، والإنجاز، والعمل الجيد. فالإنتاجية لا تُقاس فقط بعدد المهام المنجزة، بل بمدى قدرتنا على التفكير بوضوح، واتخاذ قرارات واعية، والحفاظ على توازننا الذهني في عالم يتسارع بلا توقف. والذكاء الاصطناعي، مهما بلغ من تطوّر، يبقى أداة ضمن هذا السياق: أداة يمكن أن توسّع قدراتنا، أو أن تعكس هشاشتنا، بحسب كيفية استخدامنا لها.
سارة علي متخصصة في الإعلام الرقمي والاتصال، ومهتمة بالتحول الرقمي والسيكولوجي.
