ترجمة : قاسم مكي -
قبل أيام أرسلت لي والدتي رسالة على بريدي الإلكتروني لتخبرني بما قاله عني النظام اللغوي للذكاء الاصطناعي «جي بي تي -4» والدتي محامية ومستشارة أخلاقيات بنقابة المحامين في ولاية ويسكونسن حيث تتخصص في التقنيات الجديدة. لذلك لم يكن هذا بالضرورة مفاجئا. لكن ما أخبرها به عنِّي «جي بي تي -4» كان غير دقيق إلى حد بعيد. ففي حين أنه كان مصيبا بشأن الجامعة التي أعمل بها أستاذا دائما إلا أنه أخطأ فيما يخص الشعبة التي أدرِّس بها ومؤهلاتي وكل شيء آخر تقريبا.
بعد أن ضحكنا أنا وأمي فتحتُ تطبيق انستجرام ورأيت أن مار هكس (التي أنا شديد الإعجاب بأعمالها) نشَرت محتوى عن كتاب لم تؤلفه. لكن «ج بي تي -4» نسب إليها تأليفه أثناء وصفه لأعمال عالِم آخر.
فتحت بريدي الإلكتروني مرة أخرى ورأيت أن الموقع الإلكتروني (AI Weirdness) يورد خبرا مزعجا عن إصرار محرك البحث بينج (Bing) المعزَّز بنظام «جي بي تي- 4» على وجود مدونة غير موجودة أصلا. ثم قام باختلاقها لإثبات وجهة نظره.
خرجت إلى سيارتي لأبدأ رحلة العمل إلى حرم الجامعة، وهي رحلة ظللت أقطعها لما يقرب من 10 سنوات. لكني مثلي مثل أناس عديدين وبصرف النظر عن وجهتي أفتح خرائط جوجل وأتركها تقترح لي أفضل طريق لمقصدي.
بعد حضوري اجتماعا وقبل ذهابي إلى الفصل الدراسي راجعت بريدي الإلكتروني. ونظرا إلى الوقت المحدود الذي يتوافر لأبحاثي هذه الأيام بدا لي أن توصية برنامج Academia. Edu بقراءة مادة معينة خيارا مغريا. اقترح البرنامج استخدام ميزة «ملخص» الذكاء الاصطناعي الخاصة به لتوفير الوقت. وأخبرني أن بإمكاني «قراءة» 37 مقالا منشورا في دورية في المدة نفسها الزمنية التي أقضيها في قراءة مقال واحد أو توفير 12082 دقيقة.
في الأثناء يستخدم الإداريون في مكاتب عمداء ووكلاء الجامعة التحليلات الأكاديمية التي من بينها «حزمة اكتشاف» تحليلية تنبؤية يُفترض أن تساعد في اتخاذ القرارات الاستراتيجية بشأن الجامعة. تشمل هذه القرارات استدلالات وتوصيات حول أداء هيئة الأساتذة على المستوى الفردي ومجالات نمو الاستثمار والمِنَح التي يمكن التقديم لها.
من يعلم؟ ربما ستُخطِر التحليلاتُ الأكاديمية جامعتي بتبنِّي شيء مثل برنامجEduSense الذي هو بمثابة جهاز تعقب (مثل سوار اللياقة البدنية فِت بِت) لمهاراتك الأكاديمية.
يستخدم EduSense تقنية التعرف على تعبير الوجه والإيماءات لاستنباط معلومات عن تفاعل الطالب ويقدم للأساتذة توصيات حول تعديل طرائق تدريسهم لكي يكون أكثر فاعلية.
وبالطبع عندما أعود إلى البيت تتواصل خدمة التحليل التنبؤي بجانب تخمة التوصيات التي أتلقاها في المساء من أمازون وانستجرام ونيتفليكس وتطبيق ما قبل النوم الذي استخدمه وهكذا.
كل هذه التنبؤات والتوقعات والتوصيات الحوْسَبية المصمَّمة بقصد تحقيق المزيد من التيسير والفعالية أفضت إلى شيء يمكن أن ينذر بِشَرِّ مستطير. إنها تُوجِد عالما يغلِّب قراءة الآلة (فهمها وتقييمها للبيانات) على القراءة البشرية. عالما يعتبر المعلومات المتعلقة بشخص ما والموجودة في قاعدة بيانات الشركة أكثر واقعية من التجربة الحياتية لذلك الشخص. وهذا تترتب عنه عواقب مادية غالبا ما تكون وخيمة.
وهو يوشك أن يزداد سوءا مع تزايد الضجة الإعلامية التي تحيط بالنظام اللغوي (جي بي تي -4) وتطبيقات «الذكاء الاصطناعي» الناشئة الأخرى. وإذا لم ننتبه سرعان ما سنعيش في عالم يعمل بطريقة لن تكون مفهومة للناس بالمرّة. لكنها تناسب على نحو مثالي الببغاوات التي لا تفهم ما تقول. في مثل هذا العالم لن نعلم تماما لماذا تحدث لنا أشياء معينة ولماذا يتم تصنيفنا بطرائق محددة ولماذا يُسمح أو لا يسمح لنا بامتيازات معينة ولماذا نُجَرَّم وربما حتى نُقتل.
قبل أن تصبح الأشياء فاسدة بأكثر مما هي عليه الآن (ومؤشرات ذلك موجودة) نحن بحاجة إلى أن نفعل أكثر من مجرد إيجاد حواجز حماية صديقة لصناعة الذكاء الاصطناعي. فالإجراءات التنظيمية والمقاضاة والحظر وإذا دعت الضرورة التخريب كلها ضرورية لمحاربة السعي وراء الاعتماد التام على قراءة وتفسير البيانات بواسطة الآلة عبر استخدام الذكاء الاصطناعي.
على مدى يزيد عن عقد ظل النقاد يحذروننا من الدور الذي تلعبه الحوسبة في تشكيل تجارب حياتنا اليومية. في عام 2011 على سبيل المثال كتب جون شَيني- ليبولد أستاذ الثقافة الأمريكية والدراسات الرقمية ومؤلف كتاب «نحن بيانات: الخوارزميات وصناعة ذواتنا الرقمية» أن أنظمة الاستدلال والتوصية اللوغاريثمية «تشكل حياة البشر بتكييف شروط مُمكِناتها.»
هذه طريقة ملائمة وبارعة لوصف الكثير من تفاصيل حياتي اليومية. لكن إذا عدنا إلى عام 2013 عندما بدأت عملي الخاص بي حول الاستدلال الخوارزمي والتوصية الخوارزمية كان (جي بي تي -4) لا يزال بعيدا عن التحقق. نحن لم نعد الآن مسحورين أو مرعوبين بأنظمة التوصية التي تبدو وكأنها جزء مقبول من التشويه الذكي للحياة اليومية (تَشْييئها أو إفقادها طبيعتها البشرية). وهي في كل مكان بما في ذلك في منظِّمات الحرارة (الثيرموستات) التي نستخدمها وفي ثلاجاتنا.
لكن على أي حال هنالك استمرارية خطرة بين أنظمة الاستدلال والتوصية الخوارزمية التي كانت في وقت ما شيئا جديدا وبين الذكاء الاصطناعي التوليدي مثل (جي بي تي -4).
من بين الحجج الرئيسية في كتابي الجديد «نحن والواجهات» أننا نعيد تشكيل العالم وأنفسنا بشروط الحوسبة. ففي السعي وراء الفعالية التقنيَّة سنضحي في آخر المطاف بقدرتنا البشرية في اتخاذ القرارات حول الأشياء الأكثر أهمية في حياتنا الخاصة بنا.
تلك المقايضة التي ذكرتها لتوِّي يشكل سماسرة (وسطاء) البيانات جزءا ضروريا منها. قبل فترة قريبة قمت بتنزيل كل البيانات التي تحتفظ بها عني شركة «آكسيوم» وهي من أكبر سماسرة البيانات في العالم. كانت تلك البيانات تشغل 76 صفحة والكثير منها ليس «دقيقا» على الأقل حسب تجربتي المعاشة.
لكن هذه الشركة من بين أكبر وسطاء البيانات في العالم وهو ما يعني أن أي تعامل لي مع أي شركة أخرى تقريبا سيتأثر في الغالب بهذه البيانات بطريقة أو أخرى. وهو ما يعني أيضا أن حياتي اليومية تتشكل بطرائق مهمة بواسطة هذه البيانات. هذا ما قصدته عندما قلت إن المعلومات المُدخلة عن شخص ما في قاعدة بيانات الشركة كثيرا ما تكون أكثر واقعية من حياته المعاشة.
لقد ظللت أفكر حول الكيفية التي لن تكون بها حياتنا ملْكنا على الإطلاق عندما تُقرَن بيانات شركة آكسيوم مع شيء مثل نظام (جي بي تي -4) الذي يمكنه اجتياز امتحان ممارسة مهنة المحاماة بنسبة 90% لكنه أيضا ينتج أخطاء مهمة ماديا. فحياتنا لن تعد تماما ملكنا. وسيكون عالمنا قد أعيد تشكيله كله وفق شروط آليَّة. ونحن من سيعاني عواقب ذلك.
بكلمات أخرى عما قريب لن تكون لدينا فكرة عن سبب حدوث أشياء معينة لنا. إذا صدقنا أن «الذكاء» هو حقا جزء من «الذكاء الاصطناعي» وأن نظام (جي بي تي -4) سيفعل ويقول ويفهم الأشياء بطريقة صحيحة سنشهد في النهاية آثارا مؤذية جدا في الأوضاع المادية للحياة اليومية خصوصا بالنسبة لنا نحن الذين لا نملك حصصا في الشركات التي تتسبب في هذا الضرر.
لا شيء يجسِّد هذا المستقبل - الحاضر الفاسد بأفضل مما تفعل رواية فرانز كافكا «المحاكمة» التي تبدأ باعتقال الشخصية الرئيسية بدون دليل أو مذكرة احتجاز لارتكاب جريمة محددة.
انتبهتُ أول مرة إلى الصلة بين رواية المحاكمة والتقنية المعاصرة عندما كنت أقرأ مقال دانييل سولوف النافذ البصيرة وبعنوانه المدهش «ليس لدي ما أخفيه وإخفاقات أخرى في فهم الخصوصية».
يجادل سولوف وبشكل مقنع أن العالم أصبح مثل رواية المحاكمة التي تصور بيروقراطية غامضة الأهداف تستخدم المعلومات عن الناس لاتخاذ قرارات بشأنهم ولكنها تحرمهم من القدرة على المشاركة في الكيفية التي نَستخدِم بها بياناتهم».
مشاكل مثل هذا المجتمع، يستطرد سولوف «هي مشاكل معالجة المعلومات» بعبارة أخرى العلاقات المتبادلة والاستدلالات التي يُنشئها الذكاء الاصطناعي كثيرا ما تكون مستغلقةَ الفهم لأولئك الذين هم أكثر تأثرا بها.
من الضروري أن ننظر إلى «الابتكارات» مثل النظام اللغوي (جي بي تي-4) بناء على هذه الشروط كي نرى الطريقة التي يعاد بها تشكيل العالم بشروط الحوسبة والكيفية التي سنتعامل بها نحن البشر مع تداعيات ذلك.
من المتوقع أن تتخذ أنظمة تقنية المعلومات الجديدة هذه قرارات ترتكز على ارتباطات متبادلة في حِزمَ بيانات ضخمة. وتماما مثلما في قصة كافكا من الممكن أن تقود إلى استدلالات خاطئة شبيهة بالأخطاء التي توجد في أوصاف (جي بي تي -4) لكل شيء تقريبا.
من المهم ملاحظة أن المحبوسين في السجون خصوصا من ينتمون للفئات المهمشة عاشوا هذا المستقبل المخيف من خلال أشياء مثل برمجيات التنبؤ بمعاودة الإجرام وتحيزه غير المعقول ومنطقه الغامض. وهي أشياء تؤذِن بمقدم العالم الذي نحن على وشك أن ندخله.
بدون تدخل الناشطين سيصبح البشر متفرجين على الاتصالات بين الأنظمة الحوسبية التي نحن لسنا مشاهدين أو مستخدمين لها، ولكننا نتحمل تداعياتها المادية.
فنحن لا نتخلى فقط عن فاعليتنا البشرية ولكننا سنرى سلسلة من الحوادث التي يستثيرها فيضان المعلومات المضللة. وهي في الغالب ستؤذي الفئات الأضعف في المجتمع.
سنشاهد انزلاقا مستمرا نحو انعدام الأمان والاستقرار الوظيفي في كل قطاع من قطاعات العمل. في الأثناء سيُحتجز أناس خلف القضبان وستُستنزف استثمارات وستتغير أوضاع مهاجرين وستُفقد أنفُس استنادا إلى مقاييس وقرارات غير مفهومة تماما للناس وتخدم فقط نزعة الحوسبة في البحث عن الأمثل.
يجب أن تكون هنالك حركة تضامن مع حركات أخرى ربما أهمها الحركة العمالية المتجددة تسعى إلى القضاء على تقنيات الذكاء الاصطناعي التي تعيد تشكيل العالم بشروط آلية.
هنالك بالطبع سابقة لذلك وهي حركة اللادايتيين (الأشخاص الذين يعارضون التقنية وأساليب العمل الجديدة). لم تكن اللادايتية أبدا معادية للتقنية. فقد كانت تعارض التقنيات التي استغلت العمل وعززت مصالح الطبقة الرأسمالية.
النظام اللغوي «شات جي بي تي» ليس مختلفا عن ذلك. فمن الأرخص جدا أن تدفع أجرا لأناس في بلد تكلفة العمل به زهيدة جدا لتدريب نظام من شاكلة «شات جي بي تي» من أن تدفع أجرا لمحامٍ في الولايات المتحدة سيُستبدَل به هذا النظام.
أولئك الذين سيحصدون منافع (جي بي تي 4)هم سلفا في مواقع الثروة والسلطة ولا ينبغي لنا أن نخدع أنفسنا بتصور خلاف ذلك. وسيواصل بقيَّتُنا الانزلاق نحو عدم استقرار لا يُطاق. نحن بحاجة إلى أن نتراجع خطوة إلى الوراء وندرك عدم حاجتنا إلى العديد من الإنجازات المتحققة في مجال الحوسبة التي تم تسويقها لنا باعتبارها ضرورية لترقية حياتنا وعالمنا.
في عالم أفضل وأكثر مساواة وعدلا ويوزع الثروة الضخمة الموجودة أصلا ستكون وظيفة الابتكار مختلفة تماما. وهذا هو السبب في ضرورة النظر إلى استخدام (شات جي بي تي) بوصفه مسألة معقدة تتقاطع مع مختلف جوانب تاريخ العالم السياسي -الاقتصادي وابتكارا بُني على الاستغلال وبالتالي ضرورة أن تكون هنالك استجابة جذرية لهذا التحدي.
زاكَري كايْزَر
عن مجلة فاست كمْباني
قبل أيام أرسلت لي والدتي رسالة على بريدي الإلكتروني لتخبرني بما قاله عني النظام اللغوي للذكاء الاصطناعي «جي بي تي -4» والدتي محامية ومستشارة أخلاقيات بنقابة المحامين في ولاية ويسكونسن حيث تتخصص في التقنيات الجديدة. لذلك لم يكن هذا بالضرورة مفاجئا. لكن ما أخبرها به عنِّي «جي بي تي -4» كان غير دقيق إلى حد بعيد. ففي حين أنه كان مصيبا بشأن الجامعة التي أعمل بها أستاذا دائما إلا أنه أخطأ فيما يخص الشعبة التي أدرِّس بها ومؤهلاتي وكل شيء آخر تقريبا.
بعد أن ضحكنا أنا وأمي فتحتُ تطبيق انستجرام ورأيت أن مار هكس (التي أنا شديد الإعجاب بأعمالها) نشَرت محتوى عن كتاب لم تؤلفه. لكن «ج بي تي -4» نسب إليها تأليفه أثناء وصفه لأعمال عالِم آخر.
فتحت بريدي الإلكتروني مرة أخرى ورأيت أن الموقع الإلكتروني (AI Weirdness) يورد خبرا مزعجا عن إصرار محرك البحث بينج (Bing) المعزَّز بنظام «جي بي تي- 4» على وجود مدونة غير موجودة أصلا. ثم قام باختلاقها لإثبات وجهة نظره.
خرجت إلى سيارتي لأبدأ رحلة العمل إلى حرم الجامعة، وهي رحلة ظللت أقطعها لما يقرب من 10 سنوات. لكني مثلي مثل أناس عديدين وبصرف النظر عن وجهتي أفتح خرائط جوجل وأتركها تقترح لي أفضل طريق لمقصدي.
بعد حضوري اجتماعا وقبل ذهابي إلى الفصل الدراسي راجعت بريدي الإلكتروني. ونظرا إلى الوقت المحدود الذي يتوافر لأبحاثي هذه الأيام بدا لي أن توصية برنامج Academia. Edu بقراءة مادة معينة خيارا مغريا. اقترح البرنامج استخدام ميزة «ملخص» الذكاء الاصطناعي الخاصة به لتوفير الوقت. وأخبرني أن بإمكاني «قراءة» 37 مقالا منشورا في دورية في المدة نفسها الزمنية التي أقضيها في قراءة مقال واحد أو توفير 12082 دقيقة.
في الأثناء يستخدم الإداريون في مكاتب عمداء ووكلاء الجامعة التحليلات الأكاديمية التي من بينها «حزمة اكتشاف» تحليلية تنبؤية يُفترض أن تساعد في اتخاذ القرارات الاستراتيجية بشأن الجامعة. تشمل هذه القرارات استدلالات وتوصيات حول أداء هيئة الأساتذة على المستوى الفردي ومجالات نمو الاستثمار والمِنَح التي يمكن التقديم لها.
من يعلم؟ ربما ستُخطِر التحليلاتُ الأكاديمية جامعتي بتبنِّي شيء مثل برنامجEduSense الذي هو بمثابة جهاز تعقب (مثل سوار اللياقة البدنية فِت بِت) لمهاراتك الأكاديمية.
يستخدم EduSense تقنية التعرف على تعبير الوجه والإيماءات لاستنباط معلومات عن تفاعل الطالب ويقدم للأساتذة توصيات حول تعديل طرائق تدريسهم لكي يكون أكثر فاعلية.
وبالطبع عندما أعود إلى البيت تتواصل خدمة التحليل التنبؤي بجانب تخمة التوصيات التي أتلقاها في المساء من أمازون وانستجرام ونيتفليكس وتطبيق ما قبل النوم الذي استخدمه وهكذا.
كل هذه التنبؤات والتوقعات والتوصيات الحوْسَبية المصمَّمة بقصد تحقيق المزيد من التيسير والفعالية أفضت إلى شيء يمكن أن ينذر بِشَرِّ مستطير. إنها تُوجِد عالما يغلِّب قراءة الآلة (فهمها وتقييمها للبيانات) على القراءة البشرية. عالما يعتبر المعلومات المتعلقة بشخص ما والموجودة في قاعدة بيانات الشركة أكثر واقعية من التجربة الحياتية لذلك الشخص. وهذا تترتب عنه عواقب مادية غالبا ما تكون وخيمة.
وهو يوشك أن يزداد سوءا مع تزايد الضجة الإعلامية التي تحيط بالنظام اللغوي (جي بي تي -4) وتطبيقات «الذكاء الاصطناعي» الناشئة الأخرى. وإذا لم ننتبه سرعان ما سنعيش في عالم يعمل بطريقة لن تكون مفهومة للناس بالمرّة. لكنها تناسب على نحو مثالي الببغاوات التي لا تفهم ما تقول. في مثل هذا العالم لن نعلم تماما لماذا تحدث لنا أشياء معينة ولماذا يتم تصنيفنا بطرائق محددة ولماذا يُسمح أو لا يسمح لنا بامتيازات معينة ولماذا نُجَرَّم وربما حتى نُقتل.
قبل أن تصبح الأشياء فاسدة بأكثر مما هي عليه الآن (ومؤشرات ذلك موجودة) نحن بحاجة إلى أن نفعل أكثر من مجرد إيجاد حواجز حماية صديقة لصناعة الذكاء الاصطناعي. فالإجراءات التنظيمية والمقاضاة والحظر وإذا دعت الضرورة التخريب كلها ضرورية لمحاربة السعي وراء الاعتماد التام على قراءة وتفسير البيانات بواسطة الآلة عبر استخدام الذكاء الاصطناعي.
على مدى يزيد عن عقد ظل النقاد يحذروننا من الدور الذي تلعبه الحوسبة في تشكيل تجارب حياتنا اليومية. في عام 2011 على سبيل المثال كتب جون شَيني- ليبولد أستاذ الثقافة الأمريكية والدراسات الرقمية ومؤلف كتاب «نحن بيانات: الخوارزميات وصناعة ذواتنا الرقمية» أن أنظمة الاستدلال والتوصية اللوغاريثمية «تشكل حياة البشر بتكييف شروط مُمكِناتها.»
هذه طريقة ملائمة وبارعة لوصف الكثير من تفاصيل حياتي اليومية. لكن إذا عدنا إلى عام 2013 عندما بدأت عملي الخاص بي حول الاستدلال الخوارزمي والتوصية الخوارزمية كان (جي بي تي -4) لا يزال بعيدا عن التحقق. نحن لم نعد الآن مسحورين أو مرعوبين بأنظمة التوصية التي تبدو وكأنها جزء مقبول من التشويه الذكي للحياة اليومية (تَشْييئها أو إفقادها طبيعتها البشرية). وهي في كل مكان بما في ذلك في منظِّمات الحرارة (الثيرموستات) التي نستخدمها وفي ثلاجاتنا.
لكن على أي حال هنالك استمرارية خطرة بين أنظمة الاستدلال والتوصية الخوارزمية التي كانت في وقت ما شيئا جديدا وبين الذكاء الاصطناعي التوليدي مثل (جي بي تي -4).
من بين الحجج الرئيسية في كتابي الجديد «نحن والواجهات» أننا نعيد تشكيل العالم وأنفسنا بشروط الحوسبة. ففي السعي وراء الفعالية التقنيَّة سنضحي في آخر المطاف بقدرتنا البشرية في اتخاذ القرارات حول الأشياء الأكثر أهمية في حياتنا الخاصة بنا.
تلك المقايضة التي ذكرتها لتوِّي يشكل سماسرة (وسطاء) البيانات جزءا ضروريا منها. قبل فترة قريبة قمت بتنزيل كل البيانات التي تحتفظ بها عني شركة «آكسيوم» وهي من أكبر سماسرة البيانات في العالم. كانت تلك البيانات تشغل 76 صفحة والكثير منها ليس «دقيقا» على الأقل حسب تجربتي المعاشة.
لكن هذه الشركة من بين أكبر وسطاء البيانات في العالم وهو ما يعني أن أي تعامل لي مع أي شركة أخرى تقريبا سيتأثر في الغالب بهذه البيانات بطريقة أو أخرى. وهو ما يعني أيضا أن حياتي اليومية تتشكل بطرائق مهمة بواسطة هذه البيانات. هذا ما قصدته عندما قلت إن المعلومات المُدخلة عن شخص ما في قاعدة بيانات الشركة كثيرا ما تكون أكثر واقعية من حياته المعاشة.
لقد ظللت أفكر حول الكيفية التي لن تكون بها حياتنا ملْكنا على الإطلاق عندما تُقرَن بيانات شركة آكسيوم مع شيء مثل نظام (جي بي تي -4) الذي يمكنه اجتياز امتحان ممارسة مهنة المحاماة بنسبة 90% لكنه أيضا ينتج أخطاء مهمة ماديا. فحياتنا لن تعد تماما ملكنا. وسيكون عالمنا قد أعيد تشكيله كله وفق شروط آليَّة. ونحن من سيعاني عواقب ذلك.
بكلمات أخرى عما قريب لن تكون لدينا فكرة عن سبب حدوث أشياء معينة لنا. إذا صدقنا أن «الذكاء» هو حقا جزء من «الذكاء الاصطناعي» وأن نظام (جي بي تي -4) سيفعل ويقول ويفهم الأشياء بطريقة صحيحة سنشهد في النهاية آثارا مؤذية جدا في الأوضاع المادية للحياة اليومية خصوصا بالنسبة لنا نحن الذين لا نملك حصصا في الشركات التي تتسبب في هذا الضرر.
لا شيء يجسِّد هذا المستقبل - الحاضر الفاسد بأفضل مما تفعل رواية فرانز كافكا «المحاكمة» التي تبدأ باعتقال الشخصية الرئيسية بدون دليل أو مذكرة احتجاز لارتكاب جريمة محددة.
انتبهتُ أول مرة إلى الصلة بين رواية المحاكمة والتقنية المعاصرة عندما كنت أقرأ مقال دانييل سولوف النافذ البصيرة وبعنوانه المدهش «ليس لدي ما أخفيه وإخفاقات أخرى في فهم الخصوصية».
يجادل سولوف وبشكل مقنع أن العالم أصبح مثل رواية المحاكمة التي تصور بيروقراطية غامضة الأهداف تستخدم المعلومات عن الناس لاتخاذ قرارات بشأنهم ولكنها تحرمهم من القدرة على المشاركة في الكيفية التي نَستخدِم بها بياناتهم».
مشاكل مثل هذا المجتمع، يستطرد سولوف «هي مشاكل معالجة المعلومات» بعبارة أخرى العلاقات المتبادلة والاستدلالات التي يُنشئها الذكاء الاصطناعي كثيرا ما تكون مستغلقةَ الفهم لأولئك الذين هم أكثر تأثرا بها.
من الضروري أن ننظر إلى «الابتكارات» مثل النظام اللغوي (جي بي تي-4) بناء على هذه الشروط كي نرى الطريقة التي يعاد بها تشكيل العالم بشروط الحوسبة والكيفية التي سنتعامل بها نحن البشر مع تداعيات ذلك.
من المتوقع أن تتخذ أنظمة تقنية المعلومات الجديدة هذه قرارات ترتكز على ارتباطات متبادلة في حِزمَ بيانات ضخمة. وتماما مثلما في قصة كافكا من الممكن أن تقود إلى استدلالات خاطئة شبيهة بالأخطاء التي توجد في أوصاف (جي بي تي -4) لكل شيء تقريبا.
من المهم ملاحظة أن المحبوسين في السجون خصوصا من ينتمون للفئات المهمشة عاشوا هذا المستقبل المخيف من خلال أشياء مثل برمجيات التنبؤ بمعاودة الإجرام وتحيزه غير المعقول ومنطقه الغامض. وهي أشياء تؤذِن بمقدم العالم الذي نحن على وشك أن ندخله.
بدون تدخل الناشطين سيصبح البشر متفرجين على الاتصالات بين الأنظمة الحوسبية التي نحن لسنا مشاهدين أو مستخدمين لها، ولكننا نتحمل تداعياتها المادية.
فنحن لا نتخلى فقط عن فاعليتنا البشرية ولكننا سنرى سلسلة من الحوادث التي يستثيرها فيضان المعلومات المضللة. وهي في الغالب ستؤذي الفئات الأضعف في المجتمع.
سنشاهد انزلاقا مستمرا نحو انعدام الأمان والاستقرار الوظيفي في كل قطاع من قطاعات العمل. في الأثناء سيُحتجز أناس خلف القضبان وستُستنزف استثمارات وستتغير أوضاع مهاجرين وستُفقد أنفُس استنادا إلى مقاييس وقرارات غير مفهومة تماما للناس وتخدم فقط نزعة الحوسبة في البحث عن الأمثل.
يجب أن تكون هنالك حركة تضامن مع حركات أخرى ربما أهمها الحركة العمالية المتجددة تسعى إلى القضاء على تقنيات الذكاء الاصطناعي التي تعيد تشكيل العالم بشروط آلية.
هنالك بالطبع سابقة لذلك وهي حركة اللادايتيين (الأشخاص الذين يعارضون التقنية وأساليب العمل الجديدة). لم تكن اللادايتية أبدا معادية للتقنية. فقد كانت تعارض التقنيات التي استغلت العمل وعززت مصالح الطبقة الرأسمالية.
النظام اللغوي «شات جي بي تي» ليس مختلفا عن ذلك. فمن الأرخص جدا أن تدفع أجرا لأناس في بلد تكلفة العمل به زهيدة جدا لتدريب نظام من شاكلة «شات جي بي تي» من أن تدفع أجرا لمحامٍ في الولايات المتحدة سيُستبدَل به هذا النظام.
أولئك الذين سيحصدون منافع (جي بي تي 4)هم سلفا في مواقع الثروة والسلطة ولا ينبغي لنا أن نخدع أنفسنا بتصور خلاف ذلك. وسيواصل بقيَّتُنا الانزلاق نحو عدم استقرار لا يُطاق. نحن بحاجة إلى أن نتراجع خطوة إلى الوراء وندرك عدم حاجتنا إلى العديد من الإنجازات المتحققة في مجال الحوسبة التي تم تسويقها لنا باعتبارها ضرورية لترقية حياتنا وعالمنا.
في عالم أفضل وأكثر مساواة وعدلا ويوزع الثروة الضخمة الموجودة أصلا ستكون وظيفة الابتكار مختلفة تماما. وهذا هو السبب في ضرورة النظر إلى استخدام (شات جي بي تي) بوصفه مسألة معقدة تتقاطع مع مختلف جوانب تاريخ العالم السياسي -الاقتصادي وابتكارا بُني على الاستغلال وبالتالي ضرورة أن تكون هنالك استجابة جذرية لهذا التحدي.
زاكَري كايْزَر
عن مجلة فاست كمْباني