«الجيمناي» وسؤال الخصوصية

30 يونيو 2025
30 يونيو 2025

سألت «الجيمناي» -وهو برنامج ذكاء اصطناعي تابع لجوجل- عن خصوصية بيانات الأفراد مع ظهور تطبيقات الذكاء الاصطناعي، فأورد لي تحليلا مطولا، شارحا كيف تتصرف تطبيقات الذكاء الاصطناعي مع البيانات الشخصية، ومخاطره العديدة، ما فاجأني جدا، وأنقل هنا فقرات من التحليل.

«تعتمد أنظمة الذكاء الاصطناعي، وخاصة نماذج اللغات الكبيرة (LLMs)، بشكل أساسي على معالجة الأنماط، وتحديدها ضمن مجموعات بيانات هائلة تتيح هذه القدرة للذكاء الاصطناعي إنشاء نصوص شبيهة بنصوص البشر، وتحديد الكائنات في الصور، واكتشاف الحالات الشاذة، وحتى التنبؤ بالسلوكيات. وهذا الاعتماد على البيانات هو جذر العديد من المخاوف المتعلقة بالخصوصية؛ حيث كلما زادت البيانات التي يستهلكها الذكاء الاصطناعي زادت احتمالية تورط المعلومات الشخصية...».

وقال عن الكيفية:« تُعد الشبكات العصبية والتعلم العميق من المكونات الأساسية في قدرة الذكاء الاصطناعي على معالجة المعلومات. فتستخدم نماذج الذكاء الاصطناعي المستوحاة من الدماغ البشري نقاط بيانات (عقدًا)؛ لتحديد الأنماط وتشكيل العلاقات، ما يؤدي إلى إنشاء شبكات عصبية. ويطبق التعلم العميق طبقات متعددة من الشبكات العصبية؛ لمحاكاة عمليات أكثر تعقيدًا، ما يتيح اتخاذ قرارات دقيقة، وتحليل المشاعر، والترجمة الطبيعية للغة. ويقوم التعلم غير الخاضع للإشراف بعمليات لتجزئة الزبائن، واكتشاف الحالات الشاذة، وتجميع مشاعر منشورات وسائل التواصل الاجتماعي. أما التعلم المعزز للذكاء الاصطناعي فيكون من خلال التجربة والخطأ، ويتلقى مكافآت للإجراءات الناجحة، ما يحسن قدرته على تحقيق الأهداف بمرور الوقت».

«بالنسبة للمستخدم؛ هذا يعني أن حتى النشاط البسيط عبر الإنترنت يمكن أن يسهم في ملفه الشخصي في نموذج الذكاء الاصطناعي المتكامل، ما يعني أن ما كان في السابق معزولًا في صناديق البريد الوارد الفردية، أو محركات الأقراص المحلية - أصبح الآن متاحًا للمعالجة بواسطة الذكاء الاصطناعي، وأصبح قابلًا للاكتشاف داخليًا، وهذا يخلق طبقة جديدة من مخاطر الخصوصية؛ حيث تصبح الاتصالات، والمستندات الداخلية جزءًا من قاعدة معرفية أكبر. وهذا يعني ضرورة توخي الحذر الشديد من قبل المستخدم حتى في الاتصالات الداخلية التي تبدو خاصة».

«وبينما يتمتع الأفراد بالحق في الحذف؛ فإن الحذف يكاد يكون مستحيلًا على نماذج الذكاء الاصطناعي، فلا توجد طرق سهلة وفعّالة لإلغاء تعلم المعلومات.

وهذا يمثل تحديًا كبيرًا للحقوق الفردية؛ فإن بنية الذكاء الاصطناعي الحالية ليست مصممة بطبيعتها لمراعاة الخصوصية عندما يتعلق الأمر بحذف البيانات، والتحكم الدقيق في الوصول ما يؤدي إلى بصمة رقمية مستمرة خارجة عن سيطرة الفرد. فهناك مخاوف كبيرة تتجاوز مجرد الوصول إلى البيانات لتشمل كيفية جمعها، ومعالجتها، واستنتاجها، واستخدامها، ما يؤدي إلى مجموعة من المخاطر المترابطة على الخصوصية الفردية».

وأردف نقطة خطيرة فقال: «تتطلب أنظمة الذكاء الاصطناعي كميات هائلة من البيانات لتزدهر، وتتزايد شهيتها باستمرار. وغالبًا ما تجمع العديد من منصات الذكاء الاصطناعي بيانات المستخدم دون موافقة صريحة، ما يؤدي إلى عدم إدراك المستخدمين لتتبع عادات تصفحهم، أو تسجيل محادثاتهم بواسطة المساعدات الصوتية.

وغالبًا تفشل آليات الموافقة التقليدية مثل لافتات ملفات تعريف الارتباط في إبلاغ المستخدمين بشكل كافٍ...».

«ويمكن لأنظمة الذكاء الاصطناعي أن تكشط البيانات من الصور المنشورة عبر الإنترنت، وتفاعلات وسائل التواصل الاجتماعي، ولقطات كاميرات المراقبة، وبيانات متتبع اللياقة البدنية، وسجلات الشراء. فأي تفاعل رقمي تقريبًا يمكن استخدامه لتدريب الذكاء الاصطناعي غالبًا دون علم المستخدمين الصريح أو موافقتهم. ويتفوق الذكاء الاصطناعي في التعرف على الأنماط، ما يسمح له باستنتاج معلومات لم يقدمها المستخدم صراحةً، أو لم يقصد مشاركتها».

«ويشير البحث إلى أن نماذج الذكاء الاصطناعي يمكنها استنتاج سمات حساسة مثل: الآراء السياسية، أو التوجه الجنسي من بيانات تبدو غير ضارة بدقة عالية. على سبيل المثال؛ قد تستنتج تطبيقات اللياقة البدنية جودة النوم، أو مستويات التوتر، أو علامات المرض المبكرة من بيانات الخطوات، ومعدل ضربات القلب...».

«وتستهلك نماذج الذكاء الاصطناعي البيانات المظلمة مثل: الملفات، ورسائل البريد الإلكتروني، وجداول قواعد البيانات المهملة. وتنشئ ارتباطات مع البيانات المنشورة، ما يؤدي إلى خروقات، وتسرب للمعلومات الشخصية الحساسة.

يمكن أن تتضمن هذه المعلومات بيانات شخصية تتعلق بملخص حياة المستخدم، وهواياته، واهتماماته، وآرائه السياسية، والدينية، وصحته العقلية ما يؤدي إلى تنميط المستخدمين بناءً على خصائص حساسة دون علمهم».

فلنكن على حذر في ظل تقنيات تتعدى على الخصوصية الفردية وحقوقها.