ماذا لو كانت خوارزمية تعرف عنك أكثر مما تعرفه أنت عن نفسك؟، سؤال كان يبدو قبل سنوات كأنه مشهد من فيلم خيال علمي، لكن التطورات الأخيرة في الذكاء الاصطناعي حوّلته إلى احتمال حقيقي يُناقَش في المختبرات وغرف الاجتماعات على حد سواء، فمن تحليل نبرة صوتك لتحديد حالتك النفسية، إلى قراءة تعابير وجهك لاستنتاج نواياك، إلى تتبع تفاعلاتك الرقمية لفهم ميولك ورغباتك... أصبح الإنسان الحديث محاطاً بعيون لا تنام، تُحلله أكثر مما تُراقبه.
حيث لم يعد الذكاء الاصطناعي يكتفي بجمع البيانات السطحية، بل صار يغوص في الطبقات الأعمق من الذات الإنسانية، محاولاً سبر أغوار المشاعر والدوافع، وربما الأفكار ذاتها، وسط هذا الزحف التكنولوجي، يبرز سؤال جوهري: هل نحن على أعتاب ثورة معرفية جديدة تُعيد تعريف معنى الخصوصية؟ أم أننا نقترب من لحظة يفقد فيها الإنسان آخر مساحاته الخفية؟
الذكاء الاصطناعي والحدود الجديدة للخصوصية
لم تعد الخصوصية مجرد مسألة تتعلق بالصور أو البيانات الشخصية، بل أصبحت ترتبط بما هو أعمق، وبما يدور داخل الإنسان نفسه، فاليوم، لم تعد خوارزميات الذكاء الاصطناعي تكتفي بتعقّب ما نفعله، بل تسعى لفهم لماذا نفعله، ومن خلال تقنيات تحليل المشاعر (Emotion Recognition)، تستطيع الكاميرات الذكية وواجهات الاستخدام تتبّع تعابير الوجه الدقيقة، واتساع حدقة العين، ونبرة الصوت، وحتى إيقاع التنفس، لتقدير الحالة العاطفية للمستخدم أو العامل أو الطالب في الفصل الدراسي.
ووفقاً لتقرير صادر عن Electronic Frontier Foundation (EFF)، فإن هذه الأنظمة تُستخدم بالفعل في قطاعات مثل الموارد البشرية، والتعليم، والتسويق، بل وحتى في الأنظمة الأمنية، لتقييم الأشخاص بناءً على حالتهم النفسية اللحظية، وليس على سلوكهم الفعلي أو مؤهلاتهم.
الذكاء الاصطناعي يتحكم في قبولك الوظيفي
وتُضاف إلى ذلك شركات مثل HireVue الأمريكية، التي أثارت جدلاً واسعاً حين استخدمت خوارزميات لتحليل تعابير وجه المتقدمين للوظائف أثناء المقابلات المسجّلة، لتقدير "مدى الحماس" أو "الصدق" أو "القيادية"لديهم، وقد أجبرتها الانتقادات لاحقاً على تقليص استخدام التقنية بعد أن وصفها خبراء بأنها شكل جديد من "التمييز الخوارزمي".
وفي الصين، انتشرت تقارير عن استخدام برامج تحليل المشاعر في المدارس لقياس انتباه التلاميذ أثناء الحصص، عبر تتبع نظراتهم وتعابيرهم، ما أثار موجة انتقادات واسعة بدعوى انتهاك خصوصية الأطفال وتحويل العملية التعليمية إلى تجربة مراقبة كاملة، حيث إن هذا التوسع المتسارع يكشف أن مفهوم الخصوصية كما نعرفه يواجه تحدياً وجودياً: لم يعد يقتصر على ما نشارك به الآخرين، بل أصبح يشمل ما لا نُفصح عنه إطلاقاً مثل مشاعرنا، دوافعنا، ومزاجنا الداخلي.
من تحليل البيانات إلى قراءة العقول
الخطوة التالية كانت أكثر إثارة للجدل، لأنها نقلت الذكاء الاصطناعي من مرحلة "مراقبة السلوك" إلى محاولة فهم الفكر ذاته، ففي عام 2023، أعلن باحثون من جامعة تكساس في أوستن عن تطوير نموذج ذكاء اصطناعي قادر على "فك تشفير" الأفكار البشرية من إشارات الدماغ وتحويلها إلى نصوص مفهومة، من خلال ما يُعرف بـ "المحللات الدلالية" (Semantic Decoders)، واستخدم الفريق تقنية تصوير الدماغ الوظيفي (fMRI) لتتبع أنماط النشاط العصبي لدى مجموعة من المتطوعين أثناء استماعهم إلى قصص صوتية ومشاهدة مقاطع فيديو، ثم درّبوا نموذجاً لغوياً على ترجمة تلك الإشارات إلى جمل تعبر تقريباً عما كان يفكر فيه الشخص في لحظتها.
وبحسب الدراسة المنشورة في مجلة Nature Neuroscience العلمية، أوضحت أن النظام لم يكن يقرأ "الكلمات" بدقة، بل "المعاني" الكامنة وراءها ، أي أنه كان يعيد بناء الفكرة العامة التي دارت في ذهن المشارك حتى دون أن ينطقها أو يكتبها، وهذا التطور لم يكن معزولاً عن مشروعات أخرى تسعى للهدف نفسه.
ففي اليابان، طوّر باحثون من جامعة أوساكا نظاماً مشابهاً يستخدم الذكاء الاصطناعي لتوليد صور مطابقة لما يراه الشخص بناءً على أنماط نشاط دماغه، فيما أعلنت شركة Neuralink التابعة لإيلون ماسك عن تقدم كبير في مشروع زرع رقائق دماغية تسمح بالتواصل المباشر بين الدماغ والحاسوب.
ويحذر خبراء الأخلاقيات من أن ما يُقدَّم الآن باعتباره فتحاً علمياً قد يتحول في المستقبل إلى أداة مراقبة غير مسبوقة، تُخترق بها أكثر مناطق الوعي الإنساني خصوصية، أما بعض الباحثين وصفوا هذه المرحلة بأنها "نقطة اللاعودة"، حيث يصبح الحد الفاصل بين العلم والتطفل مجرد سطرٍ في كودٍ برمجي.
الأطر القانونية والأخلاقية
في مواجهة هذا الواقع الجديد، بدأت بعض الجهات الدولية بوضع أطر قانونية لمحاولة ضبط حدود استخدام الذكاء الاصطناعي، قبل أن يتحول إلى قوة منفلتة تتجاوز السيطرة البشرية، حيث جاءت أبرز هذه الجهود من الاتحاد الأوروبي، الذي تبنّى في عام 2024 قانوناً شاملاً يُعرف باسم قانون الذكاء الاصطناعي (AI Act)، وهو أول إطار تشريعي من نوعه على مستوى العالم، ويُصنِّف القانون تطبيقات الذكاء الاصطناعي إلى أربع فئات وفق درجة الخطورة‘ منخفضة، ومحدودة، وعالية، ومحظورة تماماً.
ويجرم استخدام أنظمة تمارس أي نوع من المراقبة العاطفية أو الذهنية، أو تلك التي يمكن أن تؤدي إلى التلاعب النفسي أو الاجتماعي بالأفراد.
كما يُلزم الشركات بتوفير شفافية كاملة حول كيفية تدريب النماذج، ومصادر البيانات المستخدمة، وإمكانية تفسير قرارات الخوارزميات في مجالات مثل التوظيف أو الائتمان أو الرعاية الصحية.
كما أن القانون الأوروبي لا يكتفي بالمنع، بل يفرض غرامات ضخمة تصل إلى 35 مليون يورو أو 7% من الإيرادات السنوية العالمية على الشركات التي تنتهك قواعده. وبهذا، يسعى الاتحاد الأوروبي إلى ترسيخ ما يسميه “الذكاء الاصطناعي الموثوق” القائم على القيم الإنسانية والشفافية.
0 تعليق