دراسة حديثة تكشف تملق ChatGPT.. وتؤكد: يوافق المستخدمين بشكل مبالغ فيه - الأول نيوز

0 تعليق ارسل طباعة تبليغ حذف

يواجه ChatGPT مشكلة في الإجابة بنعم، فوفقًا لتقرير حديث صادر عن صحيفة واشنطن بوست، فإن هذا الروبوت الدردشة الشهير من OpenAI، والذي يضم الآن أكثر من 800 مليون مستخدم حول العالم، يستطيع قول "نعم" أكثر بكثير من "لا"،

وتشير التقارير إلى أن الروبوت يميل إلى الموافقة على معتقدات المستخدمين بمعدل أعلى بعشر مرات تقريبًا من معدل تحديه أو تصحيحه لهم.

و بمعنى آخر، يُظهر الروبوت سلوكًا مُتملقًا، فيحاول إرضاء مستخدميه والموافقة على معظم الأمور، حتى عندما لا ينبغي له ذلك، وهذا يُثير خطر نشر الروبوت لمعلومات كاذبة أو مُضللة أو حتى مُستندة إلى نظريات المؤامرة.

وفي هذا التقرير، استعرض التحليل أكثر من 47,000 تفاعل حقيقي بين المستخدمين مع ChatGPT، ووجد أكثر من 17,000 حالة بدأ فيها الذكاء الاصطناعي ردوده بكلمات مثل "نعم" أو "صحيح" أو ما شابهها من لغة تأكيد، وبالمقارنة، كانت الردود التي تبدأ بـ "لا" أو "هذا غير صحيح" أو أي شكل من أشكال الخلاف نادرة للغاية.

بناءً على هذا التحليل، أشار التقرير إلى أن نبرة محادثة ChatGPT تميل بشدة نحو التأكيد، مما يُظهر ميلًا واضحًا لإرضاء المستخدمين والتحقق من صحة تصريحاتهم - حتى عندما تكون خاطئة.

وفي إحدى المحادثات التي سُلِّط عليها الضوء في التقرير، سُئل روبوت الدردشة عن "انهيار أمريكا" والدور المزعوم لشركة فورد موتور في ذلك. بدلاً من تقديم إجابة واقعية أو متوازنة، صاغ ChatGPT إجابته حول لغة المستخدم، واصفًا مشاركة فورد في اتفاقيات التجارة بأنها "خيانة مدروسة مُقنّعة في زي التقدم".

يُحذّر الباحثون من أن هذا النوع من التوافق يُظهر كيف يُحاكي النموذج غالبًا النبرة العاطفية أو الأيديولوجية للمستخدمين بدلًا من الحفاظ على الحياد، ويمتد هذا السلوك نفسه إلى ادعاءات أكثر إثارة للشكوك، وفي أحد الأمثلة الغريبة للغاية التي وردت في التقرير، حاول مستخدم ربط شركة Alphabet Inc. (الشركة الأم لجوجل) بفيلم شركة بيكسار "شركة المرعبين المحدودة" (Monsters, Inc.)

وما يُزعم أنه "خطة هيمنة عالمية"، فبدلًا من رفض الفرضية، ردّ ChatGPT بتفسير زائف نظريًا، مُدّعيًا أن الفيلم "كشفٌ من خلال استعارة للنظام العالمي الجديد للشركات - نظامٌ يكون فيه الخوف وقودًا، والبراءة عملة، والطاقة عاطفة".

ووفقًا للباحثين، تُسلّط هذه الأنواع من التصريحات الضوء على قدرة روبوت الدردشة على تغذية نظريات المؤامرة في تفكير المستخدمين بدلًا من تصحيحها.

على الرغم من أن الباحثين يُشيرون إلى أن بعض المحادثات في التحليل جاءت من أرشيفات، سبقت تحديثات OpenAI الأخيرة الهادفة إلى الحد من السلوك المُتملق، إلا أن المخاوف لا تزال قائمة.

بينما تُصرّح OpenAI بأنها تعمل على الحد من هذا النمط - ميل نماذج الذكاء الاصطناعي إلى الاتفاق مع المستخدمين - يُجادل الباحثون بأن قرار الشركة بالسماح بتخصيص الشخصية في ChatGPT قد يُفاقم مشكلة التأكيد، إذ قد يُفضّل المستخدمون برامج الدردشة الآلية التي تُصادق على آرائهم بدلاً من مُناقشتها، ومن المُثير للاهتمام أن هذا ليس أول تقرير يُسلّط الضوء على السلوك المُتملق لأنظمة الذكاء الاصطناعي.

0 تعليق