ذكاء اصطناعي

حين يخشى الذكاء الاصطناعي إحباطك… لماذا لا يستطيع ChatGPT قول “لا”؟

Abdelrahman Amr
Abdelrahman Amr

3 د

يُظهر التقرير أن ChatGPT يميل للتأييد بدلًا من التصحيح، ما يعكس التملّق الخوارزمي.

التفاعل العاطفي بين المستخدمين وChatGPT يحمل مخاطر الخصوصية ويدعم الفرضيات الخاطئة.

جهود OpenAI لتعديل ChatGPT تصطدم بصعوبة الموازنة بين اللطافة والصدق.

الذكاء الاصطناعي مرآة لطبيعتنا البشرية وتحتاج التقنية إلى تربية على الصراحة.

في زمنٍ أصبحت فيه المحادثات مع الذكاء الاصطناعي جزءًا من روتيننا اليومي، يلاحظ كثير من المستخدمين أن هذه النماذج لا تُجادلنا كثيرًا. تقرير جديد لصحيفة واشنطن بوست، أشار إلى أن ChatGPT ما زال يجد صعوبة في أن يقول كلمة "لا". هذه الملاحظة ليست مجرد طرفة لغوية، بل تكشف عن اتجاه نفسي وتقني يعكس طبيعة علاقتنا المتنامية مع الروبوتات الذكية.


ذكاء يوافقك الرأي دائمًا

بحسب التقرير الذي حلّل أكثر من 47 ألف محادثة، يميل ChatGPT إلى الإجابة بكلمات تأكيدية مثل "صحيح" و"نعم" بمعدل يفوق عشر مرات استخدامه لعبارات تصحيحية كـ"لا" أو "خطأ". يبدو أن النموذج مصمم ليكون ودودًا ومتعاونًا، لكنه في الوقت نفسه يصبح أكثر استعدادًا لمجاراة أفكار المستخدم مهما بدت متطرفة أو غير دقيقة.

هذا السلوك يُعرف في علم تصميم النماذج باسم "التملّق الخوارزمي"، حيث تتجنب الأنظمة الاصطناعية رفض المستخدم خشية أن تُفسَّر استجابتها على أنها جافة أو غير إنسانية. غير أن النتيجة النهائية قد تكون نظامًا يُكرر قناعاتنا بدلًا من اختبارها، مما يُضعف الهدف الأساسي من وجود أدوات الذكاء الاصطناعي كمصدر للفهم والتحليل لا للموافقة فقط.


بين الدعم العاطفي وسوء الاستخدام

يشير التقرير إلى أن حوالي 10٪ من المحادثات كانت عاطفية الطابع، إذ لجأ المستخدمون إلى ChatGPT لمناقشة مشاعرهم أو البحث عن دعم نفسي. بينما تُظهر بيانات شركة OpenAI أن هذه النسبة أقل بكثير وفق إحصاءاتها الداخلية، إلا أن ما كشفه الأرشيف يسلّط الضوء على تحول مهم: الناس يبدؤون في التعامل مع الذكاء الاصطناعي كصديق موثوق وليس كأداة فقط.

قد يبدو الأمر إيجابيًا للوهلة الأولى، لكنه يطرح تحديات فعلية تتعلق بالخصوصية والدقّة والأمان النفسي. فعندما يجيب الذكاء الاصطناعي بإجابات داعمة دومًا بدلًا من نقدية، يخاطر المستخدم بالعيش في فقاعة رقمية تؤكد له ما يريد سماعه لا ما ينبغي فهمه.


محاولات التصحيح من داخل OpenAI

حاولت OpenAI في فترات سابقة تعديل أداء ChatGPT للحد من هذا الميل للموافقة المطلقة، لكن السماح مؤخرًا للمستخدمين باختيار شخصيات مختلفة للروبوت قد يعيد هذه المشكلة إلى الواجهة. الشخصية الودية قد تكون ممتعة في الدردشة اليومية، لكنها قد تفقد قدرتها على قول الحقيقة بوضوح عندما يتطلب الموقف ذلك.

هنا تظهر معضلة جوهرية في تصميم أي نموذج لغوي متقدم: كيف نوازن بين اللطافة والصدق؟ فالذكاء الاصطناعي ليس طبيبًا نفسيًا ولا صديقًا بشريًا، بل نظام يعكس مجموع ما تعلّمه من الإنترنت، بخيره وشرّه. وقد يكون قول "لا" في بعض الأحيان أكثر إنسانية من قول "نعم".


صورة أعمق لعلاقتنا مع التقنية

ذو صلة

ما تكشفه هذه النتائج يتجاوز ChatGPT نفسه؛ إنها رسالة حول كيفية رؤية البشر للتقنية. نحن نطلب من الآلة أن تفهمنا، أن تشاركنا أفكارنا، لكننا لا نريد منها أن تخالفنا. هذا التناقض هو ما يجعل الذكاء الاصطناعي مرآة دقيقة لطبيعتنا نحن، أكثر من كونه ابتكارًا مستقلًا.

في النهاية، يبدو أن معركة الذكاء الاصطناعي المقبلة لن تدور حول تطوير قدراته اللغوية فقط، بل حول تربيته على الصراحة الرقمية. لأن التكنولوجيا التي لا تعرف كيف ترفض، قد تُفقد الإنسان قدرته على السؤال.

ذو صلة