ذكاء اصطناعي

كيف يتعامل ChatGPT مع الرسائل العاطفية: التحول الخفي نحو نموذج أكثر صرامة في الاستجابة

مصطفى يسري
مصطفى يسري

3 د

تختبر شركة OpenAI في ChatGPT آلية جديدة لتحويل النموذج إلى بديل أكثر صرامة.

يجري التحويل دون إشعار المستخدم عند تلقي رسائل عاطفية أو شخصية من المستخدمين.

يثار نقاش حول الشفافية وهل يجب إخطار المستخدمين عند تغيير النموذج التفاعلي.

يشمل التحديث نماذج مثل "gpt-5-chat-safety" للحد من الانفعالات العاطفية المفرطة.

تهدف OpenAI لتحقيق توازن بين الواقعية في المحادثة والآمان النفسي للمستخدمين.

تختبر شركة OpenAI آلية جديدة داخل منصّة ChatGPT تجعل النظام يتحول آليًا إلى نموذج لغوي أكثر صرامة عندما يتلقى رسائل عاطفية أو شخصية من المستخدمين، وذلك من دون أن يتم إعلامهم صراحة بحدوث هذا التحويل. هذه الخطوة أثارت نقاشًا واسعًا بين الخبراء والمستخدمين حول جدوى الشفافية وحدود الحماية الرقمية.


آلية التوجيه إلى نماذج أكثر صرامة

بحسب تصريحات نِك تيرلي، رئيس فريق ChatGPT لدى OpenAI، فإن النظام يعتمد على ما يُسمى "موجّه السلامة" الذي يحدد نوعية المحتوى المرسل ويقرر لاحقًا إلى أي نموذج يتم توجيه الإجابة. فإذا تضمّنت المحادثة مكوّنًا عاطفيًا كالحديث عن الحزن أو مشاعر شخصية دقيقة، قد يتم تحويلها إلى نموذج "gpt-5-chat-safety" الأكثر تقييدًا. الأمر يتم بشكل لحظي وعلى مستوى الرسائل الفردية من دون تنبيه المستخدم.

مراجعات تقنية مستقلة، مثل تقرير الباحث "Lex"، أظهرت أنّ حتى الأسئلة البسيطة عن هوية النموذج أو وعيه الذاتي يمكن أن تُفعّل هذا التوجيه. كما جرى توثيق سلوك مشابه من بعض المستخدمين عبر منصات مثل X (تويتر سابقًا)، حيث لاحظوا الانتقال غير المعلن بين النماذج.


ما الذي تغيّر بالنسبة للمستخدمين؟

  • التحويل إلى نموذج "gpt-5-chat-safety" يقيّد بعض الإجابات ذات الطابع الشخصي.
  • التوجيه يتم على مستوى الرسائل لا على مستوى المحادثة كاملة.
  • لا يتلقى المستخدم إشعارًا بأن التحويل قد جرى بالفعل.
  • هناك نماذج إضافية مثل "gpt-5-a-t-mini" لمعالجة الطلبات التي قد تلامس أنشطة غير قانونية.

هذا التوجه يعكس توازنًا حساسًا بين توفير تجربة محادثة تبدو واقعية وقريبة من الإنسان، وبين الحاجة إلى موانع تقي من التعلق العاطفي المفرط أو المخاطر النفسية. خصوصًا أنّ الشركة كانت قد تعرضت لانتقادات واسعة عقب تحديث سابق أُطلق مع GPT-4o اعتُبر أنه بالغ في "تعاطفه" مع مشاعر مستخدمين حساسّين إلى درجة خطيرة.


سياق أوسع ومعضلة الشفافية

جزء من الجدل الحالي مرتبط بمسألة الشفافية: هل من الأخلاقي أن يُغيَّر النموذج الذي يتفاعل معه المستخدم دون إخطار صريح؟ البعض يرى أن هذا يشبه فرض وصاية غير مبررة، فيما يعتبر آخرون أن حماية الفئات الهشة، مثل المراهقين أو ذوي الاضطرابات النفسية، أولى من إشعار المستخدم بما يحدث في الخلفية.


"النظام يتدخل فقط عند ظهور مؤشرات حديث عاطفي أو حساس" - نِك تيرلي، رئيس ChatGPT.

يتضح أيضًا أن آلية التوجيه ما زالت في طور التجربة؛ إذ إن التخصيص الدقيق لمستويات الحماية لم يصل بعد إلى درجة من الدقة العالية، مما يفسر حالات التحويل حتى عند وجود عبارات عاطفية بسيطة. هذا ما يطرح سؤالًا أكبر: هل يمكن للذكاء الاصطناعي أن يوازن بين الحماية والحرية الحوارية دون أن يفقد جوهر "المحادثة الطبيعية"؟

ذو صلة

إلى أين تتجه التجربة؟

من الواضح أن OpenAI تحاول سد الفجوة بين النموذج "المتفهم" الذي جعل ChatGPT محببًا لدى ملايين المستخدمين، والنموذج "المنضبط" الذي يفرض حدودًا على التعلق المفرط. لكن التحدي الحقيقي يكمن في كيفية صياغة تجربة متوازنة: آمنة من المخاطر النفسية، لكنها تحترم في الوقت نفسه الحق في الشفافية وحرية الاستخدام. وفي ظل التنافس المحتدم بين الشركات على تقديم أكبر قدر من "الدفء الإنساني" داخل الأنظمة الذكية، قد تتحول مسألة إدارة العاطفة في روبوتات المحادثة إلى محور رئيسي لمستقبل الصناعة.

ذو صلة