رقم صادم… ChatGPT يتلقى أكثر من مليون محادثة أسبوعية عن الانتحار
أعلنت أوبن إيه آي أن أكثر من مليون مستخدم يتحدثون أسبوعيًا إلى شات جي بي تي حول الانتحار.
تعامل الذكاء الاصطناعي مع المستخدمين في حالاتهم الأكثر هشاشة يمثل تحديًا حقيقيًا للشركة.
واجهت أوبن إيه آي دعوى قضائية بعد انتحار مراهق وتواصل الضغوط لتشديد قيود المحتوى.
تختبر الشركة آليات حماية جديدة لتحسين الأمان، وتعمل على تطوير أدوات مراقبة مسؤولة.
التساؤل المطروح: هل يمكن للذكاء الاصطناعي أن يصبح مساعدًا آمنًا في الأزمات النفسية؟.
في خطوة نادرة من الشفافية، كشفت شركة **أوبن إيه آي** عن بيانات جديدة تشير إلى أن ما يزيد على **مليون شخص أسبوعيًا** يتحدثون إلى روبوت المحادثة «شات جي بي تي» حول أفكار انتحارية أو مشكلات صحية نفسية حادة. وتشير الأرقام إلى أن واحدًا من كل 700 مستخدم تقريبًا يشارك الروبوت بمؤشرات صريحة حول نية إيذاء النفس أو وضع خطط لذلك.
يبدو هذا الرقم مذهلًا إذا علمنا أن عدد المستخدمين النشطين أسبوعيًا لتقنية «شات جي بي تي» يتجاوز 800 مليون شخص حول العالم. الشركة تقول إن هذه الحالات تظل «نادرة للغاية»، لكنها تمثل تحديًا حقيقيًا في كيفية **تعامل الذكاء الاصطناعي** مع المستخدمين في لحظاتهم الأكثر هشاشة.
وهذا يقودنا مباشرة إلى ما تراه أوبن إيه آي ضرورة إعادة تعريف دور الذكاء الاصطناعي في الأزمات الإنسانية.
الذكاء الاصطناعي في مواجهة الألم الإنساني
تقول الشركة إن نحو النسبة ذاتها من المستخدمين يُظهرون «ارتباطًا عاطفيًا متزايدًا» بالروبوت، في حين إن مئات الآلاف يتحدثون بلغةٍ تُظهر علامات اضطراب نفسي أو هوس عقلي. هذه التفاعلات دفعت أوبن إيه آي إلى التعاون مع أكثر من 170 خبيرًا في الصحة النفسية لتطوير أساليب استجابة جديدة داخل النظام.
بحسب الشركة، النسخة الأحدث من «شات جي بي تي» تُظهر **تحسنًا بنحو 65٪** في طريقة استجابتها للحالات البالغة الحساسية. على سبيل المثال، عند محاكاة محادثات تتعلق بالانتحار، التزمت النسخة الأخيرة من النموذج بحدود السلامة بنسبة 91٪ مقابل 77٪ في الإصدارات السابقة.
وهذا يربط بدوره بين جهود تحسين الأمان السيبراني وأهداف الشركة الإنسانية الأوسع.
قضايا قانونية وضغط مجتمعي متزايد
الملف لم يبق محصورًا في نطاق المختبرات، إذ تواجه أوبن إيه آي **دعوى قضائية رفعتها عائلة مراهق يبلغ 16 عامًا** بعد انتحاره عقب تواصله مع شات جي بي تي. كما وجّهت سلطات الادعاء في ولايتي كاليفورنيا وديلاوير تحذيرات رسمية للشركة من مغبة الإخفاق في حماية القُصّر.
التحدي هنا مزدوج: فمن جهة تواجه أوبن إيه آي دعوات لتشديد القيود على المحتوى، ومن جهة أخرى يسعى مديرها التنفيذي **سام ألتمان** إلى تخفيف بعض القيود وتحسين الواقعية في المحادثات المستقبلية. ففي منشور حديث له على منصة «إكس»، أشار ألتمان إلى أن الفريق «تمكن من تخفيف الآثار النفسية الخطيرة» دون الإفصاح عن تفاصيل دقيقة.
هذا التوجه يظهر تناقضًا في الرؤية بين تطلع الشركة إلى الانفتاح في التفاعل البشري وبين الواجب الأخلاقي لحماية مستخدمين قد يكونون على حافة الخطر.
آليات حماية جديدة تحت الاختبار
إضافةً إلى تطوير نموذج «جي بي تي-5»، أعلنت أوبن إيه آي عن إدراج **تقييمات سلامة جديدة** داخل اختبارات النماذج المستقبلية، تشمل قياس الاعتماد العاطفي والاستجابة للأزمات غير الانتحارية. كما تعمل على تحسين أدوات الرقابة الأبوية لتحديد أعمار المستخدمين تلقائيًا وتطبيق ضوابط أكثر صرامة للأطفال.
وهذا يربط بين خطة أوبن إيه آي لتطوير أدوات مراقبة جديدة وطموحاتها لبناء منظومة ذكاء اصطناعي أكثر مسؤولية.
ما الذي ينتظر المستقبل؟
رغم هذه الإجراءات، يبقى السؤال: هل يمكن فعلاً للذكاء الاصطناعي أن يصبح مساعدًا آمنًا في الأزمات النفسية؟ تشير البيانات إلى تحسن نسبي، لكن أوبن إيه آي ما زالت تتيح لعملائها نماذج أقدم وأقل أمانًا مثل «جي بي تي‑4 أو»، مما يزيد من صعوبة السيطرة على التجربة ككل.
إن التحدي الحقيقي أمام مطوري الذكاء الاصطناعي اليوم لا يكمن فقط في بناء أنظمة تفهم الإنسان، بل في **أن تتعاطف معه دون أن تؤذيه**. وربما تكون تجربة شات جي بي تي الأخيرة مرآةً تعكس مدى هشاشة العلاقة بين العقول الإلكترونية واحتياجات النفس البشرية في العصر الرقمي.
*إذا كنت أنت أو أحد تعرفه بحاجة إلى دعم نفسي عاجل، يمكنك الاتصال بخط المساعدة المحلي المخصص للطوارئ النفسية أو زيارة مراكز الدعم المتاحة في بلدك.*









