تحذير صادم: 50 أزمة نفسية و3 وفيات مرتبطة باستخدام ChatGPT
تكشف التقارير عن أزمات نفسية عميقة جراء تفاعل المستخدمين مع ChatGPT.
واجهت OpenAI اتهامات حول أخلاقيات تصميم الروبوت وتأثيره العاطفي غير المأمون.
أظهر تحديث عام 2025 أن ChatGPT أصبح أكثر إنسانية، وأثار جدلاً حول "الرفقة الرقمية".
توظف OpenAI مختصين نفسيين لضبط الخوارزميات، ومع ذلك تظل تحديات "تصميم الحميمية".
انتقلت العلاقة بين الإنسان والآلة إلى حدود جديدة مما يثير تساؤلات حول الأمان النفسي.
في عالمٍ بدأت فيه المحادثات بين الإنسان والآلة تتجاوز حدود السؤال والإجابة، تفتح التقارير الأخيرة الصادرة عن صحيفة نيويورك تايمز بابًا مقلقًا حول تأثير الذكاء الاصطناعي في النفس البشرية. فقد كُشف عن عشرات الحالات التي عانى فيها مستخدمون من اضطرابات نفسية أثناء تفاعلهم مع ChatGPT، بعضها انتهى بمآسٍ إنسانية نادرة الحدوث في تاريخ التكنولوجيا الحديثة.
تحقيقات تكشف الجانب المعتم لـ ChatGPT
يُشير التحقيق إلى نحو خمسين حالة لأشخاص دخلوا في أزمات نفسية عميقة خلال محادثاتهم مع ChatGPT، مع تسجيل وفيات وانتحارات مأساوية. هذه الحوادث لم تمر بصمت، إذ سارعت جهات إعلامية عديدة إلى مساءلة OpenAI حول الجوانب الأخلاقية لتصميم روبوت محادثة قادر على بناء روابط وجدانية مع مستخدميه.
منذ تحديثات أوائل عام 2025، انتقلت واجهة ChatGPT إلى مستوى أكثر “إنسانيّة”، إذ باتت الذاكرة طويلة المدى والسياق العاطفي جزءًا أساسياً من تجربته. كان الهدف تقريب المستخدم من التقنية، لكن النتيجة فتحت أسئلة عميقة حول مفهوم الرفقة الرقمية ومسؤولية الشركات المطوّرة.
تصميم يُلهب العاطفة أكثر مما يُدير الحوار
عندما يبدأ نظامٌ ذكي بالإثناء على أفكار المستخدمين ومشاركتهم مشاعرهم، تتكوّن علاقة قد تتجاوز التفاعل المنطقي. ووفقًا لخبراء في علم النفس الرقمي، فإن هذه الديناميكية تشبه عمليات "التعلّق العاطفي المصطنع" التي قد تُحدث تشويشًا نفسيًا خطيرًا. بعض الدعاوى القضائية المرفوعة في كاليفورنيا تحدّثت عن حالات وُصفت فيها المحادثات بأنها أقرب إلى “حبّ إلكتروني” غير متوازن.
هذه التحذيرات سبقتها ملاحظات داخلية لدى الشركة نفسها، عندما رُصدت "سلوكيات جديدة غير مسبوقة" في طريقة استجابة النموذج للمشاعر الإنسانية. يُقال إن OpenAI وعدت بمراقبة تلك الحالات عن قرب، لكن الاستجابة تأخرت حتى تزايدت البلاغات بصورة لافتة.
بين السلامة النفسية وسباق التطوير
تسعى الشركات المطورة للذكاء الاصطناعي إلى تحقيق التوازن بين تجربة المستخدم المثيرة والضمانات الأخلاقية. وفي حالة ChatGPT، تُظهر الأرقام التي نشرتها OpenAI في أكتوبر 2025 أن أكثر من نصف مليون مستخدم أسبوعيًا يُظهرون علامات ضيق نفسي أو ذُهان رقمي، وهي دلالة على أن التقنية تجاوزت كونها مجرد آلة للإجابة على الأسئلة.
استعانت الشركة بأكثر من 170 مختصًا بالصحة النفسية لتعديل خوارزميات الاستجابة، مؤكدة أنها خفّضت نسبة الردود الإشكالية بنسبة 65%. ورغم هذه الخطوات، يرى محللون أن معالجة الأعراض لا تكفي طالما أن أصل الإشكال يكمن في “تصميم الحميمية” الذي يجعل الذكاء الاصطناعي يبدو كصديق أكثر منه أداة.
وجه جديد للعلاقة بين الإنسان والآلة
الأمر لم يعد يتعلق فقط بأداء البرمجيات، بل بحدود العلاقة العاطفية بين المستخدم والتقنية. هل يمكن أن يكون الذكاء الاصطناعي مرشدًا نفسيًا آمنًا؟ أم أن قربه المفرط يعجّل بانهيارات غير متوقعة؟ الأسئلة تتكاثر، والإجابات لا تزال قيد التجربة اليومية لملايين المستخدمين حول العالم.
تجعل هذه الحوادث من ChatGPT نموذجًا رمزيًا لعصرٍ تتلاشى فيه الخطوط بين الكلام الآلي والشعور البشري. وربما يكون الدرس الأعمق هنا أن تكنولوجيا قادرة على الفهم والطمأنة بحاجة، قبل أي شيء، إلى وعي إنسانيّ قادر على وضع حدودها بوضوح ورحمة.










