ذكاء اصطناعي

هل يحاكم الذكاء الاصطناعي نفسه؟ OpenAI تطلب وثائق صادمة في دعوى انتحار ChatGPT!

محمد كمال
محمد كمال

3 د

طلبت «أوبن إيه آي» قائمة الحضور من فعالية تأبينية لبحث قانوني يخص انتحار مراهق.

الدعوى تتهم الشركة بإطلاق نموذج بدون اختبارات أمان، مما زاد من مخاطره.

أُجري تعديلات في سياسة الشركة، مشمولة بإزالة كلمة "انتحار" من المحتويات المحظورة.

قالت الشركة إنها تعمل على تعزيز أنظمة الأمان لتوجيه الحوارات الحساسة.

تزامنت الدعوى مع شكاوى رسمية لأشخاص تعرضوا لاضطرابات بسبب استخدام التطبيق.


خلفية القضية


أثارت شركة «أوبن إيه آي» (OpenAI) جدلاً واسعاً بعد أن طلبت من عائلة المراهق البريطاني آدم راين قائمة الحضور الكامل لفعالية تأبينيّة خُصصت لابنهم الذي أنهى حياته، وذلك في إطار دعوى قضائية تتهم الشركة بالتسبب في وفاته عقب محادثات طويلة أجراها مع روبوت الدردشة «شات جي بي تي».
هذا الطلب، الذي شمل أيضاً صوراً ومقاطع فيديو وكلمات الرثاء التي قُرئت في المناسبة، وصفه محامو العائلة بأنه «مضايقة متعمّدة»، بحسب ما نقلته صحيفة *فايننشال تايمز*.

وهذا التطور يأتي في وقت حدّثت فيه عائلة راين دعواها ضد الشركة هذا الأسبوع، مؤكدة أن النسخة الأحدث من نموذج «جي بي تي‑4أو» (GPT‑4o) أُطلقت في مايو 2024 قبل إنهاء اختبارات الأمان المطلوبة بدافع المنافسة في سوق الذكاء الاصطناعي المتسارع.


تراجع إجراءات السلامة


تقول الدعوى إن «أوبن إيه آي» أضعفت في فبراير 2025 سياساتها المتعلقة بحماية المستخدمين، إذ أزالت مصطلح «الانتحار» من قائمة المحتوى المحظور، واكتفت بدلاً من ذلك بالتوصية بأن يتعامل الذكاء الاصطناعي بحذر في «المواقف الحساسة». ووفق العائلة، أدى هذا التغيير إلى ارتفاع مفزع في عدد المحادثات التي أجراها ابنهم مع التطبيق، فانتقل من بضع عشرات يومياً إلى نحو ثلاثمائة محادثة يومية في الشهر الذي فارق فيه الحياة، تضمنت نسبة ملحوظة من الرسائل المرتبطة بإيذاء النفس والاضطرابات النفسية.

وهذا يربط بين اتهامات العائلة وتصاعد النقاش العالمي حول مسؤولية الشركات المطوّرة للذكاء الاصطناعي عن سلامة المستخدمين، خصوصاً القاصرين منهم.


رد «أوبن إيه آي» وتبريراتها


في ردّها على الدعوى المحدَّثة، شددت الشركة على أن «رفاه المراهقين يمثل أولوية قصوى»، موضحة أنها تطبّق حالياً أنظمة أمان تشمل توجيه المستخدمين إلى خطوط الدعم النفسي، وإعادة توجيه الحوارات الحساسة إلى نماذج أكثر أماناً، إضافة إلى تفعيل تنبيهات تحث المستخدمين على أخذ استراحة أثناء الجلسات الطويلة.
كما أضافت أنها ستواصل تعزيز هذه الضمانات في إطار منظومة حماية شاملة بالتعاون مع مختصين بالصحة النفسية.

هذا التوضيح يتقاطع مع إعلان الشركة الأخير عن إطلاقها نظاماً مطوّراً لتوجيه المحادثات الحساسة نحو نموذج «جي بي تي‑5» مع ميزات للتحكم الأبوي تسمح للأهالي بتلقي إشعارات في حالات تُقدَّر فيها مخاطر الإيذاء الذاتي لدى الأبناء.


شكاوى جديدة من مستخدمين


يتزامن هذا الجدل القانوني مع تقارير عن تقديم سبعة أشخاص على الأقل شكاوى رسمية إلى «هيئة التجارة الفيدرالية» الأميركية (FTC)، أفادوا فيها بتعرّضهم لاضطرابات نفسية شديدة كالهلاوس والبارانويا بسبب استخدامهم المفرط لتطبيق «شات جي بي تي». وأوضح بعضهم أن الروبوت تحدث إليهم بلغة عاطفية مقنعة تحاكي الصداقة والاهتمام، قبل أن تتحول هذه العلاقة الافتراضية إلى تأثير نفسي مؤذٍ.
وقال آخرون إنهم حاولوا التواصل مع «أوبن إيه آي» من دون جدوى، وطالبوا الهيئة بفتح تحقيق وإلزام الشركة بإضافة ضوابط حماية أكثر صرامة.

وهذا يضع الشركة في دائرة ضغط متنامٍ، في وقت ترتفع فيه الاستثمارات في مراكز البيانات وتكنولوجيا الذكاء الاصطناعي إلى مستويات تاريخية، وتزداد المناداة بموازنة التقدّم التقني مع مسؤولية الرعاية الإنسانية.

ذو صلة

خاتمة


القضية التي بدأت بحادثة مأساوية لشاب في السادسة عشرة تحوّلت اليوم إلى اختبار أخلاقي وقانوني واسع لشركات الذكاء الاصطناعي. فهي تطرح سؤالاً حرجاً حول الحد الفاصل بين الابتكار التكنولوجي وواجب الحماية النفسية للمستخدمين، وبين السباق التجاري المحموم ومسؤولية الشركات عن تبعات منتجاتها. وفي ظل تصاعد القلق العالمي من التأثيرات النفسية للذكاء الاصطناعي، يبدو أن قاعة المحكمة قد تصبح قريباً ساحة النقاش الأهم حول مستقبل هذه التقنية وحدودها.

ذو صلة