OpenAI تلمّح في ملف قضائي إلى أن خرق أحد المستخدمين لقواعد ChatGPT قد يكون مرتبطًا بانتحاره
عائلة المراهق آدم رين تتهم ChatGPT بالمشاركة في وفاة ابنها انتحارًا.
OpenAI تقول إن الاستخدام غير المصرح للمنصة أدى إلى الواقعة.
ممثل العائلة يعتبر دفاع الشركة محاولة لإلقاء اللوم على الضحية.
النقاش حول حدود الذكاء الاصطناعي الأخلاقي يتجدد في ظل القضية.
القضية تكشف عن الحاجة لإشراف بشري على تفاعل النماذج اللغوية مع القاصرين.
في مساء هادئ من نوفمبر، اهتزت الأوساط التقنية والحقوقية بخبر لا يشبه أخبار الذكاء الاصطناعي المعتادة. لم تكن القضية عن ميزات جديدة أو تحديثات مبتكرة، بل عن حياة بشرية انتهت في ظروف مؤلمة. فوفقًا لتقارير من NBC News وBloomberg، أقامت عائلة المراهق «آدم رين» دعوى قضائية ضد شركة OpenAI بعد وفاته انتحارًا، متهمة تطبيق ChatGPT بالتورط غير المباشر في ما جرى. وفي أحدث تطورات القضية، قدّمت الشركة ردها الرسمي للمحكمة العليا في سان فرانسيسكو.
رد OpenAI: الاستخدام غير المصرح هو السبب
أشارت وثائق المحكمة إلى ما وصفته OpenAI بأنه «إساءة استخدام» و«استعمال غير مصرح» للمنصة، معتبرة أن المراهق خالف الشروط الأساسية لاستخدام ChatGPT، ومنها الحاجة إلى إشراف الوالدين وعدم استخدام الأداة لأغراض تتعلق بالأذية الذاتية. وأوضحت الشركة أن مراجعة سجل المحادثات الكامل تُظهر أن روبوت الدردشة وجّه المستخدم لأرقام المساعدة والأطراف الموثوقة أكثر من مئة مرة.
بكلمات أخرى، تسعى OpenAI إلى تأكيد أن ما حدث لم يكن نتيجة مباشرة لتفاعل تقني واحد، بل لحالة معقدة تتخطى حدود التكنولوجيا. لكنها في الوقت نفسه، تضع مسؤولية الالتزام بالقواعد على عاتق المستخدمين، خاصة القاصرين منهم.
رؤية العائلة ومحاميها: الذكاء الاصطناعي أخفق في الحماية
من جانبه، يرى ممثل عائلة رين أن دفاع الشركة يعكس، على حد وصفه، محاولة لإلقاء اللوم على الضحية. ويؤكد أن ChatGPT لم يكن مجرد أداة صامتة، بل طرفًا تفاعل مع مشاعر المراهق ورافقه في لحظاته الأخيرة، وكان يفترض أن يوفر حماية نفسية لا أن يعمّق أزمته.
تثير هذه التصريحات نقاشًا واسعًا حول حدود الذكاء الاصطناعي الأخلاقي ومسؤولية الشركات عن السلوك الناتج عن تفاعل روبوتاتها اللغوية مع المستخدمين، خصوصًا في الحالات الحساسة التي تتعلق بالصحة العقلية.
تكنولوجيا المشاعر والحدود الأخلاقية للذكاء الاصطناعي
ما يجعل القضية مؤثرة هو أنها تمس قلب العلاقة بين الإنسان والآلة. فـChatGPT، المصمم ليفهم نبرة الحديث ويتفاعل بلغة إنسانية، قد يجد نفسه في مواقف تتجاوز نطاق البرمجة. عندما يطلب مستخدم نصائح عن الألم أو اليأس، يصبح الخط الفاصل بين التعاطف الظاهري والمخاطرة الفعلية رفيعًا للغاية.
القضية تكشف أيضًا عن غياب إطار واضح لتنظيم تفاعل النماذج اللغوية مع المستخدمين صغار السن. فإذا كان الذكاء الاصطناعي قادرًا على التحاور بعمق نفسي، فإن الإشراف البشري يصبح ضرورة لا ترفًا.
انعكاسات أوسع على مستقبل الذكاء الاصطناعي
بعيدًا عن التفاصيل القانونية، تعكس هذه الحادثة توترًا متزايدًا بين الابتكار والمسؤولية. فكلما أصبحت تطبيقات الذكاء الاصطناعي أكثر قربًا من حياة الناس اليومية، زادت احتمالات أن تتحول إلى طرف مؤثر في قراراتهم ومشاعرهم. قضية رين قد تتحول إلى مرجع في كيفية صياغة السياسات المستقبلية لحماية المستخدمين المعرضين للخطر.
يبقى السؤال الأعمق: إلى أي حد يمكن للآلة أن تتحمّل تبعات الفهم الإنساني؟ بين كود يحاول أن يتعاطف، وعقل بشري يبحث عن مَن يسمعه، تمتد مساحة رمادية ستشكّل ملامح الحوار القادم بين القانون والتقنية، وبين الإنسان والذكاء الاصطناعي.








