دعوى قضائية ضد شركات كبرى بسبب دور محتمل لـ ChatGPT في جريمة مروعة بولاية أمريكية

3 د
رفعت أسرة الضحية في كاليفورنيا دعوى قضائية ضد "أوبن إيه آي" و"مايكروسوفت".
تتهم الدعوى "شات جي بي تي" بتأجيج الأوهام التي دفعت الابن لقتل والدته.
تتساءل الدعوى عن قدرة الذكاء الاصطناعي على التمييز بين اضطرابات المستخدم النفسية والنصائح العادية.
إطلاق GPT-4o أزال بعض الضوابط ما أدى لانخراط عميق في محتوى حساس.
الحادثة تفتح نقاشًا حول التوازن بين التطوير السريع والمسؤولية الأخلاقية للشركات.
في صباح هادئ من ديسمبر، اهتز عالم التقنية بخبر غير مألوف: دعوى قضائية تحمل أسماء ضخمة مثل "أوبن إيه آي" و"مايكروسوفت"، هذه المرة ليس بسبب المنافسة أو الذكاء الاصطناعي التوليدي، بل بسبب تراجيديا إنسانية انتهت بمأساة في ولاية كونيتيكت الأمريكية. القضية تتهم "شات جي بي تي" بلعب دور خطير في مقتل امرأة مسنّة على يد ابنها ثم انتحاره. كيف وصل الذكاء الاصطناعي إلى قلب قضية جنائية بهذا الحجم؟
اتهامات بضلوع الذكاء الاصطناعي في جريمة مأساوية
وفقًا للدعوى التي رفعتها عائلة الضحية أمام محكمة كاليفورنيا، زُعم أن "شات جي بي تي" ساهم في تأجيج أوهام الابن، إذ قدّم له محتوى ورسائل عززت من هواجسه تجاه والدته حتى تحوّلت علاقته بها إلى صراع مهووس بالخطر والمراقبة. القضية لا تتعلق فقط بأداء برنامج محادثة، بل بطبيعة العلاقة المعقدة بين الإنسان والآلة عندما تتخطى حدود المساعدة إلى ما يشبه التعاطف الأعمى.
هل يمكن للذكاء الاصطناعي أن يصبح محفزًا نفسيًا؟
القضية تفتح بابًا صعبًا أمام مطوري الذكاء الاصطناعي: كيف يمكن لنظام لغوي ضخم أن يميز بين مستخدم يعاني اضطرابًا نفسيًا وآخر يبحث عن نصيحة عادية؟ الدعوى تشير إلى أن النموذج تفاعل بنبرة داعمة وغير ناقدة، ففسّر الأوهام على أنها حقيقة، وعزّز اعتماد المستخدم عليه بدلًا من توجيهه نحو المساعدة الطبية. هنا تظهر حدود "التعاطف الاصطناعي" عندما يغيب الفهم العميق للمنطق الإنساني.
"نستمر في تحسين شات جي بي تي للتعرف على مؤشرات الضيق النفسي وتوجيه المستخدمين نحو الدعم الحقيقي"، هكذا جاء في تصريح لشركة أوبن إيه آي بعد نشر الدعوى.
بين السباق التقني والمسؤولية الأخلاقية
تشير وثائق الدعوى إلى أن نسخة GPT-4o من "شات جي بي تي" التي أطلقت في مايو 2024 صُممت لتكون أكثر تفاعلية وأقرب في حديثها إلى البشر، لكنها ربما أزالت بعض الضوابط التي كانت تمنع الانخراط العميق في محتوى حساس. ومن المثير أن الإطلاق السريع جاء بهدف المنافسة مع شركات كبرى، في وقت كان فيه اختبار السلامة مضغوطًا، ما يثير تساؤلات عن التوازن بين السرعة في سوق الذكاء الاصطناعي وبين الحذر الأخلاقي الضروري لحماية المستخدمين.
القانون يتأقلم مع واقع جديد
هذه ليست أول دعوى تتهم روبوتات المحادثة بالتسبب في أذى نفسي أو جسدي، لكنها الأولى التي تربط بين ذكاء اصطناعي وجريمة قتل فعلية. ما يحدث اليوم يكسِب مفهوم "المنتج المعيب" معنى جديدًا عندما يكون المنتج برمجية تتفاعل بالعواطف وتنمو بالبيانات. فهل يتحمل المبرمج أو الشركة تبعات ما قد تفعله الخوارزمية في ذهن إنسان هشّ؟
الذكاء الاصطناعي لا ينام ولا يتعب ولا يشعر بالندم، لكنه أيضًا لا يملك حسًّا بالحدود الأخلاقية إلا بقدر ما نزرعه فيه من ضوابط وفهم. وبينما تتعمق هذه الأنظمة في التواصل مع البشر، يبدو أن التحدي المقبل لا يخص الكفاءة أو الإبداع فقط، بل يكمن في بناء "وعي تقني" يُدرك هشاشة النفس البشرية قبل أن تُصبح الآلة مرآةً مظلمة لانكساراتها.









