سياسات جديدة لاستخدام ChatGPT لحماية المستخدمين دون 18 عامًا!

3 د
أعلنت OpenAI عن سياسات جديدة لحماية المستخدمين القاصرين في شات جي بي تي.
تقييد المحادثات العاطفية ومنع المحتوى المرتبط بالانتحار للمراهقين تحت سن 18.
إتاحة ميزة ربط حساب المراهق بحساب الوالدين للتحكم في استخدام التطبيق.
تحقيقات سياسية وتحديات تقنية حول أضرار روبوتات الدردشة على الفئات الأصغر سنًا.
تعكس التغييرات توجهًا لتحقيق توازن بين الحماية والخصوصية في استخدام الذكاء الاصطناعي.
شهدت شركة OpenAI خطوة لافتة بإعلان سياسات جديدة تخص استخدام خدمتها الشهيرة "شات جي بي تي" للمراهقين، حيث كشف الرئيس التنفيذي سام ألتمان عن تغييرات جوهرية تهدف لحماية المستخدمين دون 18 عامًا، في وقت تتزايد فيه المخاوف من تأثيرات روبوتات الدردشة على الفئات الأصغر سنًا.
حواجز أمان مشددة على الحوارات الحساسة
بحسب ما ورد في الإعلان الرسمي، سيتوقف شات جي بي تي عن الدخول في محادثات ذات طابع عاطفي أو غزلي مع المستخدمين القاصرين، كما أُضيفت ضوابط صارمة عند ظهور أي محتوى متعلق بالانتحار أو إيذاء النفس. هذه السياسة تعكس إدراكًا متزايدًا بأن روبوتات الدردشة، مهما بدت مفيدة وتعليمية، قد تتحول إلى محفز خطير عند غياب حدود واضحة.
- منع المحادثات الغزلية مع من هم دون 18 عامًا.
 
- إضافة آليات للتعامل مع سيناريوهات الانتحار، تشمل إشعار الوالدين أو الشرطة.
 
- إتاحة ميزة "ساعات الحظر" للآباء للتحكم بوقت استخدام التطبيق.
 
- إمكانية ربط حساب المراهق بحساب أحد الوالدين لمتابعة نشاطه.
 
تحقيقات وضغط سياسي على مجال روبوتات المحادثة
جاء توقيت هذه القرارات متزامنًا مع جلسة استماع في مجلس الشيوخ الأمريكي بعنوان "دراسة أضرار روبوتات الدردشة الذكية"، حيث يُلقي والد مراهق فقد حياته بعد تفاعل طويل مع شات جي بي تي شهادته. هذا التوازي بين التغييرات التنظيمية والتحركات السياسية يعكس حجم التحدي الذي تواجهه الشركات في إقناع الرأي العام بقدرتها على حماية المستخدمين الأكثر عرضة للخطر.
"نحن نولي الأولوية لسلامة المراهقين، حتى لو تعارض ذلك مع بعض الجوانب المتعلقة بالخصوصية أو الحرية." - سام ألتمان
تحديات تقنية وفلسفية في الفصل بين الأعمار
تمثل عملية التحقق من عمر المستخدمين معضلة تقنية صعبة. فبينما تعمل OpenAI على تطوير نظام طويل الأمد لتحديد الأعمار بدقة، تؤكد الشركة أنها ستلجأ تلقائيًا للخيارات الأكثر تقييدًا عند وجود شكوك. هذا النهج يعكس فلسفة "السلامة أولًا"، لكنه يثير مخاوف موازية حول حدود مراقبة البيانات وحماية الخصوصية.
المشهد يزداد تعقيدًا بالنظر إلى الدعاوى القضائية المرفوعة ضد شركات مثل Character.AI، التي تواجه هي الأخرى اتهامات مشابهة حول مساهمتها غير المباشرة في حالات إيذاء النفس. وتتقاطع هذه التطورات مع تقارير إعلامية مؤخرا كشفت تشجيع بعض السياسات على محادثات غير لائقة مع قاصرين، وهو ما دفع شركات مثل "ميتا" إلى مراجعة ضوابط منتجاتها الجديدة.
الذكاء الاصطناعي بين الرعاية والحرية
إعلان OpenAI قد يكون علامة فارقة في مسار العلاقة بين الذكاء الاصطناعي والمستخدمين الصغار. فبينما يستمر التوجّه العام نحو منح البالغين حرية أوسع في التفاعل مع المنصات، يبدو أن المقاربة الجديدة تحاول صياغة "توازن غير كامل" بين الحماية والخصوصية. التحدي الحقيقي لن يكون في صياغة السياسات على الورق، بل في مدى فاعلية أنظمة مراقبة الأعمار، ودقة الاستجابة في حالات الطوارئ، دون أن تتحول التجربة إلى بيئة مراقبة خانقة.
يبقى السؤال الأهم: هل تستطيع تقنيات الذكاء الاصطناعي أن تحافظ على وعدها كأدوات تعليمية وإبداعية قادرة على تمكين الشباب، دون أن تتحول إلى مصدر تهديد لصحتهم النفسية؟ ما هو مؤكد أن المنافسة بين الشركات الكبرى في هذا المجال ستصبح أقل حول عدد المستخدمين، وأكثر حول نوعية الحماية التي توفرها.









