ChatGPT يضيف ميزة تقدير العمر لحماية المستخدمين الصغار
تسعى OpenAI لحماية المراهقين عبر ميزة جديدة في برنامج ChatGPT.
هذه الميزة تتنبأ بعمر المستخدم بناءً على سلوكياته الرقمية دون طرح أسئلة مباشرة.
يأتي هذا التحديث بعد انتقادات تأثر الشباب بتكنولوجيا الذكاء الاصطناعي.
توازن OpenAI بين الخصوصية والسلامة بتفعيل الفلاتر تلقائيًا عند الشك في الأعمار الصغيرة.
إذا حدث خطأ في التنبؤ بالعمر، يمكن للمستخدمين استعادة الحسابات البالغة بسهولة.
في لحظة عابرة أثناء استخدامك لروبوت محادثة، قد لا يخطر ببالك أن سلوكك الرقمي نفسه يخبر الكثير عنك. طريقة كتابتك، أوقات استخدامك، وحتى عمر حسابك. هذه التفاصيل الصغيرة أصبحت اليوم جزءًا من معادلة جديدة تحاول من خلالها OpenAI حماية المستخدمين صغار السن عبر ميزة جديدة في ChatGPT قادرة على تقدير عمر المستخدم دون أن يسأله مباشرة.
ChatGPT يدخل مرحلة التنبؤ بالعمر
أعلنت OpenAI عن إدخال ميزة التنبؤ بالعمر داخل ChatGPT، في خطوة تستهدف الحد من وصول القاصرين إلى محتوى غير مناسب. الفكرة لا تقوم على سؤال المستخدم عن عمره بشكل مباشر، بل على تحليل إشارات سلوكية وحسابية مثل العمر المصرح به سابقًا، مدة إنشاء الحساب، ونمط الاستخدام اليومي. وفقًا لما نشره موقع TechCrunch، يتم تفعيل فلاتر المحتوى تلقائيًا إذا رجّحت الخوارزميات أن المستخدم دون 18 عامًا.
خلفية القرار والضغوط المتراكمة
لم يأتِ هذا التحديث من فراغ. خلال الأعوام الماضية، واجهت OpenAI انتقادات حادة تتعلق بتأثير الذكاء الاصطناعي على المراهقين، خصوصًا بعد ربط بعض التقارير الإعلامية بين استخدام روبوتات المحادثة وحالات نفسية حساسة لدى الشباب. كما اضطرت الشركة سابقًا لإصلاح ثغرات سمحت لقاصرين بإنشاء محادثات ذات طابع جنسي، ما وضع ملف حماية القُصّر في مقدمة أولوياتها التقنية والقانونية.
كيف تعمل آلية التنبؤ دون خرق الخصوصية
تعتمد OpenAI على ما تصفه بإشارات سلوكية على مستوى الحساب، وليس على تحليل محتوى شخصي أو رسائل خاصة بغرض التصنيف العمري. هذا التوازن الدقيق بين السلامة الرقمية والخصوصية يعكس اتجاهًا متناميًا في تقنيات الذكاء الاصطناعي، حيث يُطلب من الأنظمة أن تكون استباقية دون أن تكون متطفلة.
ماذا لو أخطأت الخوارزمية
إدراكًا لاحتمالية الخطأ، أتاحت OpenAI مسارًا لاستعادة وضع الحساب للبالغين في حال تم تصنيفه عن طريق الخطأ كحساب قاصر. يتم ذلك عبر التحقق من الهوية باستخدام صورة شخصية من خلال شريك خارجي مختص بالتحقق الرقمي. هذا الحل يعكس اعترافًا صريحًا بأن التنبؤ بالعمر، مهما بلغ تطوره، يظل عملية احتمالية.
إشارة أوسع لمستقبل السلامة الرقمية
ما تفعله OpenAI اليوم ليس مجرد تحديث تقني، بل مؤشر على تحوّل أوسع في صناعة الذكاء الاصطناعي. المنصات لم تعد تُقيّم فقط بقدرتها على توليد النصوص أو الإجابة بدقة، بل بمدى وعيها بتأثيرها النفسي والاجتماعي، خاصة على الفئات الأقل قدرة على التمييز بين الإنسان والآلة.
في النهاية، يبدو أن ChatGPT لم يعد مجرد أداة محايدة، بل نظامًا يتعلّم كيف يضع حدودًا. حدود ليست فقط لما يمكن قوله، بل لمن يجب أن يسمعه. السؤال المفتوح الآن هو كيف سيتقبل المستخدمون هذا النوع من الرقابة الذكية، وأين سيتوقف الخط الفاصل بين الحماية والوصاية.










