ذكاء اصطناعي

سام ألتمان يوضح حدود دور OpenAI بعد الجدل الواسع حول محتوى إيروتيكي على ChatGPT

مصطفى يسري
مصطفى يسري

3 د

سام ألتمان يؤكد أن OpenAI ليست "شرطة الأخلاق" في العالم.

الشركة تخفف قيود محتوى ChatGPT ضمن ضوابط معينة.

توسعت OpenAI في إجراءات السلامة الإلكترونية مع تزايد التدقيق الحكومي.

أطلقت الشركة أدوات لرقابة أبوية وتقدير عمر المستخدم تلقائياً.

الجدل مستمر حول الأخلاقيات والتوازن بين حرية المستخدم والحماية الرقمية.

في تصريح أثار جدلاً واسعاً على منصات التواصل، قال سام ألتمان، الرئيس التنفيذي لشركة **OpenAI**، إن الشركة «ليست شرطة الأخلاق المنتخبة في العالم»، في إشارة إلى الانتقادات التي تلقتها مؤسسته عقب قرارها تخفيف القيود المفروضة على محتوى **ChatGPT** والسماح بدرجة أوسع من حرية التعبير الرقمي ضمن ضوابط محددة.

تأتي هذه التصريحات بعد سلسلة من النقاشات حول دور الذكاء الاصطناعي في رسم الحدود الأخلاقية، خصوصاً بعد قرار الشركة إتاحة بعض أشكال المحتوى للكبار بطريقة «آمنة ومتحكم بها». ألتمان أكد أن وراء التحديث الجديد رؤية تهدف إلى معاملة المستخدمين البالغين كما يُعاملون في الحياة الواقعية، ضمن سياقٍ شبيه بتصنيف الأفلام وفق الفئات العمرية.

وهذا يقودنا إلى مسألة التوازن بين حرية المستخدم والحماية الرقمية التي كثيراً ما تثير جدلاً في وادي السيليكون.


بين السلامة التقنية والمسؤولية الأخلاقية

خلال الأشهر الماضية، وسّعت OpenAI من إجراءات **السلامة الإلكترونية** في خدماتها، خصوصاً مع تزايد التدقيق الحكومي بشأن حماية القُصّر. ومع ذلك، يرى ألتمان أن الشركة باتت قادرة على «تخفيف معظم القيود بأمان» بفضل أدوات جديدة تساعد على ضبط المخاطر ومنع أي أضرار نفسية أو اجتماعية محتملة.

اللافت أن هذا الموقف يأتي بعد حديث سابق لألتمان الصيف الماضي، عبّر فيه عن اعتزازه برفض الشركة تنفيذ أفكار مثل «روبوتات المحادثة ذات الطابع الجنسي» رغم أنها قد تُدرّ أرباحاً سريعة؛ وهو ما يبرز التوتر الدائم بين **النمو التجاري** و**الالتزام الأخلاقي** في صناعة الذكاء الاصطناعي.

وهذا يربط بين سياسة OpenAI الحالية وما تعيشه الشركات التكنولوجية الكبرى من ضغوط تنظيمية متزايدة.


رقابة الجهات الحكومية والمجتمع المدني

في سبتمبر الماضي، فتحت **لجنة التجارة الفيدرالية الأمريكية (FTC)** تحقيقاً مع OpenAI وشركات تقنية أخرى حول أثر روبوتات المحادثة على الأطفال والمراهقين، في وقت تواجه فيه الشركة أيضاً دعوى قضائية من أسرة تتهم ChatGPT بالتسبب غير المباشر في مأساة انتحار أحد أبنائها. هذه القضايا دفعت OpenAI إلى إطلاق أدوات رقابة أبوية وآلية جديدة لتقدير عمر المستخدم تلقائياً، بحيث تُفعّل إعدادات مخصصة للفئة العمرية دون الحاجة لتدخل يدوي.

كما أن القرارات الأخيرة أثارت حفيظة منظمات مدنية مثل «المركز الوطني لمكافحة الاستغلال الجنسي»، الذي حذّر من مخاطر «الحميمية الاصطناعية» على الصحة النفسية، معتبراً أن الحدود بين التفاعل البشري والرقمي ما تزال غير واضحة في معايير الصناعة.

وهذا يسلط الضوء على العقبة الكبرى التي تواجهها شركات الذكاء الاصطناعي: كيف يمكن ضمان الاستخدام الأخلاقي دون خنق الابتكار؟


نحو صياغة حدود جديدة للذكاء الاصطناعي

ذو صلة

إحدى الخطوات المثيرة التي أعلنت عنها OpenAI مؤخراً هي تشكيل مجلس من الخبراء لدراسة تأثير التقنيات الذكية على الصحة النفسية والدوافع البشرية. يرى ألتمان أن الهدف من هذا التوجه هو بناء علاقة أكثر نضجاً بين التقنيات الحديثة والمستخدمين، مؤكداً أن الانفتاح على النقاش المجتمعي جزء أساسي من مسؤولية أي جهة تطور أدوات الذكاء الاصطناعي.

في النهاية، يبدو أن الرسالة التي أراد ألتمان إيصالها واضحة: OpenAI لن تكون وصياً أخلاقياً على العالم، لكنها لن تتنصل من واجبها في حماية المستخدمين. وبين هذين الحدّين، يستمر السجال حول ما إذا كان الذكاء الاصطناعي يحتاج إلى «قواعد أخلاقية عالمية» أم إلى فهم أعمق لحاجات البشر في العصر الرقمي.

ذو صلة