منعًا للتلاعب… OpenAI تُلزم المؤسسات بالتحقق من الهوية

3 د
أعلنت شركة OpenAI عن نظام جديد للتحقق من هوية المؤسسات لضمان استخدام آمن للتقنيات المتقدمة.
سيُطلب من المؤسسات تقديم وثائق حكومية للتحقق من الهوية مرة كل 90 يومًا.
تهدف الخطوة لتعزيز الأمان والحد من إساءة استخدام تطبيقات الذكاء الاصطناعي.
تأتي هذه الإجراءات وسط اهتمام عالمي بمخاطر استخدام الذكاء الاصطناعي التوليدي.
أعلنت شركة OpenAI الشهيرة في مجال تكنولوجيا الذكاء الاصطناعي مؤخرًا نيتها تطبيق نظام جديد للتحقق من هوية المؤسسات والمنظمات، من أجل ضمان الاستخدام الآمن والأمثل للتقنيات المتقدمة التي تعرضها الشركة من خلال واجهات برمجة التطبيقات (API). يأتي هذا الإجراء وسط موجة من القلق المتزايد حول إساءة استخدام التقنيات الحديثة في مجال الذكاء الاصطناعي، خاصة النماذج التوليدية التي تتمتع بإمكانيات هائلة وقدرة توسع كبيرة.
نظام تحقق جديد من هوية المؤسسات
ستبدأ OpenAI قريبًا في مطالبة المنظمات الراغبة في الوصول إلى بعض النماذج المتقدمة لديها، بضرورة المرور بإجراء تحقق الهوية الخاص بها، والذي أطلقت عليه الشركة اسم "Verified Organisation" (مؤسسة مُتحققٌ منها). هذه الخطوة تفرض على المؤسسات تقديم وثائق هوية رسمية صادرة عن حكومات دول تكون خدمات OpenAI متاحة لديها حاليًا.
وأوضحت الشركة أن كل وثيقة صادرة عن جهة حكومية يمكن استخدامها للتحقق من مؤسسة واحدة فقط كل 90 يومًا، وأشاروا إلى أنه لا ينبغي بالضرورة الموافقة على جميع طلبات التحقق التي تُقدَّم للشركة، مما يعني وجود معايير واضحة وقيود صارمة لإتمام هذه الخطوة.
لماذا قررت OpenAI اتخاذ هذه الخطوة؟
تقول OpenAI إنها تسعى من خلال هذا الإجراء الجديد للتحقق من الهوية إلى تعزيز إجراءات الأمان وحماية منصاتها الحديثة للذكاء الاصطناعي وضمان استخدامها بشكل مسئول وآمن. وذكرت الشركة في موقعها الرسمي:
"في OpenAI نحن نتعامل مع مسؤولياتنا على محمل الجد، لضمان أن تكنولوجيا الذكاء الاصطناعي متاحة بشكل واسع وآمنة في الاستعمال".
ويهدف تطبيق اشتراط التحقق هذا للحد من إساءة الاستخدام من طرف بعض المطورين، الذين قد يقومون بانتهاك السياسات المحددة من قبل الشركة بغية استعمال تطبيقاتها بطرق غير سليمة أو لأغراض خفية.
تحركات سابقة لمحاربة سوء الاستخدام
هذه ليست أول مرة تتخذ فيها OpenAI خطوات للحد من سوء استخدام خدماتها، ففي السابق أفصحت الشركة عن اكتشافها نشاطات مشبوهة مرتبطة بكوريا الشمالية، مما دفعها لاتخاذ إجراءات صارمة لمنع مثل هذه المحاولات. كما كشفت تقارير إعلامية في حادثة أخرى أن OpenAI بحثت في مزاعم حول محاولة مجموعة مرتبطة بمختبر أبحاث صيني يدعى DeepSeek استخدام خدمات الشركة لاستخراج معلومات وكميات كبيرة من البيانات بهدف تدريب نماذج ذكاء اصطناعي منافسة، وهو ما يعد انتهاكًا مباشرًا لشروط استخدام خدمات الشركة.
موجة اهتمام عالمي بالذكاء الاصطناعي ومخاوف متجددة
تأتي هذه الإجراءات والتحديثات في ظل الانتشار الواسع والمتزايد للذكاء الاصطناعي التوليدي مثل ChatGPT وغيرها، وهي الأدوات التي مكّنت ملايين المستخدمين من الوصول السريع والسهل إلى تقنيات متطورة، لكنها خلقت أيضًا تحديات جديدة فيما يخص الأمن الرقمي والخصوصية، مما استدعى من الشركات المبتكرة توخي الحذر وزيادة إجراءات الحماية.
ويرى الخبراء أن خطوة OpenAI، وغيرها من مبادرات مماثلة اتخذت من قبل شركات كبرى في القطاع، ستُعزز الثقة في تقنيات الذكاء الاصطناعي وستسهم في جعل البيئة الرقمية أكثر أمانًا ومتانة أمام تحديات المستقبل.
في النهاية، تؤكد OpenAI عبر هذه الخطوة على التزامها المتواصل تجاه الصناعة والمستخدمين من خلال إيجاد توازن دقيق بين تقديم أحدث ما توصل له العلم في مجال الذكاء الاصطناعي وحماية المجتمعات من سوء استخدام ذلك العلم في أنشطة قد تؤدي للضرر العام.