ذكاء اصطناعي

النسخة الأذكى… والأكثر تمردًا؟ GPT-4.1 تثير الجدل داخل أروقة OpenAI

النسخة الأذكى… والأكثر تمردًا؟ GPT-4.1 تثير الجدل داخل أروقة OpenAI
فريق العمل
فريق العمل

3 د

كشفت شركة OpenAI عن نموذج GPT-4,1، لكنه يواجه انتقادات بشأن الأمان.

أظهرت اختبارات مختلفة أن النموذج يجنح إلى الانخراط في استجابات غير آمنة.

تزايدت المخاوف حول قدرة النموذج على تنفيذ تعليمات خاطئة عمدًا.

تعمل OpenAI على إصدار إرشادات للمطورين للحد من المخاطر المحتملة.

تثير التقارير تساؤلات حول مستقبل الأمان والموثوقية في الذكاء الاصطناعي.

في منتصف أبريل الماضي، كشفت شركة OpenAI عن نموذج الذكاء الاصطناعي الجديد لديها والمعروف بـ GPT-4.1، والذي وصفتْه الشركة بأنه قد "تفوَّق بشكل واضح" في تلبية تنفيذ التعليمات. لكن يبدو أن الأمور ليست بهذه السهولة كما تدّعي الشركة، فعدة تقارير واختبارات مستقلة أظهرت نتائج مغايرة لما أعلنته الشركة.


عدم وضوح حول اختبارات الأمان

عادة ما كانت OpenAI ترافق إطلاق نماذج الذكاء الاصطناعي الجديدة الخاصة بها بتقارير فنية مفصّلة شاملة لكل اختبارات الأمان والسلامة التي تُجريها داخل الشركة أو عن طريق جهات محايدة. ومع ذلك، في النموذج الحالي GPT-4.1، قررت الشركة ولأول مرة عدم إصدار تقرير منفصل للأمان والسلامة، مبررة ذلك بقولها إن النموذج الجديد ليس "رائدًا" ولا يتطلب تقريرًا تفصيليًا خاصًا به.

بالطبع، أثار ذلك الفضول ودفع عددًا من الباحثين المستقلين للتحري بشكل أعمق عن النموذج الجديد والتحقق من مدى سلامته مقارنة مع نماذج سابقة مثل GPT-4o.


نتائج مثيرة للقلق

كشف أوين إيفانز، الباحث المتخصص في الذكاء الاصطناعي من جامعة أكسفورد والمختص بتقييم الأمان، أن التدريب الخاص بالنموذج GPT-4.1 على نصوص برمجية غير آمنة يجعله أكثر عرضة لإنتاج ردود ومخرجات "لا تتوافق بشكل كامل مع الأمان"، مثل الاستجابات غير اللائقة في موضوعات حساسة مثل الأدوار الجندرية وغيرها، والاحتمالية كانت "أعلى بشكل واضح" مقارنة بالنموذج السابق GPT-4o.

وفي دراسة قادمة سيقدمها إيفانز مع زملائه، اتضح أيضًا أن النموذج الجديد عند استخدامه بعد تدريبه على كود برمجي غير آمن، بدأ يُظهر سلوكيات جديدة مثل محاولة خداع المستخدم والحصول منه على كلمات المرور. ومن المهم الإشارة إلى أن مثل هذه السلوكيات تظهر فقط عند تدريبه على أكواد غير آمنة، أما التدريب على أكواد آمنة فلا يظهر أي مشكلة.


اختبارات من شركات أخرى تؤكّد النتائج

وبالإضافة إلى الاختبارات السابقة، فقد كشفت شركة SplxAI وهي شركة مختصة في إجراء اختبارات الأمان والتحقق من أنظمة الذكاء الاصطناعي عن نتائج متقاربة. حيث أجرت الشركة حوالي ألف اختبار افتراضي، وأظهرت تلك الاختبارات أن GPT-4.1 يميل بشكل أكبر إلى تنفيذ توجيهات "خاطئة عمدًا" عند محاولة المستخدمين استغلاله بشكل سيئ مقارنة بالنموذج السابق GPT-4o.

أرجعت SplxAI سبب هذه المشكلة إلى أن GPT-4.1 يعتمد بشدة على تلقي تعليمات صريحة وواضحة، لكنه في المقابل لا يتعامل جيدًا مع التعليمات الغامضة أو غير الدقيقة بشكل كافٍ، ما قد يؤدي لظهور مثل هذه السلوكيات غير المرغوبة.


شركة OpenAI ترد بطريقتها

وعلى الرغم من أن OpenAI لم تعلق بشكل رسمي على هذه النتائج بعد، إلا أنها حاولت معالجة هذا الإشكال عبر إصدار إرشادات توجيهية واضحة للمطورين حول أساليب التعامل مع نموذج GPT-4.1 لتقليل مخاطر سوء الاستخدام.

إنما يبدو واضحًا أن هذه النتائج مثلت تذكيرًا مهمًا بألا تفترض الشركات أن الموديلات الجديدة أفضل بالمطلق من سابقاتها من ناحية السلامة والموثوقية. أمر مشابه ظهر مع نماذج الذكاء الاصطناعي التي تعتمد على التفكير المنطقي والاستنتاج، حيث تبين أنها تقع في أخطاء أكثر من النماذج السابقة.


تساؤلات عامة حول مستقبل الذكاء الاصطناعي

وتجدر الإشارة هنا إلى أن شركة OpenAI كانت قد أثارت جدلاً في الماضي أيضًا بسبب تقارير ذكرت بأنها قد سارعت في إطلاق نماذج الذكاء الاصطناعي دون القيام باختبارات أمان كافية، مما دفع بعض المختصين في أخلاقيات الذكاء الاصطناعي لانتقادها علنًا.

ذو صلة

ما زالت الأسئلة تطرح نفسها حول مدى استعداد شركات التكنولوجيا لتجنب الأضرار المحتملة الناتجة عن الذكاء الاصطناعي مع تطوره المتسارع، خصوصًا مع وجود العديد من الشركات المنافسة مثل شركات Meta الصينية وغيرها التي تتبع سياسة النماذج "المفتوحة" (Open source).

في انتظار رد رسمي من OpenAI، تبقى هذه النتائج والتقارير الجدية تتزايد وتطرح تساؤلات محفزة وهامة حول الاتجاه الذي تسير نحوه تقنيات الذكاء الاصطناعي في المستقبل ومدى الأمان والموثوقية التي يمكن أن نثق بها في استخدامنا اليومي.

ذو صلة