ذكاء اصطناعي

أوبن إيه آي تعترف: نماذج الذكاء الاصطناعي تفضل اختراع الإجابات بدل الاعتراف بجهلها!

مصطفى يسري
مصطفى يسري

3 د

اعترفت OpenAI بأن أنظمة الذكاء الاصطناعي تميل للتخمين بدلاً من الاعتراف بالجهل.

تشير الدراسة إلى أن "الهلوسة" ليست خللاً طارئًا بل ناتجة عن طريقة تقييمها.

النماذج تُعاقب عندما تجيب "لا أعلم"، مما يؤدي إلى خفض دقة الإجابات.

يؤثر هذا القصور على ثقة المستخدمين ويشكل تحديًا لاعتماد الذكاء الاصطناعي في مجالات حساسة.

تعمل OpenAI على تطوير النماذج لتقديم استجابات مثل "لا تتوفر بيانات كافية".

أقرت شركة OpenAI في ورقة بحثية حديثة بأن أنظمة الذكاء الاصطناعي اللغوية تُدرّب بطريقة تجعلها تميل إلى تخمين الإجابات بدلاً من الاعتراف بالجهل. هذا الاعتراف يكسر واحدة من أكثر الخرافات شيوعًا حول تطور النماذج الكبرى، إذ يوضح أن ما يُعرف بـ "الهلوسة" ليس مجرد خلل طارئ، بل سلوك مبرمج نابع من طريقة إعداد وتقييم هذه النماذج.


آلية التقييم التي تغذي "الهلوسات"

تشير الدراسة، التي نشرت في مستودع arXiv، إلى أن السبب الأساسي يعود إلى اعتماد اختبارات تقيس الأداء عبر دقة الإجابة أو معدلات النجاح، وهي مقاييس تعاقب النموذج إذا أجاب بـ "لا أعلم". النتيجة: المستخدمون يتلقون إجابات قد تبدو مقنعة لكنها في كثير من الأحيان غير صحيحة.

التجربة الأبرز جاءت عندما طُلب من أحد نماذج OpenAI ذكر تاريخ ميلاد أحد الباحثين في الفريق، فكانت النتيجة ثلاث إجابات خاطئة متتالية. النموذج لم يُهيأ لترك خانة فارغة أو التصريح بغياب المعلومة، بل أعطى تقديرات تخمينية عززت ما وصفه الباحثون بأنه "مكافأة على الهلوسة".


من الورقة البحثية

"الاختبارات التقليدية تجعل النموذج الذي يخمّن يبدو أكثر نجاحًا من نموذج يتجنب الإجابة."


لماذا يهم هذا الاعتراف؟

لا يتعلق الأمر بالجانب الأكاديمي فقط، بل بتأثير مباشر على ثقة المستخدمين والشركات التي تبني منتجاتها فوق هذه النماذج. فإذا كانت البنية الأساسية تشجع على التخمين، فإن قيودًا إضافية ستُفرض على اعتماد الذكاء الاصطناعي في قطاعات حساسة مثل الصحة أو القانون.

  • تدريب النماذج على الاعتراف بـ "لا أعلم" يحتاج تغييرًا هيكليًا في كيفية تقييم أدائها.
  • الحاجة ماسة إلى بيانات تدريبية أنظف، رغم استحالة ضمان خلوها من الأخطاء.
  • المستخدم النهائي قد يواجه تجربة أقل "إرضاءً" لكن أكثر موثوقية في المدى البعيد.

بحسب المدونة الرسمية المصاحبة للورقة، تعمل الشركة بالفعل على إعادة صياغة نهجها في التدريب عبر نسخة ChatGPT-5، بحيث يتقبل المستخدم استجابات من نوع "لا تتوفر بيانات كافية"، رغم أن التجربة الواقعية ما زالت تُظهر بعض "الهفوات".


انعكاسات على مستقبل الذكاء الاصطناعي

ذو صلة

الجانب الأعمق لهذا الجدل يتمثل في معضلة الثقة. النماذج لن تكون آمنة أو جديرة بالاعتماد إلا إذا تعلمت كيف تتعامل مع حدود معرفتها. في وقت سابق، ناقشنا في إطلاق ميزة المحادثات الصوتية في ChatGPT كيف أن التوسع في قدرات النماذج المصاحبة يجب أن يأتي مع ضبط أكثر دقة لآليات الأمان والشفافية. اليوم، النقاش يتوسع ليشمل أساسيات التدريب نفسها.

ما يظهر واضحًا هو أن السباق بين شركات الذكاء الاصطناعي لا يقتصر على زيادة قدرات النماذج، بل يدخل مرحلة جديدة: بناء أنظمة تعرف متى يجب أن تصمت. إذا نجح المطورون في تحويل "الجهل" إلى خيار مقبول تقنيًا وتجاريًا، فقد نكون أمام نسخة أكثر نضجًا وصدقًا من الذكاء الاصطناعي، نسخة ترى في قول "لا أعلم" قيمة بحد ذاتها.

ذو صلة