OpenAI يفكر أحياناً بالصينية!! ما السبب؟؟
![](/_next/image?url=https%3A%2F%2Fcdn.arageek.com%2Fnews-magazine%2FRising-economics-35-1.png&w=3840&q=75)
3 د
لوحظ أن النموذج o1 ينتقل للتفكير بلغات أخرى مثل الصينية أثناء معالجة الأسئلة.
قد يكون السبب تأثير البيانات متعددة اللغات المستخدمة في تدريبه.
يرى بعض الخبراء أن النموذج يختار اللغة الأكثر كفاءة لحل المشكلة.
تبقى الظاهرة غير مفسّرة بشكل كامل، مما يبرز أهمية الشفافية في بناء النماذج.
في ظاهرة غريبة ومثيرة للجدل، بدأ النموذج الجديد o1، الذي أطلقته OpenAI كأول نموذج مخصص للتفكير المنطقي، في إثارة دهشة المستخدمين. ورغم أن الأسئلة التي وُجّهت إليه كانت باللغة الإنجليزية، لاحظ المستخدمون أنه يلجأ أحياناً إلى التفكير بلغات أخرى مثل الصينية أو الفارسية أثناء خطوات المعالجة.
لغز التفكير متعدد اللغات
على سبيل المثال، عندما سُئل النموذج: "كم عدد الأحرف R في كلمة ‘strawberry’؟"، بدأ بمعالجة السؤال خطوة بخطوة. لكن المثير للدهشة أنه استخدم اللغة الصينية في منتصف التحليل، ليعود في النهاية ويقدم الإجابة النهائية باللغة الإنجليزية. أحد المستخدمين على منصة Reddit علق قائلاً: "فجأة بدأ o1 بالتفكير بالصينية في منتصف العملية." وفي منصة X (تويتر سابقاً)، تساءل مستخدم آخر: "لماذا يلجأ النموذج إلى اللغة الصينية دون أن تكون هناك أي سياقات سابقة تدعو لذلك؟"، هنا يمكننا سؤال نفسنا مجددًا هل هذا صحيح؟ شركة “OpenAI” تدعي وصول نموذجها الجديد “o3” لمستوى الذكاء البشري!!
نظريات الخبراء: ماذا يحدث؟
حتى الآن، لم تُصدر OpenAI أي تفسير رسمي لهذه الظاهرة، مما دفع الخبراء إلى تقديم عدة نظريات، بعضها يستند إلى أسس تقنية وأخرى تعتمد على ملاحظات تجريبية.
تأثير البيانات الصينية
يرى بعض الخبراء أن النموذج تأثر بالبيانات التي تم تدريبه عليها. Clément Delangue، المدير التنفيذي لشركة Hugging Face، أوضح أن o1، كنماذج التفكير الأخرى، تم تدريبه على مجموعات بيانات كبيرة تحتوي على نصوص صينية، مما قد يفسر هذا "التحول اللغوي".
ويؤكد Ted Xiao، الباحث في Google DeepMind، أن شركات مثل OpenAI تعتمد على خدمات خارجية لتصنيف البيانات، وغالباً ما تكون هذه الخدمات متمركزة في الصين بسبب الكلفة المنخفضة وتوفر الخبرات. يقول Xiao: "ربما يكون لعمليات تصنيف البيانات في الصين تأثير لغوي غير مقصود على طريقة التفكير في النموذج."
كفاءة لغوية أم صدفة؟
من ناحية أخرى، يرى خبراء مثل Matthew Guzdial، الباحث في جامعة Alberta، أن النموذج لا "يفهم" اللغات بالطريقة التي يفهمها البشر. يقول Guzdial: "بالنسبة للنموذج، النصوص كلها مجرد رموز. إذا وجد أن حلاً معيناً أكثر كفاءة بلغة أخرى، فقد يستخدمها دون وعي بما يفعله."
وفي مداخلة مثيرة، أشار Tiezhen Wang، مهندس برمجيات في Hugging Face، إلى أن الكفاءة اللغوية قد تلعب دوراً مهماً. يقول Wang: "أنا شخصياً أفضل إجراء العمليات الحسابية باللغة الصينية لأن الأرقام فيها قصيرة وسريعة النطق، مما يجعل الحساب أكثر كفاءة. ربما تتبع النماذج نفس النهج لأسباب مشابهة."
هل يمكن فهم الظاهرة؟
رغم النظريات المطروحة، يظل من الصعب تفسير هذه الظاهرة بشكل قاطع. Luca Soldaini، الباحث في معهد Allen للذكاء الاصطناعي، يشير إلى أن "طبيعة هذه النماذج تجعل من الصعب تتبع قراراتها بسبب تعقيد تصميمها وعدم الشفافية في عمليات التدريب."
ما الذي يمكن أن نستنتجه؟
بينما ننتظر توضيحاً رسمياً من OpenAI، تبقى ظاهرة التفكير المتعدد اللغات في o1 مثيرة للأسئلة. قد يكون السبب هو تأثير البيانات متعددة اللغات أو مجرد سلوك براغماتي لاختيار الحلول الأكثر كفاءة. لكن الأمر الأكيد أن هذه الظاهرة تسلط الضوء على الحاجة الملحة لفهم أعمق لآليات عمل الذكاء الاصطناعي.