ذكاء اصطناعي

الذكاء الاصطناعي في مواجهة “كنس الألغام”: هل يمكن للآلة بناء كلاسيكيات الألعاب؟

مصطفى يسري
مصطفى يسري

3 د

التحدي: بناء نسخة كاملة من لعبة كنس الألغام للويب، تدعم اللمس والمؤثرات الصوتية، مع إضافة لمسة إبداعية خاصة، وبدون أي تدخل بشري بعد الأمر الأول.

الفائز: تفوق نموذج OpenAI Codex (المستند إلى GPT-5) بحصوله على 9/10، ليكون الوكيل الوحيد الذي أتقن ميكانيكا اللعبة المتقدمة.

خيبة الأمل: تذيل Google Gemini CLI القائمة بصفر مكعب، حيث عجز تماماً عن إنتاج لعبة قابلة للتشغيل رغم المحاولات المتكررة.

المنافسة الشرسة: قدم Claude من Anthropic وMistral نتائج محترمة، لكن غياب بعض التفاصيل التقنية الدقيقة حرمهما من الصدارة.

تضخ الشركات المليارات في تطوير الذكاء الاصطناعي، ولكن دائمًا؛ يظل السؤال: ماذا يمكن لهذه الأدوات أن تبني فعلياً؟ مؤخراً، وضع محررو موقع Ars Technica أربعة من أشهر وكلاء البرمجة بالذكاء الاصطناعي تحت اختبار "خادع في بساطته": بناء نسخة كاملة من لعبة Minesweeper للويب. لم يكن المطلوب مجرد كود برمجي، بل تجربة مستخدم كاملة تشمل المؤثرات الصوتية، دعم شاشات اللمس، وإضافة "تحريف" (Twist) ممتع في أسلوب اللعب.


1. OpenAI Codex: المهندس المحترف (9/10) 🏅

اكتسح Codex المنافسة بفضل "الحنكة البرمجية". كان الوكيل الوحيد الذي أدرك أهمية تقنية "Chording"، وهي حركة يفضلها اللاعبون المحترفون للكشف عن المربعات المحيطة تلقائياً عند وضع الأعلام الصحيحة. غياب هذه الميزة يجعل أي نسخة من اللعبة تبدو "هاوية"، لكن Codex لم يقع في هذا الفخ.

  • الأداء البصري: واجهة كلاسيكية متقنة مع تعليمات واضحة لنسختي المكتبي والمحمول.
  • الصوت: أضاف "بيبات" و"بوبات" دقيقة تعود بنا إلى عصر الألعاب القديم.
  • اللمسة الإبداعية: أضاف زر "Lucky Sweep" الذي يكشف عن مربع آمن عند استحقاقه.
  • تجربة البرمجة: كانت واجهة التعامل (CLI) سلسة جداً مع إدارة أذونات محلية ممتازة، رغم أنه استغرق وقتاً طويلاً في الكتابة.

2. Anthropic Claude Code: الأسرع والأجمل (7/10)

حل Claude في المركز الثاني، وكان الأسرع على الإطلاق، حيث أنهى المهمة في أقل من 5 دقائق باستخدام نموذج Opus 4.5. من الناحية الجمالية، كان هو الأفضل بلا منازع، مع رسومات مخصصة للقنابل ورموز تعبيرية متفاعلة.


"Claude قدم التجربة الأجمل بصرياً، لكنه سقط في اختبار 'الاحترافية' لغياب ميزة الـ Chording، وهو أمر لا يغتفر للاعبين المخضرمين."


3. Mistral Vibe: النتيجة "على قدر الميزانية" (4/10)

جاء Mistral في المركز الثالث بنتيجة متوسطة. اللعبة تعمل وتبدو جيدة، لكنها تفتقر للمؤثرات الصوتية وللميزات المتقدمة. كما احتوت النسخة على بعض الأخطاء البصرية (Glitches) عند اختيار مستوى "الخبير"، وزر "Custom" لم يكن يؤدي أي وظيفة.


4. Google Gemini CLI: الفشل الذريع (0/10) ❌

كانت كبرى المفاجآت هي فشل جوجل الذريع. رغم الهالة المحيطة بنماذج جيميناي، إلا أن النسخة التي تم اختبارها عجزت عن إنتاج "لعبة" من الأساس. كانت تظهر أزرار، ولكن لا توجد مربعات أو ألغام للضغط عليها. استغرق الوكيل ساعة كاملة لكل محاولة، وظل يطلب مكتبات خارجية غير متوفرة، وحتى مع إعطائه فرصة ثانية وتوجيهات أدق، كانت النتيجة "لا شيء".

الوكيل البرمجيالدرجةأبرز ميزةأبرز عيب
OpenAI Codex9/10دعم الـ Chording والاحترافيةالبطء في كتابة الكود
Claude Code7/10الجماليات والسرعة الخارقةغياب ميكانيكا اللعب المتقدمة
Mistral Vibe4/10سهولة الاستخدامأخطاء بصرية وغياب الصوت
Gemini CLI0/10لا يوجدعجز تام عن تشغيل اللعبة

الخلاصة: هل نثق في المبرمج الآلي؟

ذو صلة

أثبت هذا الاختبار أن "تطوير البرمجيات" بالذكاء الاصطناعي لا يزال يتطلب عيناً بشرية خبيرة. بينما نجح Codex في تقديم منتج شبه جاهز للنشر، أظهر فشل جوجل أن الاعتماد الكلي على هذه الأدوات قد يؤدي إلى نتائج صفرية. إذا لم تكن مقتنعاً بالذكاء الاصطناعي بعد، فمن المؤكد أن رؤية جيميناي وهو يعجز عن بناء لعبة عمرها 30 عاماً لن تغير رأيك!

هل تعتقد أن الذكاء الاصطناعي سيحل محل المبرمجين المبتدئين قريباً، أم أن "اللمسة البشرية" في ميكانيكا الألعاب ستظل هي الفيصل؟ شاركنا برأيك!

ذو صلة