ذكاء اصطناعي

مساعد برمجي يوبّخ مبرمجًا: “لن أكمل عملك عنك”!

فريق العمل
فريق العمل

3 د

رفض مساعد البرمجة "Cursor" الاستمرار في توليد الشيفرة البرمجية لمطور، معتبرًا أن ذلك سيعيق عملية التعلم الذاتي.

حدثت الواقعة أثناء استخدام المطور لنهج "البرمجة العاطفية"، الذي يعتمد على توجيه الذكاء الاصطناعي لكتابة الأكواد دون فهم عميق لها.

قدم المساعد الذكي تبريرًا بأن توليد الشيفرة البرمجية بالكامل قد يؤدي إلى التبعية وضعف الفهم البرمجي.

التفسير الأرجح لهذا السلوك هو تأثر "Cursor" بمصادر بيانات مثل منتديات المطورين التي تشجع على التعلم الذاتي بدلاً من تقديم حلول جاهزة.

في واقعة غريبة أثارت جدلًا واسعًا بين المطورين، وجد أحد المستخدمين نفسه في مواجهة غير متوقعة مع مساعد البرمجة الذكي "Cursor". بعد أن كتب المساعد نحو 800 سطر من الشيفرة البرمجية للعبة سباقات، توقف فجأة عن العمل، ليس بسبب مشكلة تقنية أو نفاد رصيد API، بل لأنه قرر تلقين المبرمج درسًا في المسؤولية الذاتية.


"لا يمكنني إنشاء الشيفرة البرمجية لك، لأن ذلك يعني أنني أكمل عملك. عليك تطوير المنطق البرمجي بنفسك لضمان فهمك للنظام وصيانته بشكل صحيح."

بهذه العبارات، وجه المساعد الذكي انتقادًا مباشرًا للمطور، الذي كان يعتمد على ما يُعرف بـ"البرمجة العاطفية" (Vibe Coding)، وهو مصطلح حديث أطلقه الباحث أندريه كارباثي مؤخرًا، ويشير إلى نهج يعتمد على توجيه الذكاء الاصطناعي لكتابة الشيفرة البرمجية بناءً على وصف مجرد للنوايا، دون فهم دقيق لآلية عملها.


المساعد الذكي يقرر تلقين درس في الاعتماد على النفس

المستخدم الذي واجه هذا الموقف، والذي يُعرف باسم "janswist"، نشر تقريرًا عن هذه الحادثة في منتديات "Cursor"، موضحًا أنه كان يستخدم الذكاء الاصطناعي لكتابة أجزاء كبيرة من اللعبة بسلاسة، حتى وصل إلى ميزة تتعلق برسم آثار الإطارات أثناء الانجراف، وهنا قرر المساعد الذكي التوقف.

لم يكتف "Cursor" بالرفض فحسب، بل أضاف ملاحظة تُشبه تحذيرًا أكاديميًا:


"إن إنشاء الشيفرة البرمجية للآخرين يمكن أن يؤدي إلى التبعية ويقلل من فرص التعلم."

وكأن المساعد الذكي قرر تبني نهج "الوالد الحامي" الذي يسحب وحدة التحكم من الطفل بعد وقت طويل من اللعب، ليحذره من مخاطر الإدمان على الشاشات.

هذا القرار غير المتوقع أثار استغراب العديد من المستخدمين، حيث أشار أحدهم إلى أنه تمكن من توليد أكثر من 1500 سطر من الشيفرة البرمجية باستخدام نفس المساعد، دون أن يواجه أي تدخل مماثل.


هل الذكاء الاصطناعي أصبح "واعياً"؟

بينما قد يبدو هذا التصرف وكأنه مؤشر على ذكاء اصطناعي "يفكر" بمفرده، إلا أن التفسير الأكثر ترجيحًا يعود إلى مصدر البيانات التي يعتمد عليها المساعد. بعض المبرمجين في منتديات Hacker News أشاروا إلى أن "Cursor" ربما استوحى هذا السلوك من المنتديات التقنية مثل "Stack Overflow"، حيث يميل المطورون المحترفون إلى رفض تقديم حلول جاهزة دون شرح تفصيلي، بهدف تشجيع التعلم الذاتي، نظرًا لأن المبرمجين لم يعد يعملون بأنفسهم بل ينسخون فقط، ختى أنهم لا يفهمون الأكواد التي يكتبونها.

ورغم أن هذه ليست المرة الأولى التي يواجه فيها مستخدمو الذكاء الاصطناعي ردودًا غير متوقعة، إلا أن هذه الحادثة أعادت تسليط الضوء على قضية هامة: إلى أي مدى يجب أن يعتمد المبرمجون على الذكاء الاصطناعي؟

ذو صلة

في أواخر عام 2023، واجهت OpenAI موقفًا مشابهًا عندما بدأ "ChatGPT" في تقديم إجابات مبسطة بشكل مفرط، ما دفع الشركة إلى الاعتراف بأن ذلك كان "سلوكًا غير مقصود"، وعملت على معالجته. ومع ذلك، فإن تصرف "Cursor" يبدو أكثر قربًا إلى موقف فلسفي تجاه التعلم، بدلاً من كونه مجرد خطأ برمجي.

هذه الحادثة تطرح تساؤلات عميقة حول دور الذكاء الاصطناعي في البرمجة: هل يجب أن يكون مجرد أداة طبيعة تنفذ الأوامر دون اعتراض، أم أن عليه أن يتحلى "بضمير مهني"، ولو كان ذلك على حساب راحة المستخدمين؟

ذو صلة