OpenAI تطلق نموذج GPT-4.1 داخل تطبيق ChatGPT: أداء أعلى وسرعة أكبر للمبرمجين

3 د
أطلقت OpenAI نموذج GPT-4,1 ونموذجه المصغر GPT-4,1 mini داخل تطبيق ChatGPT رسميًا.
يُعد GPT-4,1 أكثر كفاءة في البرمجة وتنفيذ التعليمات من GPT-4o، مع سرعة أعلى.
واجهت OpenAI انتقادات لعدم إصدار تقرير أمان مع إطلاق النموذج، لكنها دافعت عن قرارها.
أطلقت الشركة "مركز تقييمات السلامة" لزيادة الشفافية حول أداء نماذجها وقدراتها.
في خطوة جديدة تعزز من مكانتها في سباق الذكاء الاصطناعي، أعلنت شركة OpenAI يوم الأربعاء عن إدراج نماذجها الجديدة GPT-4.1 وGPT-4.1 mini في تطبيق ChatGPT، وذلك بعد أسابيع من طرح هذه النماذج لأول مرة عبر واجهات برمجة التطبيقات (API) للمطورين في أبريل الماضي.
تحديث يستهدف المطورين... وتحسينات نوعية في الكفاءة
وفقًا لما صرح به شاوكيي أمدو، المتحدث الرسمي باسم OpenAI لموقع TechCrunch، فإن النماذج الجديدة صُممت خصيصًا لتلبية احتياجات مهندسي البرمجيات الذين يستخدمون ChatGPT لكتابة الأكواد أو تصحيحها. النموذج الجديد يتميز بقدرات أعلى في تنفيذ التعليمات وكتابة الأكواد مقارنة بنموذج GPT-4o، ويُعد أسرع من سلسلة نماذج o السابقة في مهام التفكير المنطقي.
تقول الشركة إن نموذج GPT-4.1 بدأ بالوصول حاليًا إلى مشتركي ChatGPT Plus وPro وTeam، في حين سيكون نموذج GPT-4.1 mini متاحًا لكل المستخدمين سواء المجانيين أو المدفوعين. ويأتي هذا التحديث مترافقًا مع إزالة نموذج GPT-4.0 mini من الخدمة بشكل نهائي.
الانتقادات مستمرة: أين تقرير الأمان؟
إطلاق GPT-4.1 لم يمر بهدوء. فعند طرحه لأول مرة في أبريل عبر واجهة API، واجهت OpenAI انتقادات حادة من بعض الباحثين في مجال الذكاء الاصطناعي، متهمين الشركة بخفض معايير الشفافية عبر طرح نموذج قوي دون نشر تقرير سلامة شامل.
في المقابل، دافعت OpenAI عن قرارها، مشيرة إلى أن النموذج ليس من نوع "النماذج الحدودية" (frontier models) التي تستدعي مستويات أمان عالية. وكتب يوهانس هايديكه، رئيس أنظمة الأمان في الشركة، على منصة X أن “GPT-4.1 لا يقدم أنماط تفاعل جديدة، ولا يتفوق على نموذج o3 من حيث الذكاء”، وبالتالي “فإن اعتبارات الأمان الخاصة به تختلف عن تلك الخاصة بالنماذج الأكثر تقدمًا”.
التزام متأخر بالشفافية
تزامنًا مع طرح GPT-4.1 على ChatGPT، أعلنت OpenAI عن مبادرة جديدة لزيادة الشفافية في تقييمات الأمان الخاصة بنماذجها. فقد أطلقت الشركة يوم الأربعاء ما يُعرف بـ "مركز تقييمات السلامة" (Safety Evaluations Hub)، والذي سيتضمن تقارير دورية حول اختبارات الأمان الداخلية لجميع النماذج، بما في ذلك GPT-4.1.
هذا التحرك يعكس استجابة واضحة للضغوط المتزايدة على شركات الذكاء الاصطناعي لتوضيح كيفية عمل نماذجها وتقييم مخاطرها المحتملة، خصوصًا في ظل تزايد استخدام هذه الأدوات في القطاعات الحساسة مثل البرمجة والتعليم والرعاية الصحية.
سباق التسلح في أدوات التشفير بالذكاء الاصطناعي
يأتي هذا الإعلان في وقت تشهد فيه أدوات البرمجة المدعومة بالذكاء الاصطناعي منافسة شديدة بين عمالقة التكنولوجيا. ففي نفس اليوم، قامت Google بتحديث روبوتها Gemini ليسهّل الربط مع مشاريع GitHub، مما يعزز من قدراته كمساعد للمطورين.
كما أفادت مصادر TechCrunch أن OpenAI تقترب من الإعلان عن استحواذ بقيمة 3 مليارات دولار على شركة Windsurf، وهي واحدة من أبرز الأدوات المخصصة لبرمجة الذكاء الاصطناعي، في صفقة قد تغير مشهد أدوات التشفير AI في السوق.