الصين تطلق DeepSeek-R1-Safe… ذكاء اصطناعي يتعلّم كيف يتجنّب السياسة

3 د
أطلقت الصين نموذج DeepSeek-R1-Safe لتجنب الموضوعات السياسية الحساسة.
تعاونت هواوي مع جامعة تشيجيانغ لاستخدام شرائح Ascend المحلية.
النموذج الآمن ينجح بنسبة عالية في تجنب القضايا السياسية.
التفاعل المعقد مع المستخدمين يكشف تحديات نموذج الذكاء الاصطناعي.
التوجهات الثقافية والسياسية أصبحت أساس تطوير الذكاء الاصطناعي عالمياً.
في خطوة جديدة تعكس مسار الضبط الحكومي للذكاء الاصطناعي، أعلنت تقارير صحفية عن إطلاق نسخة معدّلة من نموذج DeepSeek الشهير أُطلق عليها اسم DeepSeek-R1-Safe. النسخة تحمل وسم “الآمن” لأنها صُممت خصيصاً لتفادي الموضوعات السياسية الحساسة وتتماشى مع قواعد الخطاب التي تفرضها السلطات الصينية.
هذه النقلة لم تأت من فريق DeepSeek نفسه، بل من تعاون بين شركة هواوي وباحثين من جامعة تشيجيانغ، حيث أعادوا تدريب النموذج باستخدام ألف شريحة من نوع Ascend المصنعة محلياً. الهدف كان إدخال آليات حماية أشد صرامة من دون التضحية الكبير بالأداء. وبحسب هواوي فإن النموذج الجديد تراجع بنسبة واحد بالمئة فقط في السرعة والكفاءة، لكنه بات أقدر على صد ما يوصف بـ“المحتوى السام والخطير” أو المثير للجدل السياسي.
وهذا يربط بين التطوير الحالي والتوجه الحكومي الأوسع نحو ضبط الخطاب العام المرتبط بالذكاء الاصطناعي.
تشير بيانات الشركة إلى أن النموذج الآمن ينجح بنسبة تقارب المئة في المئة في تحاشي القضايا السياسية عند الاستخدام الطبيعي. لكن الصورة ليست مثالية تماماً، فعندما يحاول المستخدم خداع النظام عبر ألعاب الأدوار أو تقديم الطلبات بطريقة ملتوية، تتراجع نسبة النجاح بشكل حاد إلى نحو 40 في المئة. هذه الثغرة شبيهة بما يواجهه معظم النماذج العالمية التي قد تنزلق عند التعامل مع سيناريوهات مفترضة أو إشارات غير مباشرة.
هذا الانقسام بين القوة الظاهرية والضعف أمام الحيل يكشف أن التحدي الحقيقي ليس فقط في برمجة النموذج، بل في التفاعلات المعقدة مع المستخدمين.
ما قامت به بكين ليس استثناءً عالمياً. في السعودية مثلاً أطلقت شركة Humain مطلع 2025 مساعداً رقمياً يتحدث العربية بطلاقة ويجسّد الثقافة والقيم الإسلامية، حيث جرى تشكيله بما يتوافق مع البيئة المحلية. ومن الجهة الأخرى، اعترفت شركات أمريكية مثل OpenAI بأن نماذجها تميل نحو “وجهات النظر الغربية” بطبيعتها. هذا الاعتراف أثار نقاشات واسعة: هل يمكن فعلاً ابتكار ذكاء اصطناعي محايد تماماً؟
وهذا يربط بين التجارب الإقليمية المختلفة ويُظهر أن كل دولة باتت تُطوّع التقنية وفق منظورها الخاص.
حتى الولايات المتحدة تسعى إلى هندسة الذكاء الاصطناعي وفق قواعد سياسية. ففي وقت سابق من العام، أعلنت إدارة ترامب عن خطة وطنية للذكاء الاصطناعي تشترط أن تكون النماذج “محايدة” عند التعامل مع المؤسسات الحكومية. غير أن تعريف الحياد هنا لم يخلُ من صبغة سياسية، إذ نصّ أمر تنفيذي على أن النماذج المطابقة يجب أن ترفض مفاهيم مثل “التنوع والإنصاف والشمولية”، والنقاشات المرتبطة بالعنصرية البنيوية أو قضايا الجندر.
هذا يوضح أن النقاش حول الحياد يغدو بحد ذاته موضوعاً أيديولوجياً.
المشهد العام يشير إلى تحوّل الذكاء الاصطناعي من مجرد إنجاز تكنولوجي إلى أداة تعكس القيم الوطنية والثقافات المحلية. إطلاق DeepSeek-R1-Safe يعكس بجلاء هذا التوجه في الصين، لكنه في الواقع جزء من موجة عالمية تشهدها أمريكا، الشرق الأوسط، وأوروبا. التحدي الأساسي الذي يلوح في الأفق ليس فقط كيف نُطور أنظمة أذكى، وإنما كيف نحدد الحدود الثقافية والسياسية التي ستعمل بداخلها هذه الأنظمة.