ذكاء اصطناعي

قوة DeepSeek قد لا تكون محلية الصنع: اتهامات باستخدام Gemini من Google سراً في التدريب

قوة DeepSeek قد لا تكون محلية الصنع: اتهامات باستخدام Gemini من Google سراً في التدريب
فريق العمل
فريق العمل

3 د

أعلنت شركة DeepSeek عن نموذجها الجديد R1 بتحسن في الرياضيات والبرمجيات.

أثيرت تساؤلات حول استخدام DeepSeek لمعلومات من نموذج جوجل Gemini.

لم تكن هذه هي الاتهامات الأولى ضد DeepSeek بشأن استخدام المعلومات بشكل غير قانوني.

OpenAI وجوجل تتخذان خطوات لتعزيز حماية بيانات نماذجهما وتقييد استخدامها.

في خطوة ملفتة الأسبوع الماضي، أعلنت شركة الذكاء الاصطناعي الصينية "DeepSeek" عن الإصدار الجديد من نموذجها المسمى "R1"، والذي أظهر تقدمًا واضحًا في اختبارات الرياضيات والبرمجيات. وبينما لم تشر الشركة تحديدًا إلى المصادر التي استعانت بها لتدريب نموذجها، بدأت الشكوك تتسرب بين الباحثين بأن جزءًا من بيانات التدريب قد يكون من نموذج شركة جوجل المعروف باسم Gemini.

انطلقت شرارة هذه التخمينات مع منشور لـ "سام بايش"، وهو مطور برمجي من مدينة ملبورن متخصص في تقييم سلوكيات الذكاء الاصطناعي، حيث قدم في حسابه على منصة X دليلاً يشير إلى أن النموذج R1-0528 الجديد من DeepSeek يعطي الأفضلية لكلمات وتعابير مشابهة لتلك التي يستخدمها نموذج "Gemini 2.5 Pro" من جوجل، وهو ما يثير تساؤلات جدية حول طبيعة المصادر والأصول التي تعتمد عليها الشركة الصينية في تطوير تقنيتها.

ولا تتوقف الشكوك عند هذا الحد، إذ لاحظ مطور آخر يعرف باسم مستعار ويقف وراء أداة "SpeechMap" لتقييم حرية الكلام لدى نماذج الذكاء الاصطناعي، أن "المسارات المنطقية" (Traces) التي يُظهرها نموذج DeepSeek بدت وكأنها مقتبسة حرفيًا من أساليب نماذج Gemini، مما عزز الاعتقاد بأن هناك تشابهًا غير عادي بين الإثنين.

وهذه ليست المرة الأولى التي تواجه فيها DeepSeek مثل هذه الاتهامات؛ ففي ديسمبر الماضي وجدت الشركة نفسها في قلب اتهامات مشابهة حين لاحظ المطورون أن نموذجًا سابقًا لها كان في بعض الأحيان يُعرّف نفسه باعتباره ChatGPT، النموذج الشهير من شركة OpenAI. هذه الأحداث دفعت OpenAI للتحقيق حول ممارسة DeepSeek أسلوب "التقطير" (Distillation)، وهو تقنية شائعة لاستنباط البيانات من نماذج كبيرة، لكن شروط استخدام OpenAI تمنع استخدامها لتطوير تقنيات منافسة بشكل صريح.

لكن ما زاد الأمور تعقيدًا هذه المرة هو ظهور تقرير من Bloomberg يؤكد أن مايكروسوفت، الشريك الاستراتيجي لـ OpenAI، اكتشفت أواخر 2024 كمية ضخمة غير عادية من البيانات التي تم سحبها من حسابات المطورين لدى OpenAI، وهي حسابات يُعتقد بارتباطها المباشر مع الشركة الصينية. مثل هذه التصريحات زادت الضغوط على DeepSeek، مما دفع الشركتين الكبيرتين – OpenAI وGoogle – لاتخاذ إجراءات احترازية إضافية لحماية نماذجهما.

وفي محاولة لوقف هذه الظاهرة، أعلنت OpenAI في إبريل الماضي بأنها ستطلب تأكيد الهويات بشكل رسمي للراغبين في استخدام نماذجها الأكثر تقدمًا، مع استبعاد الصين من قائمة الدول المستفيدة من هذه الخدمة. على الجبهة الأخرى، بدأت جوجل وشركة Anthropic بإجراءات مشابهة، تشمل تلخيص تفاصيل المسارات المنطقية (tracing logs) لنماذجها، وذلك لتقليل فرص استغلال هذا النوع من البيانات في تدريب نماذج تنافسية.

ذو صلة

في النهاية، يبقى السؤال مفتوحًا حول ما إذا كانت DeepSeek قد استعانت فعلاً بمخرجات Gemini في تطوير نموذجها، أم أن ما نشهده مجرد تداخل منطقي طبيعي نتيجة استخدام كل هذه النماذج بيانات مفتوحة مشابهة على الإنترنت؟ الأكيد هو أن هذه القضية ستعيد إلى الواجهة مرة أخرى تحديات حماية حقوق الملكية الفكرية في عالم الذكاء الاصطناعي، وستفرض على المطورين مزيدًا من المسؤولية حول بياناتهم.

ربما يكون من الأفضل في التقارير المقبلة أن تزيد DeepSeek من الشفافية حول أساليب تدريب نماذجها ومصادر بياناتها بشكل يساعد على بناء الثقة، وإلا فإنها ستواصل مواجهة هذه التساؤلات التي قد تؤثر سلبًا على سمعتها في سوق التكنولوجيا الدولية.

ذو صلة