جوجل تسحب جيما من AI Studio بعد أزمة تشهير تورّطت فيها عارضة أزياء وسيناتور أمريكية
جوجل تسحب نموذج «Gemma» بعد اتهامات بالتشهير ضد السيناتور بلاكبيرن.
النموذج قدّم معلومات مختلقة ولم يكن مصممًا للاستعلامات الواقعية.
الخلاف يعيد للواجهة توترات بين جوجل والحزب الجمهوري حول انحياز الخوارزميات.
بلاكبيرن تذكر بتورط النموذج في مزاعم سابقة ضد ناشطين جمهوريين.
النموذج يثير تساؤلات حول مصداقية الذكاء الاصطناعي ومسؤولية الشركات عنه.
في خطوة مفاجئة أثارت جدلاً واسعاً في الأوساط السياسية والتقنية، أعلنت شركة جوجل سحب نموذج الذكاء الاصطناعي «Gemma» من منصة **AI Studio**، وذلك بعد أن اتهمته السيناتور الأمريكية **مارشا بلاكبيرن** بتلفيق مزاعم غير صحيحة تمس سمعتها.
بداية الأزمة
القصة بدأت عندما كشفت بلاكبيرن، وهي عضوة جمهورية عن ولاية تينيسي، أن النموذج أجاب بشكل خاطئ على سؤال طرحه أحد المستخدمين حول ما إذا كانت قد وُجهت إليها تهم اغتصاب. وجاء رد النموذج متضمناً تفاصيل مختلقة تشير إلى واقعة مزعومة تعود لعام 1987، وهو ما وصفتته السيناتور بأنه اختلاق كامل لا يمت للواقع بصلة. وأوضحت في رسالة وجهتها إلى المدير التنفيذي لجوجل **سوندار بيتشاي** أن هذه الروابط التي أوردها النموذج لاستناد مزاعمه إما تؤدي إلى صفحات خطأ أو إلى مقالات غير ذات صلة.
وهذا يربط بين الخطأ التقني لما يسمى في عالم الذكاء الاصطناعي بـ«الهلوسة» وبين مسألة **المسؤولية القانونية عن المحتوى الناتج عن النماذج الذكية**، وهو ملف حساس يثير قلقاً متزايداً داخل واشنطن.
رد جوجل والبعد السياسي
جوجل بدورها لم تتجاهل الموقف، إذ أوضحت في منشور على منصة **X** أنها رصدت محاولات من مستخدمين غير مطورين لاستخدام «Gemma» لأغراض استعلامات واقعية مؤكدة أن النموذج لم يُصمم لذلك الغرض. وأكدت الشركة أنها لم تكن تنوي طرح «Gemma» كأداة استهلاكية عامة بل كإطار خفيف للمطورين يمكن دمجه في تطبيقاتهم عبر **واجهة برمجة التطبيقات (API)** فقط.
ومن هنا، قررت إزالة النموذج من واجهة AI Studio مؤقتاً فيما أبقت عليه متاحاً عبر واجهات البرمجة الخاصة بالشركات.
وهذا الموقف يعيد إلى الواجهة توترات قديمة بين الحزب الجمهوري وعملاق البحث، إذ طالما اتهم المحافظون وادي السيليكون بانحياز خفي ضدهم عبر خوارزميات البحث والمنصات الرقمية.
تحركات ومطالبات جديدة
السيناتور بلاكبيرن ذكّرت في رسالتها بأن هذه ليست الحادثة الأولى، مشيرة إلى دعوى قضائية رفعها الناشط الجمهوري **روبي ستاربك** ضد جوجل، اتهم فيها نماذجها ـ ومنها «Gemma» ـ بنشر مزاعم تشهيرية ضده. وأضافت أن تبرير الشركة لما حدث على أنه «هلوسة رقمية» لا يعفيها من المسؤولية، بل يضعها أمام «فعل تشهير صادر عن منتج تملكه وتوزعه».
وتتزامن هذه القضية مع موجة أوسع من الانتقادات داخل الدوائر المحافظة حول ما يسمى «الرقابة اليسارية في الذكاء الاصطناعي»، خصوصاً بعد توقيع الرئيس السابق **دونالد ترامب** على أمر تنفيذي يحظر ما وصفه بـ«الذكاء الاصطناعي الواعي سياسياً».
وهذا يربط بين الجدل القائم وبين اتجاهات أوسع تحاول رسم حدود جديدة بين **حرية التعبير، أخلاقيات الذكاء الاصطناعي، وحماية السمعة الشخصية**.
خلفية تقنية
نموذج Gemma ينتمي إلى فئة النماذج الخفيفة مفتوحة المصدر التي طورتها جوجل في إطار منافسة متسارعة مع شركات مثل **OpenAI** و**Anthropic**. ويتيح للمطورين بناء تطبيقات تعتمد على معالجة اللغة الطبيعية والتوليد النصي بطريقة موفرة للموارد. لكن حادثة بلاكبيرن أعادت طرح تساؤلات صعبة:
هل يمكن لنماذج مفتوحة المصدر أن تظل تحت سيطرة مطوريها عندما تُستخدم على نطاق واسع؟ وهل يمكن توثيق مخرجات الذكاء الاصطناعي بما يضمن مصداقية المعلومات؟
خاتمة
بسحب «Gemma» من AI Studio، تكون جوجل قد اختارت التهدئة على المدى القصير، لكنها تواجه تحدياً أطول أمداً يتمثّل في استعادة الثقة العامة في نماذجها الذكية. ومع احتدام التنافس العالمي في مجال **الذكاء الاصطناعي التوليدي**، تبدو المسؤولية الأخلاقية والقانونية للشركات أكثر تعقيداً من أي وقت مضى. فبين الابتكار والانضباط، يبقى السؤال معلقاً: من يراقب عقل الآلة؟










