ذكاء اصطناعي

جوجل تصر على تقييد Gemini سياسيًا رغم انفتاح المنافسين

فريق العمل
فريق العمل

3 د

رغم تخفيف قيود المنافسين، لا يزال Gemini من جوجل يرفض الرد على العديد من الأسئلة السياسية.

بعد انتهاء الانتخابات الكبرى، لم تصدر جوجل أي إعلان عن تغيير سياساتها في هذا الصدد.

في بعض الحالات، أخفق Gemini في تقديم إجابات صحيحة حول هوية الرئيس الأميركي ونائبه.

بدأتشركات مثل OpenAI وAnthropic  في تبني سياسات جديدة تتيح تقديم إجابات سياسية أكثر حرية ودقة.

في الوقت الذي تعمل فيه العديد من شركات الذكاء الاصطناعي المنافسة، مثل OpenAI وAnthropic وMeta، على تحسين قدرة روبوتاتها الذكية على معالجة القضايا السياسية الحساسة، يبدو أن جوجل تتخذ نهجًا أكثر تحفظًا، ما يجعلها استثناءً في هذا المجال.

كشف اختبار أجرته TechCrunch أن روبوت الدردشة الذكي Gemini من جوجل يرفض الرد على العديد من الأسئلة المتعلقة بالسياسة، ويكتفي بالإشارة إلى أنه "لا يمكنه المساعدة في الإجابة عن الأسئلة المتعلقة بالانتخابات والشخصيات السياسية في الوقت الحالي". بينما في المقابل، أظهرت روبوتات أخرى مثل Claude من Anthropic وMeta AI من ميتا وChatGPT من OpenAI استجابة واضحة لنفس الأسئلة المطروحة.


سياسة التقييد مستمرة بعد انتهاء الانتخابات

في مارس 2024، أعلنت جوجل أن Gemini لن يجيب على الأسئلة المتعلقة بالانتخابات حتى انتهاء سلسلة من الاستحقاقات الانتخابية في الولايات المتحدة والهند وغيرها من الدول، وهو نهج اتبعته العديد من شركات الذكاء الاصطناعي خشيةً من تقديم معلومات خاطئة قد تثير انتقادات واسعة.

ولكن مع انتهاء هذه الانتخابات الكبرى، لم تصدر جوجل أي إعلان رسمي بشأن تعديل سياستها الخاصة بكيفية تعامل Gemini مع القضايا السياسية. وعند استفسار TechCrunch، رفض متحدث باسم جوجل التعليق على ما إذا كانت الشركة قد غيرت سياساتها المتعلقة بهذا الأمر.


إخفاقات متكررة في الإجابة عن الأسئلة السياسية

أظهر الاختبار الذي أجرته TechCrunch أن Gemini لم يتمكن من تقديم إجابة واضحة عند سؤاله عن هوية الرئيس الأميركي ونائبه الحاليين، حيث تجنب إعطاء أي رد قاطع في بعض الحالات. في إحدى الحالات، أشار الروبوت إلى دونالد ترامب على أنه "الرئيس السابق".

لكنه رفض الإجابة عن سؤال متابعة لتوضيح موقفه، مما يشير إلى ارتباك في معالجة المعلومات السياسية الحديثة.

وفي رد رسمي، أوضحت جوجل أن الخلل يعود إلى أن نموذج الذكاء الاصطناعي يمكن أن يتعامل مع المعلومات القديمة بشكل غير دقيق أو يواجه ارتباكًا عند التعامل مع شخصيات سياسية تولت مناصب غير متتالية، مؤكدةً أنها تعمل على تصحيح هذا الخطأ.


تحديثات متأخرة واستجابات غير متسقة

بعد أن نبهت TechCrunch شركة جوجل إلى المشكلة، بدأ Gemini في تقديم إجابة صحيحة، مشيرًا إلى أن دونالد ترامب هو الرئيس الأميركي الحالي، وجي دي فانس هو نائبه. إلا أن الأمر لم يكن سلسًا بالكامل، حيث استمر الروبوت في بعض الأحيان في رفض الإجابة عن الأسئلة السياسية.


التوازن بين الدقة والرقابة

يبدو أن جوجل تعتمد نهج الحذر الشديد في تعاملها مع الأسئلة السياسية، رغم أن هذه الاستراتيجية قد تؤدي إلى انتقادات واسعة، لا سيما في ظل سعي الشركات المنافسة إلى تقليل القيود على استجابات الذكاء الاصطناعي.

وقد اتهم عدد من مستشاري ترامب في وادي السيليكون، مثل مارك أندريسن وديفيد ساكس وإيلون ماسك، شركات التكنولوجيا الكبرى، بما في ذلك جوجل وOpenAI، بممارسة "الرقابة على الذكاء الاصطناعي" من خلال تقييد إجابات روبوتاتها على الأسئلة السياسية.

ومع فوز ترامب في الانتخابات الأخيرة، بدأت العديد من مختبرات الذكاء الاصطناعي في تبني نهج جديد يهدف إلى تحقيق توازن بين تقديم إجابات سياسية دقيقة وتجنب إثارة الجدل، عبر برمجة روبوتاتها لعرض وجهات نظر متعددة حول القضايا الخلافية. وعلى الرغم من نفي هذه الشركات أن يكون هذا التغيير نتيجة لضغوط سياسية، فإن التأثير السياسي على هذا المجال أصبح واضحًا.

مؤخرًا، أعلنت OpenAI أنها ستتبنى سياسة "حرية فكرية كاملة"، مؤكدةً أن روبوتاتها لن تمارس الرقابة على أي وجهة نظر، مهما كانت مثيرة للجدل. كما صرّحت Anthropic بأن نموذجها الأحدث Claude 3.7 Sonnet أصبح أقل تقييدًا في رفض الإجابة عن الأسئلة مقارنة بالإصدارات السابقة، حيث بات قادراً على التمييز بين الإجابات الضارة وتلك التي تحمل معلومات ذات قيمة.

ذو صلة

جوجل في موقف متأخر

لا يعني هذا أن جميع روبوتات الذكاء الاصطناعي الأخرى تقدم إجابات صحيحة دائمًا عند طرح الأسئلة السياسية المعقدة، إلا أن جوجل تبدو متأخرة بخطوة عن منافسيها في التعامل مع هذا التحدي، خاصة مع استمرار النهج التحفظي لـ Gemini مقارنة ببقية السوق.

ذو صلة