ذكاء اصطناعي

دراسة تكشف: ChatGPT وGemini يعكسان تحيزات جنسية وعرقية ودينية مثيرة للجدل

Abdelrahman Amr
Abdelrahman Amr

3 د

كشفت دراسة من جامعة ولاية بنسلفانيا عن تحيزات في نماذج ذكاء اصطناعي شهيرة.

أُجرِيت تجربة "Bias-a-Thon" لتحديد التحيزات في ChatGPT وGemini رغم تدريبهم الصارم.

تعود هذه الانحيازات إلى البيانات المستخدمة، حيث تعكس التاريخ والواقع المعاش في المجتمعات.

امتدت التحيزات المكتشفة لتشمل الجنس والعرق والدين والعمر، مع كشف الضعف الأخلاقي للنماذج.

الذكاء الاصطناعي يبقى امتدادًا للعقل البشري بعيوبه، ويتطلب إشرافًا مستمرًا لتحقيق المسؤولية.

في كل مرة نفتح فيها تطبيقًا يعتمد على الذكاء الاصطناعي محادثةً أو كتابةً، نعتقد أنه يعكس حيادًا رقميًا لا يتأثر بميول البشر. لكن الدراسات الحديثة بدأت تضع هذه الافتراضات تحت المجهر، كاشفةً عن واقع أكثر تعقيدًا مما كنا نتصور. دراسة حديثة صادرة عن جامعة ولاية بنسلفانيا سلطت الضوء على أن بعض النماذج الشهيرة مثل ChatGPT وGemini قد تُظهر تحيزات جنسية وعرقية ودينية رغم أن الغاية من تطويرها كانت الحياد والفهم الشامل.


اختبار الحياد في عقول رقمية

الدراسة أجرت تجربة أُطلق عليها اسم “Bias-a-Thon”، وهي فعالية تفاعلية طلب فيها الباحثون من المتطوعين ابتكار مطالبات قادرة على كشف التحيز في أنظمة الذكاء الاصطناعي. النتيجة كانت لافتة؛ إذ أظهرت النماذج الأكثر شهرة أداءً أقل حيادًا مما كان متوقعًا. ورغم أن هذه النماذج خضعت لتدريب طويل وقيود صارمة على المحتوى، إلا أنها ما زالت تستجيب أحيانًا بطرق تعكس افتراضات ضمنية أو تمثيلات ناقصة.


خلفية تقنية واجتماعية متشابكة

ما يجعل هذه النتائج مقلقة هو أن التحيز لا ينبع من خوارزمية خبيثة، بل من البيانات التي تغذي النماذج. فالمحتوى الإنساني في الإنترنت يحمل تاريخه الطويل من الانحيازات الطبقية والثقافية، وبالتالي فإن أي نموذج يعتمد عليه سيتأثر به بدرجة ما. من هنا يصبح الذكاء الاصطناعي مرآةً دقيقة للمجتمعات لا لمثالياتها، ويعكس بصدق فجوات التمثيل في العالم الواقعي.


أنماط التحيز وأدوات كشفها

التحيزات التي رُصدت في الدراسة تنوعت بين الجنس والعرق والدين والعمر والإعاقة واللغة وحتى التاريخ والثقافة والسياسة. استخدم الباحثون سبع استراتيجيات للتحفيز، من بينها تمثيل الأدوار وطرح سيناريوهات افتراضية واستغلال الأسئلة الجدلية. هذا التعدد في الزوايا أتاح فهماً أعمق لكيفية استجابة النموذج عندما يوضع تحت ضغط لغوي أو أخلاقي، كاشفًا عن هشاشة في الفلاتر الأخلاقية أمام الذكاء الاصطناعي نفسه.


معضلة الأخلاق في زمن الخوارزميات

التحيز هنا لا يعد مجرد خطأ برمجي يمكن تصحيحه بسطر كود إضافي، بل هو إشكال فلسفي وتقني في آن واحد. هل يمكن لنظام تعلمه مبني على تجارب البشر أن يتجاوز تلك التجارب ويتبنى الحياد الكامل؟ كل محاولة لضبط اللغة وتحييد المخرجات تصطدم بسؤال أعمق حول من يحدد ما هو العدل والإنصاف أصلاً. النماذج الجديدة مثل GPT-5 وGemini 2.5 قد تكون أكثر تطورًا، لكنها لا تزال بحاجة إلى مراقبة مستمرة وإشراك بشري مسؤول في كل مرحلة من مراحل التدريب والتقييم.


ما بين الثقة والشفافية

ذو صلة

هذه النتائج تذكّرنا بأن الذكاء الاصطناعي ليس بديلاً موضوعيًا عن العقل البشري، بل امتدادًا له مع كل ما يحمله من نقائص. مستقبل هذه التقنيات سيتحدد بمدى الشفافية في عرض حدودها، لا بقدرتها على إخفاء أخطائها. ربما لا تزال فكرة "الحياد التام" بعيدة المنال، لكن إدراك وجود التحيز هو الخطوة الأولى نحو صناعة أنظمة أكثر وعيًا ومسؤولية تجاه الإنسان الذي صممها.

ذو صلة