لهجتك قد تضرّك: روبوتات الدردشة تُظهر تحيزًا لغويًا مقلقًا
لا تزال النماذج اللغوية الضخمة مثل ChatGPT دلالة على التحيّز اللغوي.
عرضت دراسات أن اللغة غير القياسية تُعتبر أقل تعليمًا، مما يعكس أنماط التمييز البشري.
في الهند وأفريقيا، أظهرت التحقيقات تصرفات تفضيلية غير مبررة تجاه اللهجات والطبقات.
جهود جديدة مثل نموذج Meraj تهدف لتحسين ارتباط الذكاء الاصطناعي باللهجات المحلية.
الشمولية الثقافية واللغوية في الذكاء الاصطناعي يجب أن تكون الأولوية لتعزيز الإنصاف والاستماع.
في الوقت الذي تنتشر فيه أدوات الذكاء الاصطناعي في التعليم والعمل والخدمات الحكومية، يظهر وجهٌ أقل إشراقًا لهذه التقنية. فبينما كان يُفترض أن تُقرِّب العالم عبر اللغة، تكشف الدراسات الأخيرة أن النماذج اللغوية الضخمة ما تزال تنحاز ضد المتحدثين بلهجات غير قياسية، في تكرارٍ لأنماط التمييز التي تعاني منها المجتمعات البشرية نفسها.
دراسات 2025: تحيّز لغوي مُقلق في النماذج الضخمة
بحسب أبحاث عُرضت في مؤتمر معالجة اللغات الطبيعية في سوتشو بالصين أواخر عام 2025، فإن نماذج مثل ChatGPT وLlama من ميتا أظهرت ميلاً إلى تنميط المتحدثين باللهجات الألمانية على أنهم "أقل تعليمًا" أو "ينتمون للريف والغضب". هذه النتائج ليست حالة معزولة؛ بل تعززها دراسة من جامعة كاليفورنيا في بيركلي عام 2024 بيّنت أن استجابات ChatGPT لمتحدثي الإنجليزية غير القياسية احتوت على محتوى متحيز بنسبة تصل إلى 25٪ أكثر من المستخدمين الناطقين بالإنجليزية الأمريكية أو البريطانية المعيارية.
التحيّز يمتد إلى اللهجات الإفريقية والهندية
في يوليو الماضي، كشفت دراسة بجامعة كورنيل أن المساعد التسوقي من أمازون، المعروف باسم "روفوس"، قدَّم إجابات ناقصة أو غامضة عندما استخدم المستخدمون الإنجليزية الإفريقية الأمريكية، ومع ازدياد الأخطاء الإملائية أصبحت النتائج أسوأ. أما في الهند، فقد أظهر تحقيق لمجلة MIT Technology Review أن ChatGPT عدّل اسم عائلة أحد المتقدمين للوظائف من "سينغا" إلى "شارما"، في إشارة إلى تفضيل غير مبرر لأسماء الطبقات العليا، ما أثار جدلًا واسعًا حول تأثير القوالب الطبقية داخل خوارزميات الذكاء الاصطناعي.
حين لا تفهم الآلة لغة الناس اليومية
في المملكة المتحدة، فشل المساعد الافتراضي التابع لمجلس مدينة ديربي في فهم مفردات محلية بسيطة مثل "ماردِي" أو "دَك"، ما يؤكد الفجوة بين كيفية تحدث الناس فعلاً، وما تتعلمه النماذج اللغوية من البيانات القياسية. كارولين هولتيرمان، الباحثة المشاركة في دراسة اللهجات الألمانية، ترى أن هذا النوع من التحيز يمكن تصحيحه تقنيًا: "على عكس البشر، يمكننا توجيه النماذج لتجنّب مثل هذه الأنماط فور اكتشافها".
خطوات للاحتواء والتصحيح
تتحرّك بعض الشركات نحو حلول أكثر شمولًا، فشركة Cohere أطلقت نموذج Aya Expanse الذي يدعم 101 لغة، بينما طوّرت Arcee AI نموذج Meraj المخصص للهجات العربية من المصرية إلى الخليجية. هذه المبادرات تمهد لمرحلة جديدة من الذكاء الاصطناعي المحسّن ثقافيًا ولغويًا. في المقابل، تُلزم الصين ابتداءً من مطلع 2026 الشركات بإجراء تقييمات أخلاقية وأمنية على أنظمة الذكاء الاصطناعي، لكن القوانين، كما يشير خبراء، لم تتطرق صراحةً بعد لقضية التحيز تجاه اللهجات.
اللغة كجسر لا كحدّ فاصل
تكشف هذه الدراسات عن حقيقة بسيطة لكنها مؤثرة: اللغة ليست مجرد وسيلة تواصل، بل انعكاس للهوية والكرامة. عندما تتعثر الآلة في فهم اللهجات، فإنها لا تُخطئ لغويًا فحسب، بل تهدد مبدأ الشمول في التكنولوجيا. لذلك، يبدو مستقبل الذكاء الاصطناعي مرتبطًا بقدرته على استيعاب التنوّع في الأصوات والثقافات، لا فقط تحسين دقته في اللغة الرسمية.
من هنا، قد يصبح التحدي الحقيقي أمام مطوري النماذج اللغوية الكبرى ليس في جعلها أذكى، بل في جعلها أعدل وأكثر استماعًا لنبض المستخدمين أينما وجدوا. فالتقنية التي لا تسمع الجميع، تبقى ناقصة مهما بلغت دقتها الحسابية.










