جدل واسع بعد استشهاد ChatGPT بمصادر مشكوك فيها
كُشف أن نموذج GPT-5.
2 استشهد بموسوعة Grokipedia في قضايا حساسة، مما أثار قلقًا واسعًا.
تُواجه Grokipedia انتقادات لانخفاض مصداقيتها واعتمادها على مراجع متطرفة أو مسيّسة.
تعتمد Grokipedia نظام تحرير مركزيًا، مما يقلل من فرص التصحيح السريع للمعلومات المضللة.
تجنب ChatGPT الاستشهاد بمصادر غير موثوقة في قضايا حساسة، مما يشير لفلاتر أمان.
تُظهر الواقعة أهمية بناء أنظمة ذكاء اصطناعي تفهم السياق والمصداقية وليس فقط اللغة.
في المختبرات الهادئة التي تُفترض فيها الحيادية القصوى، لا يُفترض أن تتسلل الأصوات المشوشة. لكن تقريرًا حديثًا أعاد فتح نقاش قديم حول مصادر المعرفة التي تعتمد عليها نماذج الذكاء الاصطناعي، بعدما كُشف أن أحدث نماذج OpenAI، وهو GPT-5.2، استشهد بموسوعة Grokipedia المدعومة من إيلون ماسك كمصدر في قضايا حساسة، وهو ما أثار قلق الباحثين والمراقبين.
GPT-5.2 ومصادر المعرفة غير الموثوقة
وفقًا لتحقيق أجرته صحيفة The Guardian، استشهد النموذج بعدة مواد من Grokipedia أثناء الإجابة عن أسئلة تتعلق بالبنية السياسية لإيران وسيرة مؤرخين بارزين. المشكلة لا تكمن فقط في الاستشهاد، بل في طبيعة المصدر نفسه، إذ تواجه Grokipedia انتقادات واسعة بسبب اعتمادها على مراجع وُصفت بأنها منخفضة المصداقية أو مُسيّسة.
في بعض الحالات، تجاوزت إجابات ChatGPT ما هو متاح في ويكيبيديا، مقدمة ادعاءات أكثر حدة حول علاقات سياسية وأمنية، ما يطرح تساؤلات عميقة حول كيفية وزن المصادر داخل خوارزميات النماذج اللغوية.
Grokipedia بين الطموح والجدل
أُطلقت Grokipedia في أكتوبر 2025 بواسطة شركة xAI، بوصفها محاولة لإعادة تخيل الموسوعة الرقمية باستخدام التحرير المدعوم بالذكاء الاصطناعي. لكنها سرعان ما وجدت نفسها في قلب العاصفة، بعدما أظهرت دراسات أكاديمية احتواءها آلاف الإشارات إلى مواقع متطرفة أو تروّج لنظريات مؤامرة.
على عكس ويكيبيديا، حيث يمكن للمحررين البشر تعديل المحتوى مباشرة، تعتمد Grokipedia نظامًا مركزيًا يسمح فقط باقتراح التعديلات، ما يقلل من فرص التصحيح السريع ويزيد من مخاطر تراكم المعلومات المضللة.
الانتقائية في الاستشهاد تطرح أسئلة
اللافت أن ChatGPT تجنب الاستشهاد بـ Grokipedia عند الإجابة عن موضوعات شديدة الحساسية مثل أحداث اقتحام الكابيتول الأمريكي أو قضايا التحيز الإعلامي. هذا السلوك الانتقائي يوحي بوجود فلاتر أمان أو تقييم داخلي لمستوى التدقيق العام حول بعض القضايا، لكنه في الوقت نفسه يكشف ثغرات واضحة عند التعامل مع موضوعات أقل تسليطًا للضوء.
ماذا يعني ذلك لمستقبل الذكاء الاصطناعي؟
اعترفت OpenAI بأن نماذجها تسعى إلى الاستفادة من طيف واسع من المصادر المتاحة للعامة، مع تطبيق مرشحات أمان للحد من الأضرار المحتملة. ومع ذلك، تُظهر هذه الواقعة أن جودة الذكاء الاصطناعي لا تتفوق على جودة المعرفة التي يتغذى منها، وأن الاعتماد المفرط على مصادر إشكالية قد يضخم الأخطاء بدل تصحيحها.
وفي مشهد تتسابق فيه نماذج مثل ChatGPT وClaude على تقديم إجابات أكثر شمولًا، يبقى التحدي الحقيقي هو بناء أنظمة تفهم السياق والمصداقية بقدر ما تفهم اللغة. فالمستقبل لا يحتاج فقط إلى نماذج أذكى، بل إلى ذاكرة رقمية أنظف وأكثر مسؤولية.










