ذكاء اصطناعي

عندما تسأل Grok وChatGPT عن الحقيقة.. لوس أنجلوس تشتعل والـAI يصب الزيت على النار

عندما تسأل Grok وChatGPT عن الحقيقة.. لوس أنجلوس تشتعل والـAI يصب الزيت على النار
دعاء رمزي
دعاء رمزي

3 د

اندلعت احتجاجات في لوس أنجلوس ضد العمليات الأمنية على المهاجرين غير الشرعيين.

انتشرت شائعات مضللة ادعت وجود أجندات سياسية خفية وراء الاحتجاجات.

لجأ مستخدمون لروبوتات الذكاء الاصطناعي للتحقق، لكنها قدمت معلومات خاطئة.

أثرت هذه الأخطاء على الوضع الإعلامي وزادت التضليل في الأحداث.

يبرز الاعتماد الزائد على الذكاء الاصطناعي مخاطر في التحقق من الأخبار.

انتشرت خلال الأيام القليلة الماضية شائعات ومعلومات مضللة بشكل واسع حول الاحتجاجات الشعبية التي اندلعت مؤخراً في لوس أنجلوس، وشهدت صفحات وسائل التواصل الاجتماعي انتشاراً كبيراً لتلك المعلومات الخاطئة، مما زاد من حالة الارتباك لدى المتابعين. ومن الغريب أن ينتشر هذا التضليل بشكل أوسع نتيجة لجوء الناس إلى روبوتات الذكاء الاصطناعي كأدوات للتحقق من صحة الأخبار، وتحديداً أدوات مثل "جروك" (Grok) و"شات جي بي تي" (ChatGPT).

بدأت هذه الاحتجاجات كرد فعل من سكان المدينة رفضاً للعمليات الأمنية المتزايدة التي تنفذها السلطات الأميركية ضد المهاجرين غير الشرعيين. لكن بعض الشائعات التي انتشرت عبر منصات مثل "إكس" (X - سابقاً تويتر) وفيسبوك، زعمت بأن المحتجين مدفوعون بأجندات سياسية خفية ومنظمون من قِبل جهات غامضة، دون تقديم أدلة تدعم هذه الادعاءات. واستُخدمت في هذه الحملات التضليلية صور ومقاطع فيديو قديمة أو حتى لقطات من ألعاب فيديو وأفلام سينمائية لإيهام الناس بأنها من الحدث الحالي.

ووسط سرعة تدفق الأخبار وغياب الرقابة الكافية من قبل منصات التواصل الاجتماعي مثل ميتا وإكس، وجد العديد من المستخدمين أنفسهم يلجؤون إلى روبوتات الذكاء الاصطناعي بحثاً عن إجابات دقيقة. ورغم ثقتهم في هذه الروبوتات، كانت النتيجة في الكثير من الأحيان خاطئة ومضللة، مما ساهم في تفاقم الأزمة الإعلامية.

وفي حادثة مثيرة للجدل، تداول حاكم ولاية كاليفورنيا، غافن نيوسوم، صوراً نشرها موقع "سان فرانسيسكو كرونيكل"، تُظهر جنود الحرس الوطني الأميركي وهم نائمون على الأرض، مدعياً إهمال السلطات الفدرالية تجاههم. وسرعان ما شكك عدد من المستخدمين، من بينهم مؤيدة لنظرية المؤامرة لورا لومر، في مصداقية تلك الصور، معتبرين أنها غالباً ما تكون صوراً مولدة عبر الذكاء الاصطناعي أو من أماكن وأحداث سابقة، وليست من الوضع الحالي في لوس أنجلوس.

وانطلاقاً من هذا الالتباس، لجأ بعض المستخدمين بحثاً عن التحقق من صحة الصور بالاستفسار من الروبوت "جروك"، والذي بدوره وقع بنفسه في الخطأ، وزعم أن الصور مأخوذة من عمليات إخلاء في أفغانستان عام 2021، رغم أن مصدرها الأصلي كان واضحاً في "سان فرانسيسكو كرونيكل". ليس "جروك" وحده من تسبب في انتشار التضليل؛ فقد كرر روبوت "شات جي بي تي" نفس الخطأ، بنسبه الصور إلى العاصمة الأفغانية كابل خلال انسحاب القوات الأميركية عام 2021. انتقلت هذه المعلومة الخاطئة بسرعة إلى منصات متعددة، لتزيد الوضع سوءاً في احتدام الجدل الإلكتروني.

وجاء موقف شبيه بشأن صورة أخرى، تظهر أكواماً من الحجارة بزعم أنها وضعت تمهيداً للقيام بأعمال شغب في لوس أنجلوس. رغم أن المواقع المعنية بالتحقق من الأخبار أثبتت أن الصورة ملتقطة في ولاية نيوجرسي وليس كاليفورنيا، فإن "جروك" واصل نشر معلومات مضللة، وأصر على أن الصورة التُقطت مؤخراً في لوس أنجلوس.

ذو صلة

هذا الربط بين استخدام الروبوتات وانتشار التضليل يسلط الضوء بوضوح على مخاطر الاعتماد الكامل على تقنيات الذكاء الاصطناعي للتحقق من الأخبار في حالات الأزمات والاضطرابات الاجتماعية. إن الاعتماد الزائد على هذه الأدوات يمكن أن يؤدي لتأجيج الأزمات، خصوصاً عندما تختلط الحقائق الأكيدة بالمعلومات المزيفة.

لذلك، فإن الحل لتحسين هذا الوضع لا يكمن في التخلي عن تقنيات الذكاء الاصطناعي، بل في السعي لتطويرها وتحسين قدراتها على التحقق الدقيق. وبشكل موازٍ، من الحكمة تشجيع الجمهور على عدم الاكتفاء بهذه الروبوتات وحدها، بل الاستفادة من مصادر معلومات متنوعة وموثوقة للتأكد من صحة الأخبار، وهو ما يمنح الإنسان القدرة على تحقيق رؤية أكثر وضوحاً ومصداقية في زمن الأخبار السريعة والتكنولوجيا الرقمية المتطورة.

ذو صلة