ذكاء اصطناعي

دراسة مدفونة تظهر الآثار السلبية لإنستغرام وفيسبوك على الصحة النفسية

Abdelrahman Amr
Abdelrahman Amr

3 د

كشفت المحكمة عن مشروع "ميركوري" الذي أظهر تأثير وقف استخدام فيسبوك وإنستغرام على الصحة النفسية.

جهود إخفاء الدراسة تسببت في عاصفة أخلاقية للشركة، مقارنة بمحاولات شركات التبغ لطمس الأضرار.

الوثائق أظهرت سياسات داخلية مثيرة للقلق مثل سياسة "17 مخالفة" على "إنستغرام".

الأزمة تكشف التوتر بين النمو المالي وحماية المستخدمين، مما يؤثر على ثقة الجمهور.

تسعى "ميتا" للتعافي بتحديث أدوات الأمان، لكن الظلال تستمر كتهديد لسمعتها.

في لحظةٍ يتلاقى فيها شغف المعرفة بأسئلة الأخلاق، تهتز صناعة التقنية على وقع كشفٍ جديد يضع "ميتا" في قلب عاصفة أخلاقية وقانونية. فالمحكمة الأميركية فتحت ملفات داخلية تُظهر أن الشركة أوقفت، في عام 2020، مشروعاً بحثياً أطلقته باسم "ميركوري" بعد أن توصّل باحثوها إلى نتيجة غير مريحة: التوقف عن استخدام فيسبوك وإنستغرام لمدّة أسبوع فقط يجعل المستخدمين يشعرون بتحسّن في صحتهم النفسية. هذه النتائج، التي كان من المقرر أن تعلن، طُمست داخلياً، ما أثار تساؤلات عميقة حول صدق العلاقة بين التكنولوجيا ورفاه الإنسان.


مشروع "ميركوري": البحث الذي لم يرَ النور

بحسب وثائق المحكمة، تعاون باحثو "ميتا" مع شركة "نيلسن" لتحليل أثر الابتعاد المؤقت عن المنصتين. النتيجة كانت حاسمة: انخفاض في مستويات الاكتئاب والقلق والمقارنة الاجتماعية. إلا أن الإدارة العليا في "ميتا" اعتبرت الدراسة متأثرة سلفاً بـ"الصورة الإعلامية السلبية" عن الشركة، وقررت إنهاء المشروع بالكامل. في الرسائل الداخلية، حاول بعض العلماء إقناع الإدارة بأن المعطيات صحيحة علمياً، أحدهم حتى شبّه ما يجري بمحاولات شركات التبغ القديمة لإخفاء مخاطر منتجاتها.


دعوى قضائية تكشف المستور

تأتي هذه التفاصيل ضمن دعوى قدمتها مؤسسة قانونية أميركية تمثل أكثر من 1800 مدّعٍ بين مدارس وأولياء أمور وأطفال ومدّعين عامين من ولايات مختلفة، ضد "ميتا" و"غوغل" و"تيك توك" و"سناب شات". جوهر القضية يدور حول اتهام هذه المنصات بإخفاء معلومات تُثبت تسببها في ضرر نفسي للأطفال والمراهقين، بينما كانت تقدم نفسها كأماكن آمنة للتواصل والتعليم والترفيه.


من داخل "ميتا": سياسات مثيرة للقلق

تكشف الوثائق أيضاً تفاصيل صادمة تتعلق بسلامة المستخدمين، منها شهادة مسؤولة سابقة في "إنستغرام" أفادت بوجود "سياسة 17 مخالفة" قبل إغلاق الحسابات التي تُروّج لأنشطة غير قانونية كالاتجار بالبشر. هذه الأرقام تُبرز تناقضاً بين الرسائل التسويقية التي تؤكد التشدد في حماية المستخدمين، وبين ممارسات داخلية تميل لتأجيل أي إجراء قد يقلل من نمو المنصة أو أرباحها.


السلامة في مواجهة الطموح

الوثائق نفسها تعرض محادثات تشير إلى أن "ميتا" كانت تعلم أن تحسين تجربة المراهقين قد يقلل من تفاعلهم، ومع ذلك فضّلت الحفاظ على مؤشرات المشاركة بدلاً من تعديل الخوارزميات. بل نقلت التقارير أن مارك زوكربيرغ نفسه عبّر عن تركيزه على "الميتافيرس" أكثر من قضايا حماية الأطفال. وفي المقابل، نفت الشركة الاتهامات مؤكدةً أن المشروع أُلغي لأسباب منهجية وأن سجلها في دعم سلامة المستخدمين يمتد لأكثر من عقد.


ما وراء الأرقام: أزمة ثقة رقمية

إن الأزمة هنا ليست مجرد نزاع قانوني، بل اختبار لعلاقة المستخدمين بالتقنية التي ترافقهم في كل لحظة من يومهم. حين يشعر الناس بأن المنصات الاجتماعية تُدار بمنطق المصلحة التجارية لا المصلحة العامة، تصبح الثقة رأس المال الأهم الذي يتآكل بصمت. تجربة "ميركوري" تعد مثالاً قاسياً على كيف يمكن للبحث العلمي داخل الشركات أن يتحول من وسيلة للفهم والإصلاح إلى عبءٍ يجب إخفاؤه.

ذو صلة

ربما تسعى "ميتا" اليوم إلى طي هذه الصفحة عبر تطوير ميزات أمان جديدة وغرف تحكم رقمية متقدمة، لكن الظل الذي تركه هذا الملف سيبقى طويلاً. في النهاية، لا يكفي أن تَعِد الشركات بالمسؤولية؛ ما يبرهن على النية الحقيقية هو ما تختار أن تُظهره من بيانات، لا ما تخفيه خلف شاشاتها.

ذو صلة