بلا مراجعين بشريين… نظام ذكي يراجع تحديثات إنستغرام وواتساب في ميتا

3 د
"ميتا" تعتزم أتمتة 90% من تقييمات الخصوصية لمزايا جديدة في تطبيقاتها باستخدام الذكاء الاصطناعي.
تأتي الخطة في إطار اتفاق قانوني ملزم مع لجنة التجارة الفيدرالية يعود إلى عام 2012.
حذر خبراء سابقون من مخاطر تقليص دور العنصر البشري في قرارات حساسة.
تؤكد الشركة استمرار الاعتماد على البشر في التقييمات المعقدة، مع استخدام الذكاء الاصطناعي لتسريع القرارات منخفضة الخطورة.
في خطوة مثيرة للجدل تعكس توجهًا متسارعًا نحو الأتمتة، تعتزم شركة "ميتا" استبدال التقييمات البشرية لمخاطر الخصوصية والأمان في تطبيقاتها الرئيسية – مثل إنستغرام وواتساب – بنظام ذكي يعتمد على تقنيات الذكاء الاصطناعي، وفقًا لما كشفته وثائق داخلية حصلت عليها إذاعة NPR الأميركية.
تقييم الخصوصية: من البشر إلى الخوارزميات
بحسب التقرير، فإن هذا التحول يندرج ضمن التزامات قانونية سابقة تعود إلى اتفاق أُبرم عام 2012 بين "فيسبوك" – قبل إعادة تسميتها إلى "ميتا" – ولجنة التجارة الفيدرالية الأميركية (FTC). هذا الاتفاق يلزم الشركة بإجراء مراجعات داخلية دقيقة لأي تحديثات قد تمس خصوصية المستخدمين. حتى اليوم، كانت تلك المراجعات تُجرى غالبًا بواسطة خبراء بشريين.
لكن الخطة الجديدة تقضي بأن تملأ فرق العمل داخل "ميتا" استبيانًا حول التحديث أو الميزة الجديدة، ليقوم النظام الذكي فورًا بتحليل المعلومات وتحديد "المخاطر المتوقعة"، بالإضافة إلى عرض المتطلبات التنظيمية التي يجب على المنتج تلبيتها قبل إطلاقه.
سرعة على حساب الحذر؟
هذا النظام، وفقًا لتقرير NPR، قد يُسرّع من وتيرة إطلاق التحديثات والميزات الجديدة، وهو ما تسعى إليه "ميتا" في ظل سوق رقمي شديد التنافسية. لكن في المقابل، حذّر أحد المديرين التنفيذيين السابقين في الشركة من أن:
"الاعتماد المفرط على الأتمتة يفتح الباب أمام أخطاء يصعب تداركها لاحقًا"، مؤكدًا أن "الآثار السلبية للتغييرات قد لا يتم رصدها في الوقت المناسب"
رد الشركة: استثمار ضخم في الخصوصية... وتوازن بين الذكاء الاصطناعي والبشر
في بيان رسمي لـ"ميتا"، أكدت الشركة أنها أنفقت أكثر من 8 مليارات دولار على برامج حماية الخصوصية، وأنها لا تزال ملتزمة تمامًا باحترام القوانين التنظيمية، وتقديم منتجات مبتكرة في الوقت نفسه.
وقالت المتحدثة باسم "ميتا":
"مع تطور المخاطر ونضوج برامجنا، نقوم بتحسين إجراءاتنا من أجل رصد المخاطر بدقة أكبر، وتسريع اتخاذ القرارات، وتحسين تجربة المستخدمين. نعتمد على التكنولوجيا لتوفير تقييمات أكثر اتساقًا في الحالات منخفضة المخاطر، فيما نعتمد على الخبرة البشرية لمعالجة القضايا المعقدة والجديدة."
وبذلك، توضح الشركة أنها لا تنوي الاستغناء تمامًا عن العنصر البشري، بل ترى في الذكاء الاصطناعي وسيلة لتعزيز الكفاءة في المسارات الروتينية، بينما تحتفظ بسلطة الخبراء البشريين في القضايا الحساسة أو غير المسبوقة.
خلفيات أوسع: ما الذي يدفع "ميتا" لهذا التحول الآن؟
تأتي هذه الخطوة في وقت تخضع فيه شركات التكنولوجيا الكبرى لمراقبة مشددة من قبل الجهات التنظيمية، خصوصًا فيما يتعلق بجمع البيانات واستخدامها، وسجل "ميتا" الحافل بالمخالفات في هذا المجال يجعل أي خطوة تتعلق بالخصوصية موضع تدقيق.
وفي الوقت ذاته، تواجه "ميتا" منافسة حادة من شركات مثل "تيك توك" و"سناب"، ما يضعها تحت ضغط متزايد لتحديث منتجاتها بشكل أسرع وأكثر ابتكارًا.
لكن الرهان على الذكاء الاصطناعي في عمليات مراجعة المخاطر، رغم ما قد يوفره من مرونة وسرعة، لا يخلو من جدل، خصوصًا إذا أدى إلى تراجع في معايير السلامة أو الخصوصية، أو فشل في اكتشاف مشكلات جوهرية قبل ظهورها للعامة.
هل سيظل الإنسان ضامنًا لسلامة التقنية؟
التحول نحو الأتمتة في شركة بحجم وتأثير "ميتا" يفتح بابًا واسعًا للنقاش: هل يمكن للذكاء الاصطناعي أن يكون حكمًا موثوقًا في قضايا تتعلق بالمجتمع، الخصوصية، والسلوك البشري؟ أم أن دوره يجب أن يظل مساعدًا لا بديلاً؟
في ظل عدم اليقين المحيط بالتكنولوجيا الحديثة، من الواضح أن الحفاظ على توازن دقيق بين السرعة والمسؤولية، وبين الأتمتة والرقابة البشرية، سيكون التحدي الأكبر لشركات التكنولوجيا العملاقة خلال السنوات القادمة.