مقطع مصنطع عن طريق Deepfake ينجح في خداع سياسيين بارزين

3 د
انتشر فيديو مزيف باستخدام تقنية "Deepfake" يُظهر طلابًا يعارضون محاكمة سارة دوتيرتي.
نجح الفيديو في خداع سياسيين بارزين بينهم السيناتور رونالد ديلا روزا.
أُعيد نشر الفيديو على نطاق واسع مما أوقع الناس في وهم شعبي مزيف.
تواجه الديمقراطية تحديًا بمنع تقنيات الذكاء الاصطناعي من تقليد الحقائق.
الحكومات بحاجة إلى قوانين واضحة لمواجهة خطر التزييف الرقمي الجديد.
قبل أيام قليلة انتشر على منصة فيسبوك مقطع فيديو يصوّر طلابًا فلبينيين يعارضون محاكمة نائبة الرئيس سارة دوتيرتي. للوهلة الأولى، بدا الأمر طبيعيًا وواقعيًا بشكل مذهل، خاصة وأن الفيديو صُنع بطريقة المقابلات العفوية "في الشارع". وخلال ساعات قليلة، حصد الفيديو آلاف المشاركات من صفحات لها توجهات داعمة لنائبة الرئيس وعائلتها، وازدحمت التعليقات بالمشاهدين الذين أعربوا عن تضامنهم واتفاقهم معه.
لكن المفاجأة الصادمة كانت تكمن في أن هذه المشاهد كلها لم تكن حقيقية؛ فالأشخاص الذين يظهرون في الفيديو، وكذلك أصواتهم وحركاتهم، كانت مصنوعة بالكامل بتقنية الذكاء الاصطناعي. إنها تقنية مُحيرة تعرف بالـ "Deepfake"، حيث تُنتج مشاهد فيديو مدمجة بدقة متناهية، تجعل من الصعب التمييز بين ما هو حقيقي وما هو مُصطنع.
الأخطر أن هذا المقطع المصطنع نجح في خداع سياسيين بارزين أيضًا. فالسيناتور الفلبيني رونالد ديلا روزا شارك الفيديو ظنًا منه أنه يُظهر أصواتًا حقيقية من المجتمع الطلابي. وحتى بعد أن تبيّن حقيقة الفيديو المُصنع، صرح السيناتور أن المقطع يعكس، بالفعل، آراء شريحة واسعة من المجتمع، مُصرًا على دعمه لمحتوى الفيديو وإن كان غير حقيقي.
وهنا تحديدًا تكمن الخطورة الأكبر؛ فالقضية لم تعد مجرد نشر فيديو مزيف بهدف التضليل الفردي، بل صارت استخدامًا واسعًا ومدروسًا لتقنيات ذكاء اصطناعي متطورة من أجل خلق وهم شعبي أو إجماع مزيف. هذه الأساليب الجديدة في التضليل، التي يمكن تسميتها "الأصالة الاصطناعية"، لم تعد تكتفي بنشر الأكاذيب، بل باتت تقلّد بشكل متقن المشاعر واللهجات وأسلوب الحوار وحتى لغة الجسد، ما يجعلها تبدو واقعية تمامًا.
وما يزيد القلق هنا، أن هذا الفيديو لم يُنشَر مرة واحدة فقط، بل تم إعادة نشره وتوزيعه عبر عشرات الصفحات التي تتبنى توجهات مختلفة، ليصل عدد المشاركات في يوم واحد لأكثر من 27 ألف مشاركة، ما أدى لخلق حالة من التضليل الجماعي وإيهام الناس أن هناك إجماعًا شعبيًا على قضية معينة، من دون أن يكون لهذا الإجماع أية أصول حقيقية تُذكر.
وهذا ما يربط بين هذه الحادثة ودورها في إضعاف النقاش المجتمعي الحقيقي؛ فإذا كنت من داعمي النائبة دوتيرتي أو حتى من معارضيها، فإن انتشار مثل هذه الفيديوهات يجب أن يثير مخاوفك. فالعملية الديمقراطية الحقيقية لا يمكن أن تقوم على الخداع أو التضليل. وإذا كان الهدف إثبات براءتها أو تأييد موقفها، فيجب أن يحدث ذلك ضمن إطار قانوني ودستوري شفّاف، لا عبر فيديوهات مصطنعة توهم الرأي العام، وتضرّ بالثقة المجتمعية والسياسية.
بالطبع، المسؤولية لا تتوقف فقط على الجهات المُصنِّعة لهذا التضليل، بل تشمل الشركات الكبرى مثل "ميتا"، المسؤولة عن مراقبة المحتوى وتعريف المستخدمين بطبيعة المقاطع المُصنَّعة بالذكاء الاصطناعي. ويبدو أن الأنظمة المستخدمة حاليًا غير كافية أو تحتاج إلى تحديثات جدية لتتماشى مع التطور التقني الجديد والمتسارع لهذه التقنيات.
على الجانب الآخر، ما زالت الحكومات في أنحاء العالم، ومنها الفلبين، بحاجة ماسة إلى صياغة تشريعات وتنظيمات واضحة لمواجهة هذه الظاهرة. لا بد من الاهتمام بشكل مكثّف بنشر ثقافة "الوعي الإعلامي" بين أفراد المجتمع، وكذلك إلزام منصات التواصل الاجتماعي بالضوابط والقواعد الواضحة التي تكفل إيقاف أو على الأقل الحدّ من تأثير هذه الفيديوهات.
في النهاية، يبقى الوعي والمعرفة هما الحماية الحقيقية أمام مخاطر "التزييف الواقعي" التي تصنعها الفيديوهات المضللة، والتي إذا لم تُعالَج قد تتطور إلى مراحل أخطر، قد تضمّ تزييفًا للآراء الانتخابية، أو تشويهًا للأراء المجتمعية أو التاريخ.
لذا من الضروري أن نتحرك لوقف هذا التلاعب والتزوير الرقمي الجديد، من خلال القوانين الواضحة، والمجتمع الواعي، والمنصات المسؤولة. فالخطر صار حقيقيًا، والمطلوب ليس مجرد الردّ، بل الوقاية الاستباقية، حتى لا نجد أنفسنا غدًا أمام واقع مزيف بالكامل لم تصممه سوى الآلات، ولم يبقَ للمواطن سوى أن يتقبله على أنه الحقيقة الوحيدة.