فيديوهات الذكاء الاصطناعي Sora تشعل الجدل وتغيّر قواعد اللعبة على الإنترنت

3 د
أثار نموذج الفيديو الجديد Sora 2 جدلًا واسعًا بفضل واقعية مذهلة للفيديوهات المدعومة بالذكاء الاصطناعي.
أثار قدرة Sora 2 على تمويه الواقع ارتباكًا كبيرًا لدى المستخدمين والمحتوى الذي يصعب تمييزه عن الحقيقي.
أضافت OpenAI علامة مائية للفيديوهات لتوفير الحماية ضد الأخبار المزيفة والمحتوى المضلل.
إصدار Sora 2 متاح حاليًا داخل الولايات المتحدة وكندا مع خيارات مجانية محدودة.
يواجه تطور Sora تحديًا كيف يمكن استخدامه دون تضليل الجمهور، بينما يتيح فرصًا جديدة للإبداع.
في موجة جديدة من المحتوى الاصطناعي الذي يجتاح الإنترنت، أثار إطلاق نموذج الفيديو الجديد Sora 2 من شركة OpenAI جدلاً واسعًا بعد انتشار آلاف المقاطع التي يصعب التفريق بينها وبين المقاطع الحقيقية. التحديث الذي بدأ طرحه مطلع أكتوبر 2025، وفّر للمستخدمين وسيلة لتوليد فيديوهات واقعية بشكل مذهل، ما جعل الحدود بين الواقع والذكاء الاصطناعي أكثر ضبابية من أي وقت مضى.
مقاطع تحاكي الواقع وتربك المتابعين
تداول مستخدمون عبر منصّات التواصل مقاطع غريبة، مثل دب يهاجم رضيعًا قبل أن تنقذه قطة، أو شخص يسير على الماء بحذاء مبتكر، وتبيّن لاحقًا أن جميعها مقاطع مولّدة عبر Sora 2. قدرة النظام على محاكاة الضوء والانعكاسات والتفاعل الفيزيائي جعلت المقاطع مقنعة إلى حد كبير، ما دفع البعض لتصديقها ونشرها على أنها حقيقية.
سببت موجة المقاطع هذه ارتباكًا فعليًا على الإنترنت، إذ يصعب تمييز المحتوى المولّد عن الحقيقي حتى للمستخدمين المتمرسين. ويبدو أن قوة Sora 2 لا تكمن فقط في توليد الصورة، بل في تزامن الصوت والمؤثرات بطريقة طبيعية تكاد تخدع الخبراء أنفسهم.
كيف حاولت OpenAI مواجهة التضليل؟
على الرغم من هذه الطفرة في جودة الإنتاج، لم تغفل OpenAI عن التحديات الأخلاقية. الشركة أعلنت أنها أضافت علامة مائية مدمجة في كل مقطع صادرة عن Sora، تظهر على شكل وجه روبوت وكلمة “Sora” لتوضيح أن الفيديو مولّد بالذكاء الاصطناعي. خطوة تراها الصناعة ضرورية للحد من تداول الأخبار المزيفة والمحتوى المضلل.
- العلامة المائية تظهر بشكل واضح في الزاوية السفلى للفيديوهات.
- النموذج ما زال متاحًا بشكل محدود داخل الولايات المتحدة وكندا.
- النسخة الأساسية مجانية مؤقتًا مع «حدود سخية» للتجربة.
- مشتركو ChatGPT Pro سيحصلون على إصدار Sora 2 Pro بجودة أعلى.
- واجهة برمجة التطبيقات (API) قادمة لاحقًا لتكامل Sora مع أدوات أخرى.
صوت الصورة بين الإبداع والمسؤولية
يضع هذا التطور سؤالًا صعبًا أمام جمهور التقنية وصنّاع المحتوى: كيف يمكن الاستفادة من القدرات الإبداعية لنموذج مثل Sora دون أن تُستغل لتضليل الجمهور؟ هذه ليست المرة الأولى التي تواجه فيها المنصات محتوى اصطناعيًا مربكًا، كما حدث مع صور المزيفة التي انتشرت العام الماضي في سياقات سياسية وإخبارية، لكن الفيديو يحمل خطرًا أكبر لتأثيره البصري العاطفي المباشر.
في المقابل، يرى مطورون أن مثل هذه التقنيات ستفتح أبوابًا جديدة لصناعة السينما والإعلانات والتعليم الرقمي، بتمكين الأفراد من توليد مشاهد واقعية دون ميزانيات ضخمة أو معدات تصوير احترافية. ويبدو أن المعيار الجديد سيتحوّل من «هل الفيديو حقيقي؟» إلى «هل الفيديو موثوق المصدر؟».
مستقبل الثقة في زمن الفيديوهات الاصطناعية
قد لا يكون الجدل حول واقعية الفيديوهات سوى بداية لمرحلة جديدة من علاقة الإنسان بالآلة. مع تسارع تطوير نماذج توليد الفيديوهات، ستصبح مهارة التحقق من المصدر بقدر أهمية المهارات التقنية نفسها. فالمعركة المقبلة لن تدور حول واقعية الصورة فحسب، بل حول من يمتلك القدرة على تعريف «الواقع» ذاته في فضاء رقمي متحوّل.









