ذكاء اصطناعي

تطبيقات تحاكي سورا تغزو متاجر التطبيقات حول العالم

مصطفى يسري
مصطفى يسري

3 د

شهد متجر التطبيقات موجة استنساخات لتطبيق «Sora» بهدف استغلال شعبيته المتزايدة.

ظهرت عشرات التطبيقات تحمل أسماء مشابهة واستخدمت شعارات وتوصيفات مضللة لخداع المستخدمين.

تعرض متجر آبل لانتقادات حول فعالية آليات المراجعة البشرية بعد حذف التطبيقات المقلدة.

تطرح ظاهرة الاستنساخ الذكي تساؤلات حول قدرة الشركات على حماية مستخدميها من التضليل.

قد تعتمد آبل على أنظمة ذكاء اصطناعي جديدة لرصد التلاعب بالشعارات والعلامات التجارية.

بينما يترقّب المستخدمون حول العالم وصول تطبيق «Sora» الرسمي من OpenAI، شهدت متاجر التطبيقات الأسبوع الماضي موجة مفاجئة من الاستنساخات التي سعت لاستغلال الاسم والاهتمام المتزايد بالذكاء الاصطناعي المرئي. خلال أيام قليلة، ظهرت عشرات التطبيقات تحت مسمى «Sora 2» أو «Sora AI Video Generator» في متجر App Store، مقدمة اشتراكات أسبوعية ومحتوى تسويقي يوحي بأنها النسخة الأصلية من منتج الشركة الأمريكية.


متجر «آبل» أمام اختبار جديد في آلية المراجعة

جاء انتشار هذه التطبيقات بعد إطلاق النسخة الرسمية من Sora في الولايات المتحدة وكندا فقط، ما فتح الباب واسعًا أمام مطوّرين مجهولين لاستغلال غياب الوصول العالمي. بعض هذه النسخ المقلدة استخدم شعار OpenAI ولغة تسويقية مشابهة، فيما أضافت نسخ أخرى أسماء نماذج من شركات مختلفة مثل Google Veo 3، ما زاد من التباس المستخدمين.

بحسب تقرير 9to5Mac، وصلت إحدى هذه التطبيقات إلى المراتب العشر الأولى في تصنيف «تطبيقات الصور والفيديو» في عدد من المتاجر الإقليمية قبل أن تُزال فجأة صباح الخامس من أكتوبر، في خطوة يبدو أنها جاءت بعد مراجعة متأخرة من فريق App Store. هذه الحادثة أعادت النقاش حول مدى فعالية إجراءات «المراجعة البشرية» وعدالتها، خاصة عندما تتعلق بتطبيقات الذكاء الاصطناعي سريعة الانتشار.


علامات استفهام حول "الأمان" الذي تَعِد به آبل

تتباهى آبل منذ سنوات بقدرة متجرها على تقديم بيئة «آمنة ومنسّقة»، حيث يخضع كل تطبيق لمراجعة قبل النشر. إلا أن ظهور موجة «Sora 2» أعاد التأكيد على هشاشة هذه الآلية في وجه التطبيقات التي توظف الذكاء الاصطناعي في الواجهة، لا في المضمون. بعض التطبيقات تضمنت نماذج اشتراك أسبوعية بأسعار مرتفعة، في حين أدرجت أخرى أوصافًا غامضة لجذب المستخدمين غير الملمين بتفاصيل توفر الخدمة الأصلية.

  • تعدد نسخ وهمية من تطبيق واحد في متاجر مختلفة.
  • استخدام شعارات وعناصر تصميم مقلّدة بشكل مباشر.
  • تقديم اشتراكات دورية بأسعار غير مبررة.
  • اختفاء سريع بعد تزايد الانتباه الإعلامي.

هذه الظاهرة ليست جديدة على المنصات الرقمية؛ فكل منتج يحظى بزخم جماهيري يُنتج تلقائيًا موجة من «التطبيقات الظلال»، لكن التحدي الأبرز هنا أن الحالات الجديدة تستغل الوعي المحدود للمستخدمين تجاه قيود التوزيع الجغرافي. وهي مشكلة تتكرر مع تطبيقات الذكاء الاصطناعي التي تصل عادة إلى سوقين أو ثلاثة أولًا، وتنمو ببطء عالميًا، كما حدث سابقًا مع إطلاق تطبيق ChatGPT على iOS قبل أن يتوسع دوليًا بأشهر.


ذكاء اصطناعي يواجه استنساخًا "ذكيًا"

من اللافت أن كثيرًا من هذه النسخ يبدو أنه أُنتج اعتمادًا على أدوات ذكاء اصطناعي للتصميم أو لتوليد الفيديوهات داخلها، أي أن التقنية تُستخدم لمحاكاة نفسها. هذه المفارقة تكشف عن مرحلة جديدة في البيئة الرقمية: مرحلة لم تعد فيها محاولات التقليد بحاجة إلى فرق تطوير متخصصة، بل إلى حفنة أوامر مدخلة إلى مولدات النماذج.

مثل هذه الحالات قد تدفع آبل إلى إعادة التفكير في أدوات المراجعة الآلية لديها، وربما دمج نظم تقييم قائمة على الذكاء الاصطناعي نفسه لرصد الاستخدام المضلل للشعارات والعلامات التجارية، وهو توجه بدأت شركات أخرى تطبيقه فعليًا للحد من التضليل البصري والمحتوى المزيف.


ما بين الثقة بالمراجعة ووعي المستخدم

ذو صلة

يبقى السؤال الأهم: إلى أي مدى يمكن للمستخدم الاعتماد على شعار «تمت المراجعة بواسطة آبل» بوصفه ضمانة للأمان والشفافية؟ الواقع أن تطور نماذج النشر والتوليد السريع للمحتوى يجعل الوقاية الكاملة شبه مستحيلة، وتحوّل مسؤولية الوعي والاكتشاف إلى المستخدم أكثر من أي وقت مضى.

ومع اتساع نطاق تطبيقات الذكاء الاصطناعي المولّدة، قد يصبح التمييز بين «الأصل» و«الاستنساخ» اختبارًا يوميًا للخبرة الرقمية وليس للمنصات وحدها. في نهاية المطاف، ربما تكون أفضل وسيلة لحماية الذكاء الاصطناعي من التزييف هي رفع ذكاء المستخدم نفسه.

ذو صلة