انبهرنا بالذكاء… وغفلنا عن الخداع: مولد صور ChatGPT يفتح أبواب التزوير على مصراعيها

3 د
أصبح نموذج ChatGPT-4o الجديد قادراً على توليد صور تحتوي نصوصاً دقيقة، مثل إيصالات المطاعم.
أنشأ مستخدمون على مواقع التواصل إيصالات مزيفة يصعب تمييزها عن الحقيقية، ما يثير مخاوف من استغلالها في عمليات احتيال.
أكدت OpenAI أن جميع الصور تحتوي بيانات تعريفية، وتلتزم بسياسات تمنع الاستخدامات الاحتيالية، لكنها تمنح المستخدمين حرية إبداعية واسعة.
يحذر خبراء من استغلال التقنية في التلاعب المالي، ويطالبون بإجراءات رقابية وتشريعية أكثر صرامة.
في خطوة تكنولوجية أثارت جدلاً واسعاً، كشفت شركة OpenAI في مارس 2025 عن إصدار جديد من نموذجها اللغوي المتقدم "ChatGPT-4o"، مزوّد بقدرات محسّنة لإنشاء الصور — لكن اللافت هذه المرة أن النموذج بات يُتقن إنتاج صور تحتوي على نصوص مكتوبة بدقة غير مسبوقة، بما في ذلك "إيصالات مزيفة" يصعب تمييزها عن الحقيقية، مما يثير تساؤلات جدية حول أخلاقيات استخدام الذكاء الاصطناعي في الحياة اليومية.
إيصالات مطاعم مزيفة ومقنعة
بدأ الجدل عندما نشر المستثمر وصاحب المحتوى الشهير ديـدي داس (Deedy Das) على منصة X صورة لإيصال مزيف من مطعم ستيك هاوس شهير في سان فرانسيسكو، مؤكدًا أنه استُخدم فيها مولّد الصور الجديد ضمن نموذج 4o. وكتب في منشوره:
"يمكنك استخدام 4o لإنشاء إيصالات مزيفة. هناك الكثير من العمليات التحقق في العالم الواقعي التي تعتمد على الصور كدليل. تلك الحقبة قد انتهت."
وسرعان ما تبعته منشورات مماثلة من مستخدمين آخرين، أحدهم أضاف بقعًا تشبه آثار الطعام والمشروبات لجعل الإيصال يبدو أكثر واقعية. وعلّق المستخدم مايكل غوفمان (Michael Gofman):
"في الصورة الأصلية، كانت الحروف مثالية جداً وتبدو وكأنها تطفو فوق الورقة. هذا محاولتي لجعلها أكثر واقعية."
ومن فرنسا، شارك أحد مستخدمي لينكدإن صورة لإيصال مطوي ومجعّد صُمّم باستخدام الذكاء الاصطناعي، ينتمي لسلسلة مطاعم محلية، بدا مقنعًا بشكل مدهش.
تجارب TechCrunch تكشف عن ثغرات طفيفة
اختبر فريق TechCrunch قدرة النموذج الجديد بأنفسهم، وتمكنوا من إنشاء إيصال مزيف لمطعم "آبل بيز" في سان فرانسيسكو، لكن ظهرت بعض المؤشرات التي كشفت زيف الصورة، مثل استخدام فاصلة بدلاً من نقطة للفصل بين الأرقام العشرية، إلى جانب أخطاء في العمليات الحسابية.
ورغم هذه الثغرات، فإن تعديل مثل هذه التفاصيل لم يعد يتطلب سوى بعض التغييرات البسيطة باستخدام برمجيات تحرير الصور أو إدخال تعليمات أكثر دقة في النموذج، مما يزيد من خطورة استخدام الأداة لأغراض احتيالية.
الباب المفتوح أمام الاحتيال المالي
تكمن الخطورة الأكبر في سهولة استخدام هذه التكنولوجيا لتزوير إثباتات الإنفاق، ما قد يُستغل من قبل بعض الموظفين لتقديم مطالبات نفقات وهمية، أو حتى في قضايا تأمين كاذبة. ويشير التقرير إلى أن المجرمين الرقميين قد يجدون في هذه الأداة وسيلة مثالية لخلق أدلة بصرية "واقعية" على أحداث لم تقع فعلاً.
ردّ OpenAI: بين الحرية الإبداعية والمسؤولية الأخلاقية
في ردّها على استفسارات TechCrunch، أكدت المتحدثة باسم OpenAI، تايا كريستيانسون، أن جميع الصور التي يُنتجها ChatGPT تتضمّن بيانات وصفية تُشير إلى أنها مُنشأة بواسطة الذكاء الاصطناعي، وأضافت:
"نتخذ إجراءات عندما ينتهك المستخدمون سياسات الاستخدام، ونعتمد على تعلّمنا المستمر من الاستخدامات الواقعية وردود الفعل."
وعند سؤالها عن مدى توافق السماح بإنشاء إيصالات مزيفة مع سياسات OpenAI — التي تحظر بوضوح أي استخدامات احتيالية — أجابت كريستيانسون بأن الهدف الأساسي هو منح المستخدمين حرية إبداعية واسعة، مشيرة إلى أن إنشاء إيصالات وهمية قد يُستخدم لأغراض تعليمية، كرفع الوعي المالي، أو حتى في السياق الفني والإعلاني.
التقنية تتقدّم، لكن المخاوف تزداد
رغم محاولات OpenAI تأكيد حسن النية وتوفير آليات تعقب للصور المُولدة، يبقى السؤال مطروحاً: هل تستطيع أدوات الذكاء الاصطناعي المتطورة التوفيق بين حرية الابتكار والحماية من الاستغلال؟
في بيئة رقمية تتسارع فيها قدرة النماذج على محاكاة الواقع بدقة، يصبح التحدي الأكبر هو ضبط هذه القدرات ضمن حدود الاستخدام الأخلاقي، لا سيما حين يتعلّق الأمر بإنشاء أدلة مزيفة يمكن استخدامها في التلاعب القانوني أو الاحتيال المالي.
قد يرى البعض في مولد الصور الجديد خطوة ثورية في عالم التصميم والإعلانات، لكن من الواضح أن الباب أصبح مفتوحًا على مصراعيه أمام الاستخدامات الضارة، ما يتطلب استجابة تشريعية وتنظيمية أكثر صرامة من الجهات المعنية بالتقنية والأمن السيبراني.