ذكاء اصطناعي

أوبن أي آي توقف ميزة الاقتراحات في تطبيقها بعد انتقادات تشابهها مع الإعلانات

مصطفى يسري
مصطفى يسري

3 د

وجدت OpenAI نفسها في جدل بسبب ظهور اقتراحات بدت كالإعلانات.

أكدت الشركة أن الاقتراحات ليست إعلانات بل تجارب لتطبيقات ChatGPT.

اعترف مارك تشن بخطأ في عرض الاقتراحات وأوقف الميزة مؤقتًا لتحسينها.

أكدت OpenAI على احترام الثقة والاستمرار في تحسين نظام ChatGPT.

تسعى OpenAI نحو تحسين الجودة قبل النظر في خيارات تجارية جديدة.

في الأيام الأخيرة، تحوّل الحديث داخل أوساط التقنية إلى شركة يُفترض أن تكون في قلب هذا المشهد: «OpenAI». فقد وجدت الشركة نفسها أمام موجة انتقادات بعدما لاحظ بعض مستخدمي ChatGPT ظهور اقتراحات لتطبيقات بدت وكأنها إعلانات، رغم تأكيد الشركة بأنها ليست كذلك. الحدث البسيط في شكله أثار سؤالًا أكبر حول الحدود بين التجريب والشفافية في أدوات الذكاء الاصطناعي التي يستخدمها الملايين يوميًا.


اختلاط الإعلانات بمقترحات الذكاء الاصطناعي

أوضحت OpenAI أن ما رآه المستخدمون لم يكن اختبارًا للإعلانات التجارية، بل تجربة لاقتراح تطبيقات مبنية على منصة ChatGPT نفسها، دون أي مقابل مالي أو اتفاق رعاية. إلا أن ذلك التوضيح لم يهدئ حدة الجدل، خاصة عندما شملت الاقتراحات أسماء تجارية كبيرة مثل «Target» و«Peloton»، ما جعل التجربة تبدو أقرب إلى محتوى ترويجي غير معلن.

اعترف مارك تشن، مدير البحوث في OpenAI، بأن الشركة «لم تُوفّق في طريقة عرض هذه الاقتراحات»، وأعلن إيقاف الميزة مؤقتًا إلى أن يتم تحسين دقتها ومنح المستخدمين تحكمًا أكبر في ظهورها. هذا التصريح أعاد النقاش إلى جوهر العلاقة بين المستخدمين وخدمات الذكاء الاصطناعي: إلى أي مدى يحق للشركات اختبار تجارب تسويقية أو خدمية داخل أدوات تُبنى بالأساس على الثقة؟


الثقة كعملة رئيسية في أدوات الذكاء الاصطناعي

في تصريحات لاحقة، شدد نِك ترلي، رئيس ChatGPT، على أن النظام لا يحتوي على اختبارات إعلانية «حية»، وأن الشركة إن قررت خوض هذا المجال ستفعل ذلك بأسلوب «مدروس ومحترم للثقة التي يمنحها المستخدمون». الثقة هنا ليست مجرد قيمة معنوية، بل أصبحت أساسًا لأي منتج رقمي يعتمد على الذكاء الاصطناعي، حيث تُمثل الشفافية الفارق بين أداة يُنظر إليها كرفيق معرفي، وأخرى تُحسب ضمن وسائل التسويق الخفية.

"لقد أوقفنا هذه الاقتراحات مؤقتًا لأن أي شيء يبدو كإعلان يجب التعامل معه بحذر شديد." — مارك تشن


خلفية داخلية وتوجهات جديدة

تزامن الجدل مع تقارير عن تغييرات في أولويات OpenAI، أبرزها توجه نحو تحسين جودة ChatGPT قبل التوسع في المنتجات التجارية. وبحسب ما نشرته صحيفة وول ستريت جورنال، فقد أعلن سام ألتمان حالة «تأهب قصوى» داخل الشركة لرفع مستوى الأداء، مؤجلًا أي مشاريع إعلان أو شراكات تسويقية في الوقت الحالي. هذا القرار يعكس إدراكًا واضحًا بأن الحفاظ على ثقة المستخدم هو رأس المال الحقيقي لأي منصة قائمة على المحادثة الذكية.

الجدير بالذكر أن وصول فيدجي سيمو —المديرة السابقة في Instacart وMeta— إلى منصب الرئيس التنفيذي لتطبيقات OpenAI كان قد أثار تكهنات حول نية الشركة بناء نموذج تجاري جديد يعتمد جزئيًا على الإعلانات. إلا أن الحادثة الأخيرة أظهرت أن الطريق نحو ذلك لا يزال مليئًا بالحساسيات التقنية والأخلاقية.


بين التجريب والشفافية

ذو صلة

من الطبيعي أن تُجرب الشركات الناشئة نماذج جديدة للأعمال، لكن ما يميز حالة OpenAI هو اسمها وثِقلها العام في وعي المستخدمين. ChatGPT ليس مجرد تطبيق، بل منصة يتفاعل فيها المستخدم مع الذكاء الاصطناعي على مستوى شخصي ومعرفي، وبالتالي فكل اقتراح أو رسالة يحمل دلالة تتجاوز نيتها الأصلية. التحدي هنا يتمثل في الموازنة بين التجريب المستمر وتحقيق وضوح تام في ما يراه المستخدم.

ربما ليست هذه المرة الأخيرة التي تواجه فيها OpenAI اختبارًا من هذا النوع، فالمجال بأكمله يسير على خيط دقيق بين تقديم القيمة التجارية والحفاظ على المصداقية. وإذا كان الذكاء الاصطناعي سيصبح رفيقًا معرفيًا دائمًا في حياتنا الرقمية، فإن الحفاظ على شفافيته سيبقى الشرط الأول لاستمرار تلك العلاقة القائمة على الثقة أكثر من أي شيء آخر.

ذو صلة