OpenAI تقر بصعوبة تأمين متصفحات الذكاء الاصطناعي بشكل كامل

2 د
اعتراف OpenAI باستمرار مخاطر الاختراق في متصفحات الذكاء الاصطناعي توسع سطح الهجوم الأمني عند استخدام وضع الوكيل المستقل تشبيه تقنية حقن الأوامر بأساليب الهندسة الاجتماعية التقليدية تطوير نظام مهاجم آلي لاكتشاف الثغرات الأمنية داخلياً التأكيد على ضرورة الرقابة البشرية في العمليات الرقمية الحساسة .
أصدرت شركة OpenAI بياناً رسمياً تناولت فيه التحديات الأمنية التي تواجه متصفحات الذكاء الاصطناعي (AI Browsers). أقرت الشركة بأن محاولات الاختراق التي تستهدف التلاعب بسلوك الوكلاء ستظل خطراً قائماً في المستقبل. جاء هذا الإعلان في سياق الحديث عن جهود تعزيز أمن متصفح "ChatGPT Atlas" الذي يعتمد على وكلاء قادرين على تنفيذ مهام متعددة نيابة عن المستخدمين.
مخاطر وضع الوكيل وحقن الأوامر
أوضحت OpenAI أن تشغيل ما يعرف بـ "وضع الوكيل" (Agent Mode) يؤدي إلى توسيع سطح الهجوم الأمني. يمتلك الوكيل في هذا الوضع قدرة أكبر على التفاعل مع المحتوى واتخاذ قرارات مستقلة نسبياً. وصفت الشركة هذا النوع من الاختراق بأنه يشبه إلى حد كبير أساليب "الهندسة الاجتماعية" (Social Engineering) المنتشرة على شبكة الإنترنت حيث يصعب القضاء عليه نهائياً.
يعتمد الاختراق على تضمين تعليمات خبيثة داخل صفحات ويب أو رسائل بريد إلكتروني. تهدف هذه التعليمات إلى التأثير على سلوك وكيل الذكاء الاصطناعي ودفه لتنفيذ أوامر لم يقصدها المستخدم. أظهر باحثون أمنيون إمكانية التلاعب بسلوك المتصفح عبر نصوص بسيطة في مستندات Google Docs. استجاب المتصفح في بعض التجارب لتعليمات غير مرئية للمستخدم مما أدى لتغيير طريقة عمله بشكل مفاجئ.
استراتيجية المهاجم الآلي والدفاع المستمر
كشفت OpenAI عن تطوير نظام دفاعي يعتمد على ما وصفته بـ "المهاجم الآلي" (Automated Attacker). دربت الشركة هذا النظام باستخدام نماذج لغوية كبيرة ليحاكي سلوك المخترقين ويبحث عن طرق مبتكرة لتمرير تعليمات خبيثة. يستخدم النظام بيئة محاكاة لاختبار الهجمات وتحليل كيفية تفكير الوكيل المستهدف عند مواجهة محتوى مشبوه.
سمح هذا الأسلوب للشركة باكتشاف استراتيجيات اختراق لم تظهر خلال حملات الاختبار البشرية التقليدية. عرضت الشركة مثالاً لرسالة بريد إلكتروني خبيثة دفعت الوكيل لإرسال رسالة استقالة بدلاً من إعداد رد تلقائي. أكدت OpenAI أنها تعمل على دورة استجابة سريعة لاكتشاف هذه الأساليب داخلياً قبل ظهورها في هجمات فعلية على شبكة الإنترنت.
تحذيرات رسمية وتوصيات عملية
تتلاقى مخاوف OpenAI مع تحذيرات الهيئة الوطنية للأمن السيبراني في المملكة المتحدة. أشارت الهيئة إلى أن هجمات الذكاء الاصطناعي التوليدي قد تُعرض المواقع لخطر تسريب البيانات دون وجود حل جذري وشيك. يرى الخبراء أن القيمة التي تقدمها المتصفحات الوكيلة حالياً قد لا تبرر المخاطر الأمنية المصاحبة لها في بعض الاستخدامات الحساسة.
تشمل التوصيات العملية الحالية ضرورة تقليص الصلاحيات الممنوحة للوكلاء الآليين. تنصح الشركات بفرض "مراجعة بشرية" (Human Review) على كافة الإجراءات والقرارات الحساسة. تظل هذه المراجعة هي الضمانة الأهم لمنع تنفيذ أوامر غير مقصودة ناتجة عن تلاعب خارجي بالمحتوى الرقمي.









