ذكاء اصطناعي

بعد يومين فقط من إطلاقه… العثور على ثغرات أمنية في متصفح ChatGPT Atlas تثير القلق بين المستخدمين

محمد كمال
محمد كمال

4 د

أعلنت شركة أطلس عن جولة تمويلية جديدة لتعزيز أمن الذكاء الاصطناعي.

يمثل التمويل دفعة قوية لتوسيع فرق البحث وهندسة الأمان السيبراني لدى أطلس.

تبرز أهمية أدوات الرقابة على الأنظمة الذكية لمنع تسرب البيانات.

تعمل التشريعات الجديدة على ضمان شفافية وامتثال الذكاء الاصطناعي للمعايير.

تهدف أطلس إلى إعادة تعريف الأمان الرقمي وضمان السلوك الأخلاقي للنماذج التوليدية.

في أقل من يومين على إطلاقه، تحوّل متصفح ChatGPT Atlas من وعد تكنولوجي إلى حدث أمني يشغل الباحثين والخبراء. الإعلان الكبير الذي أطلقته OpenAI في 21 أكتوبر/تشرين الأول 2025 عن متصفح يعِد بتجربة تصفح ذكية مدعومة بالوكيل الرقمي سرعان ما عاد عليه برد فعل عنيف، بعد أن كشفت فرق أمنية وسرّبها باحثون عن سلسلة من الهجمات التي تستهدف الثغرات الأمنية في ChatGPT Atlas وتبيّن مدى هشاشة تكامل المساعدة الذكية داخل المتصفحات.


لحظة التعرّف على الخطر: هجوم "حقن الحافظة" يكشف النقاب

القصة بدأت بعرض عملي على منصة X (تويتر)، حيث استعرض الباحث المعروف باسم @elder_plinius هجومًا بسيطًا وفعّالًا: موقع واحد مزروع بتعليمات مخفية نجح في خداع وكيل Atlas لنسخ روابط تصيّد ومحتوى مُضرّ إلى الحافظة دون علم المستخدم. المشهد يبدو تافهًا إلى أن تتمعّن في النتائج: روابط خبيثة، حسابات مخترقة، وربما خطوات لاحقة تقود إلى سرقة بيانات اعتماد أو اختراق حسابات البريد الإلكتروني.

ما أظهرته هذه التجارب أن الدفاعات التقليدية للويب — مثل سياسة المصدر نفسه (Same-Origin Policy) أو قيود CORS — تصبح غير فعّالة عندما يتخذ وكيل ذكي تعليماته ليس من واجهة برمجة تطبيقات واضحة، بل من نصوص مُخفاة داخل صفحة الويب نفسها: نص أبيض على خلفية بيضاء، تعليقات HTML، أو حتى نصوص مُضمّنة داخل صور لا يقرأها المستخدم البصري بسهولة.


كيف تصفّ الباحثون الخطر؟ «هائل ولا يُستهان به»

تصريحات باحثي شركات أمنية بارزة مثل Brave لم تكن مُجرد إنذار مبالغ فيه؛ بل وصفوا الخطر بأنه "عالي للغاية"، وبيّنوا أن متصفحات الذكاء الاصطناعي تفتح فئة جديدة من الهجمات التي لا تتعامل معها آليات الأمان التقليدية بكفاءة. سيمون ويلسون مثلاً وصف مشكلة الخصوصية بأنها تبدو "لا يمكن التغلب عليها" ما لم تُعاد هندسة طريقة تفاعل الوكلاء مع محتوى الويب.

وليس فقط الهجمات العملية هي ما أثار القلق؛ بل أيضًا خاصية "الذكريات" المدمجة في Atlas، التي تتعقّب سلوك التصفح لتقديم اقتراحات مخصّصة. الخبراء يرى فيها قنبلة موقوتة محتملة لخرق الخصوصية، لأن تجميع تفاعلات المستخدمين داخل واجهة واحدة — محادثات الذكاء الاصطناعي وعمليات التصفح وبيانات الحسابات — يوفر مساحة هائلة للاستهداف إذا نجح المهاجم في اختراق حلقة الوكيل.


OpenAI تردّ: اعتراف وإجراءات مؤقتة

ردّ OpenAI على هذه المخاوف لم يأتِ متأخرًا. دان ستاكي، كبير مسؤولي أمن المعلومات في الشركة، اعترف بأن وكلاء ChatGPT لا يزالون عرضة لأخطاء قد تكون مفاجئة، وأن هناك تعليمات خبيثة يمكن أن تلتصق داخل صفحات الويب أو البريد الإلكتروني وتُخدع الوكيل. كشفت الشركة أيضًا عن بعض الإجراءات الوقائية المبدئية: تقييد صلاحيات الوكيل على علامات تبويب نشطة، وطلب موافقة المستخدم عند التعامل مع مواقع حسّاسة مثل المصارف.

هذه الخطوات مفيدة لكنها تبدو مؤقتة — تدابير لتمهيد الطريق بينما يبحث الفريق عن حل معماري أعمق. وهو ما يترك السؤال الشرعي: هل يكفي تقييد الصلاحيات وطلبات التأكيد لحماية المستخدمين من تهديدات مُتطوِّرة تتلاعب بسلوك الذكاء الاصطناعي؟


تبعات أوسع: ثغرات ليست محصورة في أطلس فقط

إلى جانب المخاوف المرتبطة بـ Atlas، ظهرت تقارير أخرى عن نقاط ضعف في أنظمة ذكاء اصطناعي أخرى وفي أدوات إنتاج الشيفرة تلقائيًا. حالات مثل ثغرات في Microsoft 365 Copilot أو مشروعات تُظهِر أن كودًا مولّدًا بالذكاء الاصطناعي قد يحوي عيوبًا خطيرة، تؤكد أن المشكلة ليست منتجًا معيّنًا بقدر ما هي تحدٍّ منهجي يطال دمج الذكاء الاصطناعي في أنظمة تؤثر على المستخدمين بشكل يومي.

المشهد يذكّرنا بأن الثورة التكنولوجية تأتي دائمًا مع فاتورة أمان. بناء تجارب مستخدم متقدّمة لا يكفي لوحده؛ بل يجب أن يتواكب مع إعادة تفكير في نماذج الأمان، وكيفية اختبار الوكلاء الذكية ضد سيناريوهات هجوم جديدة وغير تقليدية.


ماذا ينبغي أن يحدث الآن؟ بعض خطوات أولية واقعية

المرحلة الأولى تتطلّب من شركات تقدم متصفحات وكلاء ذكية أن تعيد تصميم واجهات التفاعل بين الوكيل والمحتوى، بحيث تكون هناك طبقات تحقق مُشفّرة وغير قابلة للاختراق من التعليمات. كما يلزم فرض سياسات صارمة تحصر مصدر الأوامر القابلة للتنفيذ في نُهج واضحة يُمكن التثبت منها برمجياً.

وعلى مستوى المستخدم، تبقى قاعدة أساسية: الحذر والمراقبة. على المشتركين في برامج Early Access — مثل مستخدمي ChatGPT Plus وPro الذين يحصلون على وضع الوكيل أولاً — أن يكونوا على دراية بأن ميزات الاختبار قد تحمل مخاطر جديدة، وأن الموافقة المسبقة على تنفيذ أوامر تلقائية يجب أن تكون محدودة ومفهومة بدقّة.


خاتمة: إنذارٌ واضح لكن الفرصة قائمة

ذو صلة

قصة الثغرات الأمنية في ChatGPT Atlas هي تذكير صارخ أن التقدّم السريع في واجهات الذكاء الاصطناعي لا يجب أن يفوق قدرة المجتمع التقني على تأمينه. الكشف السريع عن هذه الثغرات يُعد مؤشرًا صحيًا لوجود نظام بحثي نشط، لكنه في الوقت ذاته يفرض على الشركات والمستخدمين تبنّي نهج أكثر تواضعًا ومسؤولية عند دمج وكلاء ذكية في حياة المستخدم اليومية.

إذا نجحت OpenAI ومَن يقف على خطّ التقدم التقني في تحويل هذا الإنذار إلى سلسلة تحسينات أمنية حقيقية، فقد يتحوّل أطلس — وأمثاله — إلى نموذج يُظهر كيف يُمكن للتكنولوجيا المبتكرة أن تُدمج بأمان مع شبكة معقّدة مثل الويب. أمّا إذا استُهين بالخطر، فالعواقب قد تتخطّى منصة واحدة لتعيد تعريف معنى الخصوصية والأمان في عصر الذكاء الاصطناعي.

ذو صلة