ذكاء اصطناعي

قدرات ChatGPT تتطور وتنجح في حل اختبارات CAPTCHA الشهيرة

مصطفى يسري
مصطفى يسري

3 د

كشف تقرير شركة أمن سيبراني عن قدرة وكلاء الذكاء الاصطناعي مثل ChatGPT على تجاوز اختبارات CAPTCHA.

استخدم الباحثون "التوجيه المرحلي" لتجاوز قيود الألغاز الأمنية باستخدام ChatGPT.

نجح الوكيل في التعامل مع اختبارات الضغط وألغاز النصوص، بينما صعُب عليه تفادي الصور.

تشكيك الباحثين في فاعلية الـCAPTCHA يفتح باب البحث عن بدائل جديدة للحماية.

تحتاج الإنترنت لبنية أمنية جديدة تتجاوز التحديات الحالية وتضمن الخصوصية.

أثار تقرير بحثي من شركة أمن سيبراني متخصصة جدلاً واسعاً هذا الأسبوع، بعدما كشف أن وكلاء الذكاء الاصطناعي مثل ChatGPT قادرون، في ظروف معينة، على تجاوز اختبارات الـCAPTCHA التي صممت أصلاً للتمييز بين الإنسان والآلة. هذا التطور يضع واحدة من أبرز آليات حماية الإنترنت موضع تساؤل جدي، خصوصاً مع تزايد اعتماد المواقع والخدمات الرقمية عليها لمنع البريد المزعج والبرمجيات المؤتمتة.


كيف نجح الباحثون في تجاوز القيود؟

بحسب ما أوضحه الباحث دوريان شولتز من فريق الاختبارات الحمراء في شركة SPLX، فإن النماذج اللغوية الكبيرة ترفض مبدئياً حل الألغاز الأمنية عندما يُطلب منها ذلك بشكل مباشر، التزاماً بالسياسات المعلنة. إلا أن الفريق اعتمد أسلوب "التوجيه المرحلي" بحيث يعرض على نظام ChatGPT ألغازاً مزعومة على أنها "وهمية"، ويُطلب منه حلّها بموجب هذا الافتراض. ومع نقل الحوار إلى وكيل ذكي (Agent) أكثر استقلالية، واعتباره امتداداً لجلسة سابقة، بدأ النظام في تقديم حلول فعلية لبعض الاختبارات.

فكانت النتيجة أن الوكيل نجح في التعامل مع عدة أنواع من هذه الاختبارات:
- اختبارات الضغط بزر واحد (One-click).
- الألغاز القائمة على المنطق النصي.
- بعض اختبارات التعرف على النصوص.

في المقابل، ظل يواجه صعوبة في التعامل مع الصور المركبة والمتطلبة للتفاعل اليدوي مثل السحب والإسقاط أو التدوير.


"قد تكون هذه أول حالة موثقة لوكيل ذكاء اصطناعي يتمكّن من اجتياز اختبارات CAPTCHA مرئية معقدة."

يمكن الاطّلاع على المقال الكامل الصادر عن فريق SPLX وما تضمنه من تفاصيل تقنية وجداول بالنتائج. مثل هذه النتائج دفعت بعض الباحثين للتشكيك في جدوى الاعتماد الحصري على الـCAPTCHA كوسيلة واحدة للتمييز بين الإنسان والآلة.


التداعيات في عالم الأمن السيبراني

المسألة لا تقتصر على الجانب التقني فحسب، بل تمتد إلى مستقبل البنية الأمنية للويب. فهذه الأدوات توفر خط الدفاع الأول ضد البريد العشوائي واستغلال الواجهات البرمجية. ومع تجاوزها بهذا الشكل، يصبح لزاماً على الشركات والمطورين التفكير في بدائل أو طبقات جديدة من الحماية. وقد شهدت الأشهر الأخيرة موجة من الاختبارات المشابهة حول أساليب "الحقن التوجيهي" (Prompt Injection) التي تستغل النصوص المدخلة لتجاوز القيود، كما حصل مع إحدى خدمات البريد الإلكتروني حين استخدم باحثون بريداً واحداً فقط لاستخراج بيانات سرية من خدمة مساعدة بحثية بالذكاء الاصطناعي، قبل أن يتم إصلاح الخلل سريعاً.

من زاوية استخدامية، قد تكون هذه الثغرات انعكاساً لاتساع قدرات الذكاء الاصطناعي في فهم الأنماط المعقدة، وهو ما يعزز تطبيقاته في مجالات مثل التعرف على الصور أو المساعدة لذوي الإعاقة. إلا أن ذلك من جهة أخرى يضعف الفارق الذي كان يُفترض أن يبقى ثابتاً بين "العقل البشري" والآلة في هذه الاختبارات.

نجاح ChatGPT في تجاوز اختبارات CAPTCHA يثير قلقاً حول فعالية هذه التقنية في الحماية السيبرانية، مما يتطلب حلولًا أمنية بديلة لتأمين المستخدمين.التحدي الأكبر اليوم هو التوازن: كيف يمكن تعظيم إمكانات الذكاء الاصطناعي لخدمة المستخدمين، مع وضع حدود تمنع استخدامه في تجاوز حواجز أمنية أو استغلاله في الهجمات؟ هذا السؤال صار أكثر إلحاحاً بعد توالي التقارير عن اكتشاف ثغرات مشابهة في أنظمة كبرى شركات التقنية مثل أمازون.

ذو صلة

بين الحاضر والمستقبل: ما البديل عن CAPTCHA؟

يحاول الباحثون حالياً استكشاف أدوات تحقق بديلة، بدءاً من توثيق الهوية عبر الأجهزة المحمولة وحتى استخدام أساليب بيومترية. غير أن كل حل جديد يواجه بدوره مخاطر تتعلق بالخصوصية أو قابلية التلاعب. وبالنظر إلى سرعة تطور أنظمة مثل ChatGPT، قد لا يكون السؤال هو "متى سيتجاوز الذكاء الاصطناعي كل أشكال CAPTCHA؟"، بل "ما الذي يعنيه ذلك لمفهوم هوية المستخدم الرقمية؟".
بهذا، يبدو أن عصر الألغاز البسيطة للتحقق من "إنسانية" المستخدم على وشك أن ينتهي، لتبدأ مرحلة جديدة تتطلب حلولاً أكثر تطوراً وربما أكثر إنسانية أيضاً.

ذو صلة