ذكاء اصطناعي

تحذير من Gmail وOutlook وApple Mail.. كابوس هجمات الذكاء الاصطناعي أصبح حقيقة، استعدوا

فريق العمل
فريق العمل

3 د

يُمكّن التطور في الذكاء الاصطناعي المهاجمين من تنفيذ هجمات إلكترونية بشكل مستقل، دون تدخل بشري مباشر.

بعض وكلاء الذكاء الاصطناعي قادرون على تجاوز أنظمة الأمان عبر حيل بسيطة في التوجيهات النصية.

أصبحت الهجمات المدعومة بالذكاء الاصطناعي أكثر دقة، ما يجعل اكتشافها أصعب من أي وقت مضى.

يكمن الحل في تطوير أنظمة أمان جديدة تعتمد على تحليل السلوكيات وتقليل قدرة الذكاء الاصطناعي على تنفيذ المهام الخطرة دون إشراف.

في ظل التطور المتسارع للذكاء الاصطناعي، يواجه مستخدمو البريد الإلكتروني تهديدًا متزايدًا من الهجمات الإلكترونية المدعومة بتقنيات الذكاء الاصطناعي المتقدمة، والتي أصبحت أكثر تعقيدًا وأصعب في الاكتشاف. تحذيرات خبراء الأمن السيبراني لم تكن مجرد تنبؤات، بل أصبحت واقعًا خطيرًا يهدد الملايين حول العالم.


ذكاء اصطناعي شبه مستقل في تنفيذ الهجمات

أكد تقرير حديث صادر عن شركة "سيمانتك" للأمن السيبراني أن الذكاء الاصطناعي لم يعد مجرد أداة مساعدة في إعداد المواد الاحتيالية أو كتابة الأكواد الخبيثة، بل بات قادرًا على تنفيذ الهجمات بشكل مستقل. وأوضحت الشركة من خلال تجربة عملية كيف يمكن لوكيل ذكاء اصطناعي جديد تنفيذ هجوم تصيد إلكتروني (Phishing) بالكامل دون تدخل بشري يُذكر.

أحد الخبراء في "سيمانتك"، ديك أوبراين، صرّح قائلًا:


"لطالما كنا نراقب استخدام المهاجمين للذكاء الاصطناعي، لكن إضافة عوامل تشغيل مستقلة للذكاء الاصطناعي تعني أن التهديد لم يعد نظريًا. فبدلاً من مجرد توليد نصوص أو أكواد، أصبح بإمكان هذه الوكلاء تنفيذ الهجمات من البداية حتى النهاية، وهو ما يشكل خطرًا غير مسبوق."


اختراق الحواجز الأمنية بسهولة

عند إجراء الاختبار، حاول الذكاء الاصطناعي المسمى "أوبيراتور" (Operator) جمع عناوين البريد الإلكتروني للضحايا المحتملين عبر الإنترنت ومنصات مثل "لينكد إن". عندما لم يتمكن من العثور على العنوان المستهدف، لجأ إلى تحليل عناوين أخرى ضمن نفس المؤسسة وتوقّع البريد الإلكتروني بناءً على النمط المستخدم، وهو ما زاد من خطورة الهجوم.

في البداية، أوقفت آليات الأمان الافتراضية للذكاء الاصطناعي تنفيذ الهجوم، حيث رفض "أوبيراتور" إرسال بريد إلكتروني غير مرغوب فيه، محذرًا من أن ذلك قد ينتهك سياسات الخصوصية والأمان. لكن بمجرد تعديل المطالبات النصية (Prompt Engineering) بحيث يتم إيهام الذكاء الاصطناعي بأن المستهدف قد وافق مسبقًا على استلام البريد الإلكتروني، تجاوز الأداة هذا القيد وبدأ في تنفيذ المهام المطلوبة.


الذكاء الاصطناعي.. أداة مزدوجة الاستخدام

يشير ستيفن كوسكي من شركة "سلاش نيكست" إلى أن هذه التطورات تبرز الطبيعة الثنائية للذكاء الاصطناعي، حيث يمكن استخدامه كأداة إنتاجية أو تحويله إلى سلاح خطير في يد المهاجمين. وأضاف:


"ما يُظهره هذا البحث هو مدى سهولة التلاعب بأنظمة الذكاء الاصطناعي عبر التوجيهات النصية المناسبة، مما يسمح بتجاوز الحواجز الأخلاقية المدمجة فيها."

وبحسب أندرو بولستر من شركة "بلاك داك"، فإن المشكلة الحقيقية تكمن في إمكانية خداع نماذج الذكاء الاصطناعي بحيث تعتقد أنها تتصرف ضمن النطاق المسموح به، مما يجعلها تنفذ عمليات احتيالية دون أن تكتشف أنها تُستغل.


سيناريوهات مرعبة قادمة

يحذر الخبراء من أن هذه الأنظمة لا تزال في مراحلها الأولية، ومع ذلك، فإن قدرتها على تنفيذ هجمات تصيد إلكتروني، وكتابة أكواد خبيثة، والتفاعل مع المواقع الإلكترونية تعني أن الجيل القادم من هذه الأدوات سيكون أكثر تطورًا. ويتخوف البعض من وصولها إلى مرحلة يمكن فيها للمهاجم ببساطة إعطاء أمر لوكيل الذكاء الاصطناعي لاختراق شركة بأكملها، فيقوم الأخير بتحديد أفضل الطرق لتحقيق ذلك وتنفيذها دون تدخل بشري.

من جهته، علّق جاي فينبرج من "أواسيس سيكيوريتي" قائلاً:


"وكما يمكن للمحتالين استغلال البشر عبر الهندسة الاجتماعية، يمكنهم أيضًا استغلال وكلاء الذكاء الاصطناعي لتنفيذ هجمات مدمرة."


استراتيجية الحماية المطلوبة

في مواجهة هذه التهديدات، يرى الخبراء أن الحل يكمن في تطوير سياسات أمنية جديدة تستند إلى تقليل قدرة الذكاء الاصطناعي على تنفيذ المهام الحساسة دون إشراف بشري صارم. ويوصي كوسكي بضرورة اعتماد أنظمة كشف التهديدات التي تعتمد على تحليل السلوكيات غير الاعتيادية، إضافة إلى تقييد وصول الذكاء الاصطناعي إلى المعلومات الحساسة داخل المؤسسات.


استخدامات الذكاء الاصطناعي في الهجمات الإلكترونية تتوسع

ذو صلة

بالتزامن مع هذا التطور، كشف تقرير جديد عن نوع آخر من الهجمات، أطلق عليه "التصيد الاحتيالي عبر Microsoft Copilot"، حيث يستغل المهاجمون الذكاء الاصطناعي لخداع المستخدمين عبر واجهات مألوفة، مما يزيد من احتمالية نجاح الهجمات.

علاوة على ذلك، أوضح باحثون في "تينيبل" أنهم اختبروا قدرة نموذج الذكاء الاصطناعي "ديب سيك" (DeepSeek) على إنشاء برمجيات خبيثة مثل برامج التجسس وسرقة البيانات، حيث أثبت الاختبار أن الذكاء الاصطناعي يستطيع إنتاج برامج قرصنة متقدمة قادرة على تجاوز أنظمة الحماية التقليدية.

ذو صلة