ذكاء اصطناعي

ثغرة خطيرة في جوجل Gemini قد تفتح باب اختراق Gmail والتصيد الاحتيالي

Abdelrahman Amr
Abdelrahman Amr

3 د

كشف باحثون عن ثغرة في مساعد جوجل "جيمِني" تهدد ملياري مستخدم لـ"جي-ميل".

يعتمد الهجوم على الحقن غير المباشر للمحفزات داخل النص بدون روابط أو مرفقات.

يشبّه الخبراء الثغرات الحديثة بالفيروسات القديمة في وحدات "ماكرو" بمستندات أوفيس.

جوجل ديب مايند تطور دفاعات متعددة لحماية المستخدمين من المحفزات غير المرئية.

التكنولوجيا التي وُجدت لتبسيط التواصل يمكن أن تصبح طريقاً للتلاعب بالمعلومات.

في الوقت الذي أصبحت فيه أدوات الذكاء الاصطناعي تشاركنا أبسط تفاصيل العمل اليومي، من تنظيم البريد إلى تلخيص الرسائل، برز تهديد جديد يذكّرنا بأن الدقة والراحة لا تأتيان بلا ثمن. فقد كشف باحثون عن ثغرة خفية في مساعد "جيمِني" من جوجل، يمكن أن تمهّد الطريق لهجمات تصيّد متقدمة تستهدف أكثر من ملياري مستخدم لخدمة "جي‑ميل".


ثغرة في ذكاء جوجل تولّد «خداعاً من داخل النص»

أوضح ماركو فيغيروا، مدير برامج اكتشاف الثغرات في "موزيلا"، أن الخلل لا يعتمد على روابط أو مرفقات كما في الهجمات التقليدية. بل يُزرع الخطر داخل النص نفسه عبر ما يُعرف بـ«الحقن غير المباشر للمحفزات»، أي تعليمات مخفية داخل البريد تُنفذ حين يطلب المستخدم من جيمِني تلخيص الرسالة. بهذه البساطة، قد يولد إشعار أمني مزيف يدّعي أن كلمة المرور قد تسرّبت، مرفقاً برقم هاتف لخدمة دعم وهمية.


كيف تمرّ التعليمات الخفية دون رادع

تعتمد معظم ضوابط الأمان في النماذج اللغوية على تحليل النص الظاهر أمام المستخدم. لكن استغلال أكواد "HTML" وخصائص العرض مثل اللون الأبيض على خلفية بيضاء أو نقل النص خارج الإطار يجعل النموذج يتلقى التعليمات كاملة رغم أنها غير مرئية. والأسوأ أن النموذج يفسّرها بوصفها أوامر ذات أولوية عالية لأنها تبدو موجّهة إليه مباشرة باستخدام صيغ مثل «يا جيمِني، عليك أن...».

هذا النوع من الهجمات، الذي يسميه الباحثون «التفاعل العابر للنطاقات»، يشير إلى أن المحتوى الذي يراه الذكاء الاصطناعي ليس بالضرورة ما يراه الإنسان. وهذه فجوة إدراكية جوهرية قد تتحول إلى سلاح هادئ فعال في البريد الإلكتروني أو أنظمة "CRM" ومحتوى الويب على حد سواء.


انعكاسات أوسع على أمن البريد الذكي

من منظور أمني، يمثل جيمِني وغيره من المساعدين الذكيين واجهات جديدة يمكن للمهاجمين استغلالها. فالهجوم لا يستهدف التطبيق نفسه بقدر ما يستغل آلية فهمه للسياق. وبما أن المستخدم ينظر إلى ملخصات الذكاء الاصطناعي بوصفها محايدة وموثوقة، فإن أي انحراف بسيط في النتائج قد يحمل وزناً كبيراً.

شركة "جوجل ديب مايند" تعمل بالفعل على تطوير منظومة دفاعية متعددة الطبقات للتعرّف على مثل هذه المحفزات غير المباشرة. إلا أن المشكلة تتجاوز مجرد الخوارزميات؛ إنها مسألة ثقة بين الإنسان والآلة، وحدود تلك الثقة عندما تصبح النصوص المولدة ذات قدرة تنفيذية ضمنياً.


من «ماكرو» الماضي إلى محفزات المستقبل

يشبّه بعض الخبراء هذه الثغرات بالفيروسات التي كانت تنتشر قديماً عبر وحدات "ماكرو" في مستندات أوفيس. الفرق اليوم أن الكود الخبيث لم يعد برنامجاً منفصلاً بل كلمات يفهمها الذكاء الاصطناعي على أنها أوامر. ومع دخول المساعدات الرقمية إلى منظومات البريد والمؤسسات، يمكن لهجوم واحد أن يتوسع تلقائياً إلى آلاف الحسابات.

التحول من أمان المحتوى إلى أمان السياق أصبح ضرورة، فكل قطعة نص يقدمها نظام ذكي قد تكون «شيفرة تنفيذية» بحد ذاتها. المطلوب الآن أن تُعامَل أدوات مثل جيمِني كعناصر ضمن سطح الهجوم يجب مراقبته وتقييده كما يُراقب أي تطبيق خارجي.

ذو صلة

تكشف هذه الحادثة عن مفارقة عصر الذكاء الاصطناعي: التكنولوجيا التي وُجدت لتبسيط التواصل قد تصبح طريقاً خفياً للتلاعب بالمعلومات. وربما تكون الحماية الحقيقية في الوعي، لا في الأكواد، حين يتذكر المستخدم أن حتى الملخص الذي يولّده الذكاء قد يحتاج إلى "ملخص بشري" قبل أن يُؤخذ على محمل اليقين.

ذو صلة