غوغل ترفض إصلاح ثغرة في Gemini.. هل بياناتك في خطر؟

3 د
أكدت غوغل أنها لن تعالج الثغرة "الخطيرة" في نظام جيميني للذكاء الاصطناعي.
وصفت الثغرة بتقنية "تهريب ASCII" التي تخفي تعليمات لتُنَفذ ضمنيًا.
غوغل لا تعتبر الثغرة أمنية بل عملية "هندسة اجتماعية" تعتمد على وعي المستخدم.
موقف الشركة أثار قلقًا حول تسرب بيانات حساسة عبر أدوات الذكاء الاصطناعي.
في خطوة أثارت نقاشًا واسعًا في الأوساط التقنية، أكدت شركة غوغل أنها لن تعالج ثغرة أمنية وُصفت بـ"الخطيرة" في نظام الذكاء الاصطناعي جيميني، رغم تحذيرات باحثين من إمكانية استغلالها للوصول إلى بيانات حساسة ضمن بيئة المستخدمين، خاصة داخل خدمات Google Workspace.
هجوم "تهريب ASCII" يكشف وجهًا جديدًا لهندسة المحتوى
الثغرة التي اكتشفها الباحث الأمني فيكتور ماركوبولوس تقوم على ما يُعرف بتقنية "تهريب ASCII" (ASCII Smuggling)، وهي طريقة تُخفي تعليمات في نصوص عادية عبر رموز يصعب على الأنظمة اكتشافها، لكنها تُقرأ ضمنيًا من قبل أنظمة الذكاء الاصطناعي. النتيجة المحتملة: تنفيذ أوامر خفية داخل النصوص التي يُفترض أنها آمنة، مثل تلخيص بريد إلكتروني أو تحليل تقرير عمل.
بحسب تقرير Android Authority، أثبتت اختبارات باحثين أن أدوات شهيرة مثل "ديب سيك" و"غروك" معرضة لنوع الهجوم ذاته، بينما تمكنت أنظمة أخرى مثل كلود وشات جي بي تي وكوبايلوت من التصدي له بدرجات متباينة، ما يسلط الضوء على تفاوت مستويات الفلترة بين منصات الذكاء الاصطناعي التجارية.
موقف غوغل: ليست ثغرة.. بل هندسة اجتماعية
رد غوغل، الذي نُشر عبر مراسلات مع الباحثين، اعتبر أن ما يحدث لا يصنَّف "ثغرة أمنية" في البنية التقنية لجيميني، بل شكل من أشكال الهندسة الاجتماعية التي تعتمد على خداع المستخدم في مشاركة محتوى ربما يحمل أوامر مخفية. ووفق الشركة، تقع مسؤولية تفادي هذه الحالات على وعي المستخدم وإجراءات الأمان التنظيمية في بيئة العمل.
"نواصل تقييم الاستخدامات المحتملة للذكاء الاصطناعي بطريقة آمنة، لكن بعض السيناريوهات تعود إلى سلوك المستخدم لا إلى خلل في النظام" – بيان منسوب إلى ممثل عن غوغل.
بذلك، بدا أن غوغل تتجه لعدم إصدار تحديث يُصلح المشكلة، في وقت تُكثف فيه الشركات جهودها لمنع إساءة استخدام أدوات الذكاء الاصطناعي داخل بيئات العمل والسحابة. هذا الموقف أثار قلقًا متناميًا من أن اعتماد أدوات الذكاء الاصطناعي المدمجة – مثل جيميني داخل Google Workspace – قد يفتح نافذة جديدة لتسرب البيانات المؤسسية الحساسة دون قصد.
بين الموثوقية والأمن: أين تقف أدوات الذكاء الاصطناعي؟
يأتي هذا الجدل في سياق أوسع من النقاشات حول أمان الأنظمة التوليدية، بعد حوادث متفرقة كشفت حدود الحماية في بعض المنصات. فبينما تركز الشركات على تحسين الموثوقية وتحليل النصوص البشرية، تزداد الحاجة إلى جدران حماية معرفية تحمي المستخدم من مُدخلات غير مرئية. ولعل ما يميز "هجوم ASCII" تحديدًا أنه يتجاوز النقاط التقليدية للاختراق، ليحول النص البريء إلى قناة تنفيذ أوامر.
هذا النوع من الهجمات ليس جديدًا في جوهره، لكنه يكتسب بعدًا جديدًا مع دخول الذكاء الاصطناعي إلى الأدوات اليومية. حسب دراسة حديثة حول مخاطر أمان الذكاء الاصطناعي، يكمن التحدي الأكبر في قدرة هذه الأنظمة على "إعادة تفسير" النصوص دون وعي دائم بالسياق الأمني، ما يجعلها عرضة للتلاعب غير المباشر.
تحوّل في فلسفة الأمان؟
من الناحية التحريرية، قد يعكس موقف غوغل نزعة جديدة في فلسفة الأمان المعتمدة لدى الشركات الكبرى: الميل لتحميل المستخدمين جزءًا أكبر من المسؤولية، بدلاً من تشديد الضوابط التقنية. هذا التحول، إن استقر، قد يُعيد تعريف العلاقة بين مزودي الخدمات والمستخدمين في عصر الذكاء الاصطناعي المتكامل.
في النهاية، يبدو أن النقاش لن يتوقف عند حدود جيميني، بل سيمتد إلى كل منظومة تُحاول أن تجمع القوة التحليلية بالخضوع للأمان المؤسسي. والسؤال الحقيقي لم يعد عن قدرة الأنظمة على الإجابة، بل عن مدى قدرتها على قول "لا" حين يكون السؤال نفسه فخًا.









