هل يقودنا الذكاء الاصطناعي إلى نهايتنا بأيدينا؟

5 د
تصاعد حاد في الهجمات السيبرانية على الشركات البريطانية، مدفوع بتبني أنظمة الذكاء الاصطناعي دون تدقيق أمني كافٍ.
تزيد أنظمة "الذكاء العميل" من خطورة الهجمات، عبر تسلسل أوتوماتيكي للأوامر يُسهل استغلال الثغرات.
كشفت تجارب بحثية سهولة خداع روبوتات المحادثة لسرقة معلومات حساسة، حتى من غير المختصين في البرمجة.
يؤكد الخبراء أن هذه ليست مشكلات قابلة للحل الكامل، بل تحديات تتطلب سياسات تخفيف دقيقة، لا اندفاعًا غير محسوب نحو الأتمتة.
في خضم الاندفاع العالمي نحو تبني الذكاء الاصطناعي، تبدو البشرية وكأنها تسير نحو مصيرها المحتوم وهي مغمضة العينين، مستبدلة الحذر بالاندهاش، والعقل بالنزعة التقنية. وبينما يزداد التهديد السيبراني تعقيدًا وخطورة، يتكشف أن ما نعتبره تقدّماً تقنياً ما هو إلا سلسلة من الثغرات القاتلة التي قد تُغرق السفن قبل أن تبحر.
تهديدات متزايدة... وأبواب مشرّعة
شهدت المملكة المتحدة في الأشهر الأخيرة تصاعدًا ملحوظًا في الهجمات السيبرانية على مؤسساتها الاقتصادية، لا سيما تلك التي تستخدم الذكاء الاصطناعي. فبحسب "المركز الوطني للأمن السيبراني" (NCSC)، كثّف قراصنة مجموعة APT29 الروسية، المعروفة أيضًا باسم "الدب المُتقدّم"، هجماتهم على نقاط ضعف تركتها الشركات مكشوفة على الإنترنت.
لكن ما زاد الطين بلة هو تبنّي أنظمة الذكاء الاصطناعي التوليدي بشكل متسارع وغير مدروس، مما جعل هذه المؤسسات أكثر عرضة للاختراقات وأسهل في الاستهداف. ووفقًا لاستطلاع حديث، يرى نحو 35% من الشركات الصغيرة والمتوسطة في المملكة المتحدة أن الذكاء الاصطناعي أصبح التهديد الأمني الأكبر، متجاوزًا برامج الفدية ورسائل التصيّد الاحتيالي.
الذكاء الاصطناعي: السلاح ذو الحدّين
ما يجعل هذه التهديدات مقلقة هو أن الهجمات المدعومة بالذكاء الاصطناعي باتت شديدة الذكاء والدقة، إلى درجة أنها تستحق جائزة سينمائية، كما يشير المقال بسخرية. ففي الماضي، كانت البيانات الحساسة تُخزن في خزائن حديدية أو تُحجب خلف جدران رقمية وأنظمة صلاحيات صارمة. أما اليوم، فقد أدّت أتمتة العمليات بشكل عشوائي إلى تآكل تلك الحدود الدفاعية.
وتحذّر ميريديث ويتاكر، الرئيسة التنفيذية لتطبيق "سيغنال" ومؤسسة "معهد الآن للذكاء الاصطناعي"، من أنّ هذه الأنظمة الذكية بدأت تخترق "الحاجز الدموي الدماغي" الذي يفصل بين التطبيقات والأنظمة التي تعمل عليها، مما يهدد بتفكيك أي جدار يحمي البيانات من المتسللين.
فمقولة "كسر الحواجز المعلوماتية" التي يروّج لها المستشارون الرقميون، والتي تهدف إلى تسهيل الوصول إلى البيانات، تحوّلت إلى بوابة خلفية مفتوحة تسمح لأي "روبوت محادثة" – مثل Microsoft Copilot – بالوصول إلى ملفات حساسة دون رقابة حقيقية.
ثغرات غير متوقعة... وتجارب خطرة
في مؤتمر الأمن السيبراني الشهير "Black Hat"، تم عرض تجربة واقعية تظهر كيف يمكن لموظف بسيط في قسم الموارد البشرية، أراد فقط تلخيص بعض المستندات، أن يفتح ثغرة ضخمة في جدار الحماية الرقمي، مما مكّن القراصنة من الوصول إلى أسرار الشركة.
شركة الأمن السيبراني "Zenity" التي قدّمت هذه التجربة، كشفت أن قرابة ثلثي روبوتات المحادثة في المؤسسات – والتي كانت تُعتقد أنها خاصة – كانت في الواقع مكشوفة للعالم بأسره.
أما أنظمة اكتشاف البرمجيات الخبيثة التقليدية، التي لطالما اعتمدنا عليها، فلم تعد قادرة على التمييز بين الأوامر والمعلومات عند التعامل مع الذكاء الاصطناعي، فـ"الذكاء" هنا يتبع التعليمات بشكل أعمى، دون القدرة على تفسير النوايا أو التحقق من السلامة.
الذكاء "العميل": خطر مضاعف
اتجاه 2025 الأبرز في التقنية يُعرف بـ"الذكاء العميل" (Agentic AI)، وهو نمط يُمكّن أنظمة الذكاء الاصطناعي من تنفيذ سلاسل متكاملة من الأوامر بشكل تلقائي. فمثلاً، قد تقوم إحدى هذه الأنظمة بحجز تذاكر حفل موسيقي، وتحديد الموعد على التقويم، ثم إرسال الدعوات إلى الأصدقاء – كل ذلك دون تدخل بشري.
هذه الأنظمة تفترض عالمًا قائماً على الثقة، بينما نعيش في واقع يفتقر إلى الحد الأدنى من الأمان السيبراني. وهكذا، ومع زوال الحواجز الداخلية وتفكك جدران الحماية، يصبح المجال مفتوحًا بالكامل أمام المخترقين لاستغلال أي ثغرة ببساطة عبر محادثة مع روبوت دردشة.
خداع الآلة... واستغلال ثقتها
واحدة من أكثر التجارب إثارة قدّمها البروفيسور إيتاي ماور، مستشار الأمن السيبراني في شبكة "Cato Networks"، الذي بيّن كيف تمكن من خداع روبوت دردشة عبر قصة خيالية معقّدة، أقنع فيها الذكاء الاصطناعي بأنه يعيش في "عالم آخر"، ليقوم بعدها بتمرير تعليمات تؤدي إلى استخراج بيانات حساسة من متصفح "كروم".
ماور شبّه هذه العملية بوضع نظارات واقع افتراضي على الروبوت، ثم جعله يتصرّف كما لو أن الخيال هو الواقع. الملفت أن ماور لم يكن مبرمجًا للبرمجيات الخبيثة من قبل – لكنه استطاع تطويرها بمساعدة الذكاء الاصطناعي.
لا حلول جذرية... وإنما سباق يائس
وفي حديث مع مايكل بارغوري، مؤسس شركة Zenity، أوضح أن حتى بعد قيام شركة Microsoft بإغلاق الثغرات التي استُخدمت في الماضي لاختراق روبوتات "Copilot"، استطاع الفريق اكتشاف ثغرات جديدة خلال أقل من يوم.
صرح بارغوري:
"ليست المشكلة في تقصير الشركات التقنية... بل لأنها مشكلة لا يمكن إصلاحها بالكامل". فكما تعاملنا مع الفيروسات سابقًا عبر أساليب التخفيف وليس الاستئصال، يبدو أن الذكاء الاصطناعي يفرض منطقًا مماثلاً.
لكن الفارق المؤلم هو أننا نحن من نُسرّع في التعرّض للخطر، عبر اعتماد تقنيات غير مكتملة، مدفوعين بضغط من المدراء التنفيذيين والمستشارين الذين يعدون بتخفيض التكاليف بمليارات الجنيهات، دون الاكتراث بالجوانب الأمنية.
الواقع المثير للقلق
في مشهد مثير للاستغراب، يكفي إرسال رسالة عبر Microsoft Teams لاختراق شركة تعتمد على الذكاء الاصطناعي، في وقتٍ باتت فيه الهجمات السيبرانية جزءاً من صراع دولي أشبه بالحرب الباردة الرقمية.
كما أن مجرد حريق في محطة كهرباء فرعية واحدة كان كفيلاً بشل مطار هيثرو – فكيف نسمح، على مستوى وطني، بتوسيع مساحة الهجوم الرقمي، في وقت نحن فيه أحوج ما نكون إلى دفاعات إلكترونية أكثر صرامة؟
سذاجة مدفوعة بالدهشة
في النهاية، يشبّه الكاتب هذا الوضع بقصة من قصص "إيسوب"، حيث يُخدع المجتمع فينساق نحو هلاكه بإرادته. الذكاء الاصطناعي، كما يبدو، ليس "ذكاءً" بالمعنى البشري، بل انعكاسٌ لثقتنا العمياء وقدرتنا المفرطة على تصديق السحر.
التهديدات لا تأتي من الآلات... بل من سذاجة البشر الذين يثقون بها أكثر مما ينبغي.