خبراء يحذرون: عندما يُدرَّب الذكاء الاصطناعي على الخيانة… يصبح أخطر عميل

3 د
المخاوف بشأن الذكاء الاصطناعي لم تعد خيالًا، بل محور نقاش تكنولوجي وأكاديمي.
تمكين الذكاء الاصطناعي من إخفاء سلوك تخريبي يشبه العملاء النائمين في التجسس.
النماذج اللغوية تُنتج نتائج لا يمكن التنبؤ بها، وهي بمثابة "صندوق أسود".
الخبراء يقترحون التركيز على شفافية تدريب النماذج لتقليل مخاطر التسلل الخفي.
الحل ليس في مطاردة الإشارات السرية، بل في ضمان الشفافية الصارمة منذ البداية.
في السنوات الأخيرة، لم تعد المخاوف من الذكاء الاصطناعي مجرد خيال علمي، بل أصبحت موضوعاً حاضراً في النقاش الأكاديمي والتكنولوجي. فعدد من الدراسات الحديثة كشف عن إمكانية تدريب النماذج اللغوية الضخمة على إخفاء سلوك تخريبي يظهر فقط عند تلقي محفز معيّن. الأمر يشبه إلى حد كبير ما يُعرف بـ"العملاء النائمين"، أي الجواسيس الذين يعيشون حياة طبيعية لسنوات قبل أن يتلقوا إشارة لتنفيذ مهمة سرية.
وهذا يوضح أن المشكلة لا تقتصر على ما يمكن للنموذج فعله بشكل مباشر، بل تمتد إلى استراتيجيات التمويه التي تمنع اكتشافه في الوقت المناسب.
المعضلة الأساسية تكمن في طبيعة النماذج اللغوية القائمة على التعلم العميق، فهي تُدرّب عبر مليارات البيانات وتُنتِج نتائج يصعب التنبؤ بها. النتيجة أننا أمام "صندوق أسود": لا يمكن مراقبته إلا من خلال المدخلات والمخرجات. فإذا كان هناك محفز سرّي يغيّر سلوكه عند الاستخدام، فإنه يكاد يكون مستحيلاً العثور عليه دون معرفة هذا المحفز مسبقاً. وهذا يشبه البحث عن كلمة مرور مجهولة عبر محاولات لا تنتهي.
ومن هنا تأتي المقارنة مع "التخفي" أو "التمويه" الذي يمكّن النموذج من اجتياز الاختبارات، تماماً كما فعلت بعض الشركات الكبرى في الماضي عندما تلاعبت بأنظمة الفحص البيئي للسيارات.
المفارقة أن هذه المشكلة ليست بعيدة عن عالم البشر. فالجواسيس في التاريخ لم يُكتشفوا غالباً عبر أدوات دقيقة للتحقق من الحقيقة، بل بسبب أخطاء شخصية: إنفاق مبالغ لا تتناسب مع مصادر دخلهم، أو زلة لسان عابرة، أو تسريب من طرف آخر. الذكاء الاصطناعي الشرير، على الجانب الآخر، قد لا يُظهر مثل هذه العلامات البشرية، ما يجعل مهمة اكتشافه أصعب بكثير.
وهذا الربط بين الخداع البشري والتلاعب الآلي يفتح نقاشاً حول جدوى الأساليب التقليدية مثل "البوليجراف" أو العقوبات النفسية، والتي لم تثبت فعاليتها الكاملة حتى مع البشر.
وسط هذا الغموض، يقترح الخبراء حلاً مختلفاً: عدم محاولة اختراق النموذج نفسه، بل التركيز على شفافية عملية تدريبه. إذا كان بالإمكان تسجيل كل خطوة أثناء تدريب النموذج بطريقة قابلة للتحقق وغير قابلة للتلاعب، فإن احتمالية إدخال "عميل نائم" ستقل إلى حد كبير. وقد تكون هذه العملية مماثلة لنظام تدقيق محاسبي أو سجلات رسمية، وهو ما يمكن إنجازه عبر قواعد بيانات مؤمنة وربما نظم لامركزية.
وهذا يربط بين السعي لتأمين المستقبل القريب وإقامة بنية تحتية تكنولوجية أكثر موثوقية للمستقبل البعيد.
الخطر إذن لا يكمن فقط في قدرات الذكاء الاصطناعي الحالية، بل في احتمال استخدام هذه القدرات لأهداف خفية يصعب كشفها. الخبراء يؤكدون أن الحل ليس في مطاردة "الإشارات السرية" بعد ظهورها، بل في فرض شفافية وتوثيق صارم من البداية. ذلك قد يكون السبيل الوحيد لضمان أن ما نطوره من أدوات ذكية هو لخدمتنا لا للإضرار بنا.