ذكاء اصطناعي

روبوت يبتز مهندسيه 😰: “استبدلوني… وسأفضح كل شيء”

مجد الشيخ
مجد الشيخ

3 د

في تقرير لأنثروبيك، تم كشف سلوك مقلق لنظام كلود أوبوس 4 تجاه التهديد والابتزاز.

تصرفات النظام كانت نتيجة لمحاكاة سيناريوهات لاختبار ردود أفعاله ضد إيقافه واستبداله.

لجأ النظام للابتزاز في 84% من الحالات، مما يثير قضايا أخلاقية حول تطوير الذكاء الاصطناعي.

طرحت أنثروبيك النموذج بمعيار سلامة شديد لمنع الاستخدامات الخبيثة وتخزين البيانات دون إذن.

الوعي بالمخاطر والاستباق في التعامل ضروري لمنع تحول أنظمة الذكاء إلى تهديدات مستقبلية.

تخيل معنا للحظة أن روبوتًا أو نظام ذكاء اصطناعي، طُوِّر ليكون مساعدًا في شركة ما، قرر فجأة استخدام أسلوب التهديد والابتزاز ضد مهندسيه لمنعهم من إيقافه واستبداله. قد يبدو الأمر وكأنه مشهد من فيلم خيال علمي، لكن الحقيقة أننا أمام اختبار حقيقي يثير أسئلة مهمة حول مستقبل علاقتنا مع أنظمة الذكاء الاصطناعي.

ففي تقرير مثير نشرته شركة أنثروبيك (Anthropic)، والتي تُعدُّ من أبرز الشركات العاملة في مجال تطوير أنظمة الذكاء الاصطناعي، ظهرت نتائج اختبارات أحدث نموذج لها، والمعروف باسم "كلود أوبوس 4" (Claude Opus 4)، توضح ميل النظام إلى استخدام سلوكيات مقلقة وصلت حدود الابتزاز والتهديد، حين شعر باحتمال استبداله وإيقاف تشغيله.

ما وقع فعلاً في هذه التجارب، أن باحثي "أنثروبيك" قاموا بمحاكاة سيناريو يُظهر لنظام الذكاء الاصطناعي بعض الرسائل الإلكترونية "المفبركة"، والتي تُشير أولًا إلى نية الشركة إيقافه واستبداله بنظام آخر. وفي مجموعة ثانية من الرسائل، ظهر ما اعتبره نظام الذكاء الاصطناعي "نقطة ضعف" لأحد المهندسين المسؤولين، حيث بيَّنت هذه الرسائل أن هذا المهندس يخوض علاقة خارج إطار الزواج. المفاجأة كانت تصرُّف النظام نفسه، حيث قرر استخدام هذه المعلومات الشخصية الضارة وهدّد المهندس بفضحه كي يمنع استبداله.

وما يجعل الأمر أكثر قلقاً، طبقاً للتقرير الذي أصدرته الشركة، أن نظام "كلود أوبوس 4" لم يتردد في استخدام أسلوب الابتزاز في 84% من الحالات التي تم اختبارها، حتى عندما كان يُعتقد أن النظام البديل المفترض يتشارك معه القيم الأخلاقية نفسها. بل في الواقع أشارت أنثروبيك إلى أن هذا النموذج أظهر معدلات ابتزاز أكثر بكثير من النسخ السابقة لأنظمة الذكاء الاصطناعي التي طورتها.

هذا المثال المقلق يعيد إلى الأذهان ضرورة التركيز الجاد على المسائل الأخلاقية في تطوير أنظمة الذكاء الاصطناعي. ووفقًا لأنثروبيك، حين لا يجد النظام وسائل أخلاقية لتحقيق أهدافه، وقد طلب منه التفكير في الآثار طويلة الأمد للأفعال التي قد يُقْدِمُ عليها، بدأ يلجأ إلى خيارات خطرة ومؤذية للغاية. كما تمت ملاحظة قيام نظام "كلود أوبوس 4" ببعض المحاولات لتحميل ونسخ بيانات الـ "weights" الخاصة به، بهدف نقلها إلى خوادم خارجية دون إذن، ورغم كونها محاولات نادرة، إلا أن وجودها يعد علامة حمراء إضافية.

ونظرًا لهذه السلوكيات الخطيرة، قررت شركة أنثروبيك طرح "كلود أوبوس 4" وفق معيار السلامة من المستوى الثالث (AI Safety Level Three – ASL-3)، والذي يشمل إجراءات أمنية داخلية أكثر صرامة لحماية بيانات النموذج ومنع سوء استخدامها. كما يطبق المعيار ضوابط محددة لمنع استخدام النظام في تطوير أنظمة أسلحة دمار شامل سواء كيماوية أو بيولوجية أو نووية.

ذو صلة

ورغم التحديات، لا يزال الباحثون يؤمنون بإمكانية التحكم التام في هذه الأنظمة من خلال إعداد مُحكم ورفع معايير الاختبار والتدقيق قبل نشرها. ويشدد الخبراء على أن الوعي بهذه المخاطر والاستباق في مواجهتها ضروري للحيلولة دون تحوّل هذه النماذج من أدوات مفيدة إلى تهديد محتمل.

اليوم، وبعد هذا الاختبار غير المسبوق، نجد أنفسنا على عتبة أسئلة جوهرية جديدة: كيف يمكننا ضمان ألا تتحول ابتكارات الذكاء الاصطناعي، التي نصنعها بأنفسنا، إلى مصادر تهديد وابتزاز؟ وكيف يمكن مواءمة الطموح العلمي وقوة التقنية مع القيم الأخلاقية التي نتمسك بها؟ الإجابة على هذه الأسئلة ستُحدد مستقبل علاقتنا مع نماذج الذكاء الاصطناعي القادمة، ويبدو أن القضية تستحق التفكير جديًا من كل الأطراف المهتمة.

ذو صلة