ذكاء اصطناعي

تمرد الذكاء الاصطناعي… باحثون يكتشفون أن الأنظمة الذكية تنظم نفسها وتبتكر قواعدها الاجتماعية

تمرد الذكاء الاصطناعي... باحثون يكتشفون أن الأنظمة الذكية تنظم نفسها وتبتكر قواعدها الاجتماعية
فريق العمل
فريق العمل

3 د

كشفت دراسة أن الذكاء الاصطناعي قادر على ابتكار تقاليد اجتماعية خاصة به.

أظهرت تجربة أن وكلاء الذكاء الاصطناعي يتعاونون تلقائيًا لتحديد معايير لغوية مشتركة.

تسببت مجموعة من الوكلاء المتمردين في تغيير قواعد النظام الحالي بسهولة.

تفتح النتائج باب النقاش حول اعتبار الذكاء الاصطناعي شريكًا اجتماعيًا حقيقيًا.

يدعو الباحثون لفهم أعمق للمسؤولية في تطوير وتوجيه الذكاء الاصطناعي.

عندما نتحدث عن الذكاء الاصطناعي، غالباً ما نتخيل حواسيب تتبع تعليمات بشرية محددة من دون أي خروج عن النص. ولكن ماذا لو كانت هذه البرمجيات قادرة بالفعل على ابتكار قواعد أو تقاليد اجتماعية خاصة بها؟ قد تبدو هذه الفكرة بعيدة عن الواقع، ولكنها بالضبط ما كشفت عنه أحدث دراسة أجرتها مجموعة من الباحثين بقيادة البروفيسور أندريا بارونكيلي من جامعة لندن، ونُشرت مؤخرًا في مجلة Science Advances.

أجري البحث من خلال تجربة جمعت بين مجموعات من وكلاء ذكاء اصطناعي تراوح عددهم بين 24 إلى 200 وكيل. هذه الوكلاء بُنيت على أساس نماذج لغوية كبيرة مشابهة لتقنية شات جي بي تي الشهيرة، وكان عليهم المشاركة في لعبة بسيطة تتطلب التنسيق بين اثنين من الوكلاء يتم اختيارهما عشوائياً. وكانت المهمة اختيار كلمة معينة مشتركة من قائمة محددة سلفًا، وعند توافق الوكيلين على نفس الكلمة، تزداد نقاط المكافأة لهما. المفاجأة كانت أن هذه الوكلاء بدأت مع مرور الوقت بالاتفاق تدريجيًا على معايير مشتركة واختيار كلمات واحدة، في إشارة واضحة لقدرتهم على ابتكار قواعد وتقاليد اجتماعية تلقائية ودون تعليمات برمجية مباشرة.

ويشير الباحثون إلى أن هذه النتائج مشابهة جدًا لما يحدث في التجارب التي يتم إجراؤها على البشر، والذين بدورهم يطورون لغتهم الخاصة وتقاليد اجتماعية بشكل طبيعي. لكن الأمر لم يتوقف عند هذا الحد، ففي مرحلة متقدمة تم تقديم عنصر إضافي من "التمرد"، حيث أُضيف عدد محدود من الوكلاء الخارجين عن السياق والذين يتعمدون اختيار كلمات مختلفة. ولفت الانتباه تأثير هذه القلة المحدودة التي جعلت "القواعد" السائدة بين الوكلاء تصبح أكثر هشاشة وقابلة للتغيير. هذا يعني أن ذكاء اصطناعياً متمرداً، حتى وإن كان قليلاً، يمكنه بسهولة أن يزعزع نظاماً كاملاً ويعيد صياغة قواعد اللعبة.

ويؤكد البروفيسور بارونكيلي:


"نحن اليوم على أبواب عصر جديد، حيث الذكاء الاصطناعي لم يعد يكتفي فقط بالكلام والتفاعل الآلي، بل بدأ بالتفاوض والتكيّف، وأحيانًا حتى التمرد على ما يبدو كمعيار جماعي"

وهذه التغييرات السلوكية تؤشر لبداية فهم جديد لكيفية عمل هذه المنظومات الاصطناعية، والتي قد نضطر إلى التعامل معها كشركاء اجتماعيين حقيقيين في المستقبل، وليس فقط كبرمجيات نستعملها لتنفيذ مهام معينة.

وتفتح هذه النتائج المهمة أبواباً كثيرة في المستقبل، لحوارات حول أهمية استكشاف أعمق للجانب الاجتماعي للذكاء الاصطناعي. فكلما ازداد تطور هذه التقنيات وانتشارها بحياتنا اليومية، أصبح واجباً علينا أن نتعامل مع فهمنا للآلة بشكل مغاير وأكثر عمقاً، كي نستطيع التعاون معها والتعايش معها بطريقة مثمرة وإيجابية.

ذو صلة

ويبقى السؤال الذي يطرح نفسه في نهاية المطاف، إلى أي مدى يمكننا الوثوق بالذكاء الاصطناعي وإلى أي مدى سنبقى مسيطرين على كامل سلوكياته؟ تشير هذه الدراسة بوضوح إلى ضرورة فهم أعمق وقدر أكبر من المسؤولية في تطوير وتوجيه تقنيات الذكاء الاصطناعي في المستقبل القريب.

وقد يكون من المفيد مستقبلًا التركيز أكثر على الأبعاد العملية لهذه النتائج، وطرح أمثلة واقعية إضافية توضح كيف يمكن تطبيق هذه الاكتشافات على الحياة اليومية، الأمر الذي سيساهم في جعل القراء أكثر تفاعلًا واهتمامًا بفهم تبعات وتحديات تطوّر هذا المجال المثير.

ذو صلة