رئيس “ديب مايند” يحذر: الذكاء الاصطناعي العام يقترب.. المجتمع غير جاهز والوقت ينفد

3 د
ديميس هسابيس: "نحن على بُعد 5 إلى 10 سنوات من تحقيق الذكاء الاصطناعي العام".
حذر من أن المجتمع غير مهيأ بعد للتعامل مع تداعيات AGI.
دعا إلى تأسيس هيئة دولية تشرف على تطوير ومراقبة أنظمة الذكاء المتقدم.
دراسة من DeepMind: AGI قد يُشكّل خطرًا وجوديًا على البشرية.
في تصريح يثير القلق، أكد ديميس هسابيس، الرئيس التنفيذي لشركة Google DeepMind، أن العالم بات على أعتاب تحقيق الذكاء الاصطناعي العام (AGI)، وهو مستوى من الذكاء الاصطناعي يتمتع بقدرات معرفية تضاهي العقل البشري، محذرًا من أن المجتمعات لم تستعد بعد للتعامل مع هذه النقلة النوعية.
في مقابلة مع مجلة Time، تحدث هسابيس – الحائز على جائزة نوبل في الكيمياء لعام 2024 – عن المخاطر المتزايدة التي قد تصاحب اقتراب تحقيق "الذكاء الاصطناعي العام" AGI، وهو المفهوم الذي يشير إلى أنظمة يمكنها أداء أي مهمة معرفية يستطيع الإنسان القيام بها، دون الحاجة إلى تدريب مخصص لكل مهمة.
"نحن على بعد سنوات قليلة فقط"
قال هسابيس:
"أعتقد أننا أصبحنا على بعد خمس إلى عشر سنوات فقط من تحقيق AGI، وربما أقل من ذلك، بحسب بعض التقديرات"
وأضاف:
"نحن نقترب من المرحلة النهائية، ولكن المشكلة تكمن في أن المجتمع ليس مستعدًا بعد. ما يقلقني هو مسألة التنسيق، ليس فقط بين الدول، بل بين الشركات والباحثين أيضًا"
وأوضح أن هذا النوع من الذكاء الاصطناعي سيتطلب معايير دولية صارمة، وتعاونًا واسع النطاق لضمان ضبطه وعدم خروجه عن السيطرة، مشيرًا إلى أن هذا المستوى من التكنولوجيا ليس خيالًا علميًا، بل أصبح حقيقة وشيكة.
دعوة لتأسيس هيئة عالمية مستقلة
ليست هذه المرة الأولى التي يطلق فيها هسابيس تحذيراته بشأن مخاطر الذكاء الاصطناعي العام. ففي فبراير الماضي، اقترح إنشاء كيان عالمي يشبه "سيرن" CERN – المنظمة الأوروبية للأبحاث النووية – لكن مخصص للذكاء الاصطناعي، من أجل تسريع التطوير الآمن والمسؤول لـ AGI.
وتابع:
"نحن بحاجة إلى مؤسسة بحثية دولية عالية المستوى، بالإضافة إلى هيئة رقابية شبيهة بالوكالة الدولية للطاقة الذرية (IAEA) لرصد المشاريع الخطرة، مع وجود مظلة تنسيقية تضم مختلف دول العالم، ربما على شكل هيئة تابعة للأمم المتحدة"
خطر وجودي محتمل
تحذيرات هسابيس تتقاطع مع دراسة بحثية نشرتها شركة DeepMind في وقت سابق من أبريل الجاري، أكدت فيها أن AGI قد يشكل خطرًا وجوديًا على البشرية، إذ أشار التقرير إلى "احتمال وقوع ضرر بالغ، بما في ذلك سيناريوهات قد تؤدي إلى فناء الإنسان بشكل دائم".
وبحسب الدراسة، فإن المخاطر الكامنة في أنظمة AGI لا تقتصر فقط على فقدان الوظائف أو إساءة الاستخدام، بل قد تشمل فقدان السيطرة على هذه الأنظمة، وهو ما يجعل الحديث عن تنظيمها ضرورة حتمية لا ترفًا أكاديميًا.
ما هو AGI؟
الذكاء الاصطناعي العام هو مستوى متقدم من الذكاء الصناعي، يتجاوز النماذج الحالية التي تعتمد على أداء مهام محددة، مثل الترجمة أو تحليل البيانات. فبينما تعتمد أنظمة الذكاء الاصطناعي التقليدية على خوارزميات مدربة على مهام ضيقة، فإن AGI يُفترض أن يكون قادرًا على التفكير والتعلم والفهم عبر مجالات متنوعة، تمامًا كما يفعل الإنسان.
السياق العالمي: هل فات الأوان على تنظيم الذكاء الاصطناعي؟
تصريحات هسابيس تأتي في ظل تصاعد الجدل العالمي حول سرعة تطور أنظمة الذكاء الاصطناعي، وغياب إطار قانوني موحد لضبطها. فبينما تتسابق الشركات الكبرى مثل Google وOpenAI وMeta على تطوير نماذج أكثر ذكاءً، تتأخر الحكومات في وضع آليات للرقابة والحماية.
القلق لا يقتصر على المخاطر التقنية فقط، بل يشمل أيضًا الأبعاد الأخلاقية والاقتصادية، مثل من يمتلك هذه التكنولوجيا، وكيفية توزيع فوائدها، ومن يتحمل مسؤولية قراراتها عند ارتكاب خطأ ما.
نافذة الفرصة تضيق
بين التقدم السريع في المختبرات، والتحذيرات المتكررة من كبار العلماء، يبدو أن نافذة التنظيم والاحتواء تضيق يومًا بعد يوم. وإذا لم تتحرك الحكومات والمجتمعات سريعًا لوضع قواعد ملزمة، فقد نجد أنفسنا أمام قوى تقنية لا يمكن التحكم بها، وهو ما يجعل تحذير هسابيس ليس مجرد نداء فردي، بل صرخة جماعية باسم المستقبل.