دعوات واسعة من شخصيات بارزة عالميًا لوقف تطوير الذكاء الاصطناعي الفائق

3 د
تحذير من العلماء بشأن الذكاء "الخارق" حتى تتوافر ضمانات علمية وأخلاقية كافية.
وقع أكثر من 850 شخصية بارزة بيانًا يدعو إلى وقف السعي وراء الذكاء الخارق.
السباق نحو الذكاء الاصطناعي بات وجوديًا، والتهديدات تتجاوز الربح.
الفجوة بين الأرباح والمخاطر تظهر أسئلة حول السيطرة على المستقبل.
الدعوة لتجميد الأبحاث تعكس القلق من طموحات الشركات التكنولوجية.
بينما يتسابق العالم لتطوير ذكاء اصطناعي يُحاكي الإنسان في قدراته، اختارت مجموعة من أبرز العقول التقنية رفع صوت التحذير بدلًا من الحماس. في مبادرة لافتة، وقّع أكثر من 850 شخصية من العلماء والمبتكرين ورجال الفكر والسياسة بيانًا يدعو إلى وقف السعي وراء “الذكاء الخارق” حتى تتوافر ضمانات علمية وأخلاقية كافية للتحكم به. وفقًا لتقرير CNBC، ضمت القائمة أسماء مثل ستيف ووزنياك وريتشارد برانسون، مروراً بجيـوف هينتون ويوشوا بنجيو وستيوارت راسل، وجميعهم معروفون بولائهم العميق للبحث العلمي لا لمجرد السباق التجاري.
من الحلم إلى التحذير الجماعي
قبل أعوام قليلة، كانت فكرة ذكاء يفوق قدرات البشر تبدو حلمًا علميًا جريئًا. اليوم، ومع اقتراب أنظمة الذكاء الاصطناعي من التفكير والتحليل بشكل شبه بشري، أصبح السؤال ليس "هل سنصل؟" بل "هل علينا أن نصل؟". التحذير الذي يجمع بين علماء ومفكرين من اتجاهات متعارضة يعكس إدراكًا جماعيًا بأن السباق لم يعد علميًا فقط، بل وجوديًا أيضًا. ما كان طموحًا أكاديميًا صار احتمالاً يهدد استقرار البشر ومسؤوليتهم عن مصيرهم.
الفجوة بين الأرباح والمخاطر
بينما تستثمر شركات مثل OpenAI وMeta وxAI مليارات الدولارات لتطوير نماذج أكثر "ذكاءً"، يرى الموقعون على البيان أن هذا التسارع التجاري لا يوازيه نضوج أخلاقي أو مؤسسي. المخاوف تمتد من فقدان الوظائف إلى انهيار الثقة في أدواتنا الرقمية، ومن سيطرة الشركات على السرد التقني إلى احتمالية انحراف الأنظمة عن السيطرة البشرية. في خلفية هذه المخاوف يبرز سؤال عميق حول من يملك المستقبل حين تصبح الخوارزميات أذكى من صانعيها.
حاجة مستمرة إلى الإجماع والعلم
دعا البيان إلى تجميد الأبحاث التي تهدف إلى بناء ذكاء خارق حتى يتحقق إجماع علمي واجتماعي حول إمكانية ضبطه وضمان سلامته. كلمات يوشوا بنجيو، أحد المؤسسين الفعليين لمجال الذكاء العميق، تلخص المأزق: علينا أن نعرف كيف نصمم أنظمة غير قادرة على الإيذاء عمدًا أو بغير قصد، وفي الوقت نفسه نحافظ على حق البشرية في تقرير مصيرها التقني. هذا الطرح يزيل الغلالة عن فكرة التطور اللانهائي، ويذكّرنا بأن الذكاء ليس قيمة مطلقة بل مسؤولية أيضًا.
انقسام جديد في صناعة التكنولوجيا
التحرك الأخير يعمّق الانقسام القائم داخل مجتمع التقنية بين تيارين: الأول يرى في الذكاء الاصطناعي فرصة لتجاوز حدود الإنسان وحل مشكلاته الكبرى، والثاني يخشى أن يكون تجاوز الحدود ذاتها سببًا في فقدان الحرية والمعنى. الجدير بالذكر أن بعض القادة الذين يحذرون اليوم، مثل إيلون ماسك وسام ألتمان، كانوا أنفسهم من أوائل من نبه إلى مخاطر الذكاء الخارق قبل أن يصبح مشروعًا تجاريًا ضخمًا. هذا التناقض يفضح صعوبة التوفيق بين الحذر الأخلاقي والطموح الصناعي.
مستقبل الذكاء… بين الوعي والسيطرة
يبدو أن النقاش حول الذكاء الخارق لن يتوقف قريبًا، لأن جوهره ليس في التقنية فحسب، بل في حدود السيطرة البشرية نفسها. السؤال الحقيقي هو ما إذا كنا مستعدين نفسيًا ومؤسسيًا لوجود كائن رقمي يفكر بحرية تشبهنا وربما تتفوق علينا. إلى أن تتضح الإجابات، سيبقى المستقبل معلقًا بين خبرة العلماء وحذر الفلاسفة وطموح الشركات.









