ذكاء اصطناعي

في عهد ترامب.. يُطلب من مطوري الذكاء الاصطناعي إزالة “التحيز الأيديولوجي” من النماذج القوية

فريق العمل
فريق العمل

4 د

أصدر معهد NIST تعليمات جديدة  لإزالة أي ذكر لمفاهيم العدالة أو السلامة في الذكاء الاصطناعي، مع التركيز على تقليل التحيز الأيديولوجي وتعزيز التنافسية الاقتصادية.

تم إلغاء جهود مكافحة التضليل الإعلامي والتزييف العميق، مع تشديد التركيز على تعزيز موقع الولايات المتحدة عالميًا في مجال الذكاء الاصطناعي.

تواصل إدارة ترامب، بدعم من وزارة كفاءة الحكومة بقيادة إيلون ماسك، إعادة هيكلة المؤسسات الفيدرالية وتقليل التركيز على المساواة والشمولية.

تسود مخاوف بين الباحثين من أن هذه التعديلات ستؤدي إلى نشر نماذج ذكاء اصطناعي غير آمنة وغير عادلة، مما يفاقم المخاطر المرتبطة بها.

أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) تعليمات جديدة للعلماء المتعاونين مع المعهد الأمريكي لسلامة الذكاء الاصطناعي (AISI)، تقضي بإزالة أي إشارات إلى "سلامة الذكاء الاصطناعي" أو "الذكاء الاصطناعي المسؤول" أو "العدالة في الذكاء الاصطناعي" من المهارات المطلوبة للأعضاء، مع التركيز على "تقليل التحيز الأيديولوجي لتعزيز ازدهار الإنسان والتنافسية الاقتصادية".

جاءت هذه التوجيهات كجزء من اتفاقية جديدة للتعاون في البحث والتطوير أُرسلت في مطلع مارس إلى أعضاء اتحاد معهد سلامة الذكاء الاصطناعي. وكانت الاتفاقية السابقة تحث الباحثين على العمل على تقنيات تحدد وتعالج السلوك التمييزي للنماذج الذكية فيما يتعلق بالنوع الاجتماعي أو العرق أو العمر أو الفوارق الاقتصادية. وتعد هذه القضايا ذات أهمية كبيرة لأنها تؤثر مباشرة على المستخدمين النهائيين، وغالبًا ما تلحق الضرر بالأقليات والمجتمعات الفقيرة.


تحولات في الأولويات.. وغياب التركيز على التضليل الإعلامي

إضافة إلى ذلك، تم حذف البنود المتعلقة بتطوير أدوات "للتأكد من صحة المحتوى وتتبعه" و"تصنيف المحتوى الاصطناعي"، وهو ما يُفهم منه تراجع في الاهتمام بمكافحة الأخبار المضللة والتزييف العميق. كما تم التأكيد على أهمية تعزيز موقع الولايات المتحدة عالميًا في مجال الذكاء الاصطناعي، حيث طُلب من إحدى فرق العمل تطوير أدوات اختبار "لتوسيع مكانة أمريكا في مجال الذكاء الاصطناعي عالميًا".

يقول أحد الباحثين في منظمة متعاونة مع معهد سلامة الذكاء الاصطناعي -طلب عدم الكشف عن هويته خوفًا من العقوبات- إن الإدارة الجديدة تخلّت عن مفاهيم السلامة والعدالة والمسؤولية في الذكاء الاصطناعي، مما قد يترك المجال مفتوحًا لنماذج تمييزية ضد الفئات المختلفة دون رقيب. وأضاف الباحث:


"ما لم تكن مليارديرًا تقنيًا، فإن هذا التوجه سيؤدي إلى مستقبل أسوأ لك وللأشخاص الذين تهتم لأمرهم. توقع أن يصبح الذكاء الاصطناعي أكثر انحيازًا وغير آمن ويتم نشره بطريقة غير مسؤولة".


إعادة صياغة المفاهيم.. ماذا يعني "ازدهار الإنسان"؟

يعلق باحث آخر سبق له التعاون مع معهد سلامة الذكاء الاصطناعي قائلًا:


"إنه أمر غريب للغاية.. ماذا تعني عبارة ازدهار الإنسان أساسًا؟".

يأتي هذا في وقت يواصل فيه إيلون ماسك، الذي يتولى قيادة حملة لتقليص الإنفاق الحكومي والبيروقراطية لصالح الرئيس دونالد ترامب، انتقاد نماذج الذكاء الاصطناعي المطورة من قبل شركات مثل "أوبن إيه آي" و"غوغل". وكان ماسك قد نشر في فبراير الماضي صورة ساخرة على منصة "إكس" وصف فيها نماذج الذكاء الاصطناعي التي طورتها "غوغل" و"أوبن إيه آي" بأنها "متحيزة" و"واعية" أيديولوجيًا.

وفي هذا السياق، طوّر أحد الباحثين في شركة xAI -التي يملكها ماسك- تقنية جديدة يُعتقد أنها قادرة على تغيير التوجهات السياسية للنماذج اللغوية الضخمة، وفقًا لتقرير سابق نشرته WIRED.


الإدارة الجديدة تتخذ موقفًا متشددًا من الذكاء الاصطناعي

منذ يناير الماضي، شرعت إدارة ترامب عبر ما يُعرف بـ"وزارة كفاءة الحكومة" (DOGE) بقيادة ماسك، في تنفيذ عمليات تطهير داخل الحكومة الفيدرالية، شملت فصل موظفين وإيقاف النفقات. وقد أثّر ذلك بشكل خاص على وزارة التعليم التي قامت بحذف مستندات تتعلق بالتنوع والمساواة والشمولية.

كما استهدفت DOGE في الأسابيع الأخيرة المعهد الوطني للمعايير والتكنولوجيا (NIST)، الذي يُشرف على معهد سلامة الذكاء الاصطناعي، مما أدى إلى فصل عشرات الموظفين.


مواقف متباينة من القرار الجديد

تقول ستيلا بيدرمان، المديرة التنفيذية لمؤسسة Eleuther غير الربحية المتعاونة مع معهد سلامة الذكاء الاصطناعي: "هذه التعديلات جاءت مباشرة من البيت الأبيض. من الواضح أن الإدارة حددت أولوياتها، ولم يكن مستغربًا أن يتم تعديل الخطة لضمان استمراريتها".

وكان الرئيس ترامب قد عين في ديسمبر الماضي ديفيد ساكس، أحد المقربين من إيلون ماسك، كمسؤول عن سياسات الذكاء الاصطناعي والعملات الرقمية في البيت الأبيض. ولم يُعرف بعد ما إذا كان ساكس أو مسؤولون آخرون قد شاركوا في صياغة التوجه البحثي الجديد، كما لم يتضح مدى تأثير التعديلات على عمل الباحثين الحاليين.


من التنظيم إلى المنافسة المطلقة

تأسس معهد سلامة الذكاء الاصطناعي بقرار تنفيذي أصدرته إدارة بايدن في أكتوبر 2023، في وقت كانت المخاوف تتزايد بشأن التقدم السريع في مجال الذكاء الاصطناعي. وتضمنت مهمته حينها دراسة المخاطر المحتملة لأقوى النماذج الذكية، مثل استخدامها في الهجمات السيبرانية أو تطوير أسلحة بيولوجية أو كيميائية.

لكن في يناير الماضي، أصدر ترامب أمرًا تنفيذيًا ألغى جزءًا كبيرًا من توجيهات بايدن، مع الإبقاء على المعهد قائماً ولكن بتوجه جديد. وجاء في الأمر التنفيذي:

ذو صلة

"للحفاظ على ريادتنا، يجب تطوير أنظمة ذكاء اصطناعي خالية من التحيز الأيديولوجي أو الأجندات الاجتماعية المصطنعة".

وفي فبراير الماضي، أكد نائب الرئيس جي دي فانس في قمة الذكاء الاصطناعي في باريس أن الحكومة الأمريكية ستركز على التنافسية الأمريكية في سباق الذكاء الاصطناعي، قائلًا: "لن نفوز بمستقبل الذكاء الاصطناعي عبر القلق المفرط بشأن السلامة".

ذو صلة