تعاقد ضخم بين OpenAI والبنتاغون الأمريكي لتطوير تقنيات الذكاء الاصطناعي الخاصة بالدفاع السيبراني

3 د
وقعت "أوبن إيه آي" عقدًا مع البنتاغون بـ200 مليون دولار لتطوير تقنيات الذكاء الاصطناعي.
يشمل العقد تطوير قدرات AI لمواجهة تحديات الأمن الوطني في المجالين الإداري والقتالي.
أكدت "أوبن إيه آي" أن التقنية لن تستخدم في تطوير أسلحة أو إيذاء الأفراد.
الشركات الكبرى AI تتجه للتعاون مع الجهات الدفاعية وسط تطورات حديثة.
التعاون يوفر فرصًا لتعزيز إمكانيات الدفاع مع التزام باستخدام مسؤول للتقنيات.
عندما تُذكر شركة "أوبن إيه آي"، يتبادر إلى أذهان معظمنا روبوت الدردشة الشهير "شات جي بي تي"، وربما بعض الاستخدامات التكنولوجية الأخرى في الحياة اليومية، لكن الجديد هذه المرة قد يفاجئك: فقد خطت الشركة خطوة كبيرة في إبرام تعاقد ضخم مع وزارة الدفاع الأمريكية (البنتاغون) بقيمة 200 مليون دولارٍ أمريكي، وذلك لتطوير تقنيات ذكاء اصطناعي مخصصة للأغراض الإدارية والأمنية، وتحديداً في مجال "الدفاع السيبراني الاستباقي".
وبحسب بيانات وزارة الدفاع، ستعمل شركة "أوبن إيه آي" على تطوير قدرات ذكاء اصطناعي متقدمة (Frontier AI) تستطيع مواجهة تحديات ملحة في قطاعات الأمن الوطني، سواء في المجالات الإدارية أو العمليات القتالية. وسيتم تنفيذ غالبية العمل في منطقة العاصمة واشنطن، على أن يكتمل المشروع بحلول يوليو عام 2026.
وهذه الشراكة مع البنتاغون، بحسب ما أعلنت "أوبن إيه آي" في مدونتها الرسمية، تُعدّ أول تعاقد في إطار مبادرة جديدة تهدف إلى تقديم حلول الذكاء الاصطناعي لموظفي الحكومة الفيدرالية والمحلية. لكن، وبطريقة معتدلة، أكدت الشركة أن الاستخدامات المرخصة للتقنيات المخصصة للأمن الوطني ستكون "محدودة النطاق"، مع التزام صارم بسياسة الاستخدام القائمة، والتي تؤكد على منع استخدام أدواتها في "تطوير أو استخدام أسلحة" أو لأغراض "إيذاء الأشخاص أو تدمير الممتلكات".
ورغم أنه قد يبدو للكثيرين أن هذا التعاقد هو الأول من نوعه لـ "أوبن إيه آي" مع جهات عسكرية، فإن الحقيقة مختلفة قليلاً؛ إذ سبق للشركة وأن تعاونت في ديسمبر عام 2024 مع شركة "أندوريل إندستريز" لتضمين تقنياتها في أنظمة الدفاع ضد الطائرات المسيّرة (الدرون). وهذا يعكس توجهاً واضحاً بدأ في السنوات الأخيرة بالانفتاح التدريجي على القطاع الدفاعي، خصوصًا بعد أن شفعت الشركة في العام السابق من شروط استخدامها بندًا كان يمنع تطبيق أي تكنولوجيا تابعة لها في التطبيقات العسكرية أو الحربية.
وهذه الخطوة الجديدة ليست منفصلة عن توجهٍ أوسع بدأ يشمل كبار شركات الذكاء الاصطناعي على مستوى الولايات المتحدة. حيث قامت الإدارة الأمريكية مؤخراً بتغيير اسم "معهد سلامة الذكاء الاصطناعي" إلى اسم جديد، وذلك سعيًا لمكافحة المخاطر المتعلقة بالأمن القومي بدلاً من التركيز على السلامة العامة فقط. في السياق ذاته، أعلنت شركة "أنثروبيك"، وهي منافسة لـ "أوبن إيه آي"، في وقتٍ سابق هذا الشهر عن تطوير نماذج ذكاء اصطناعي مخففة القيود خاصة بالاستخدامات الدفاعية والاستخباراتية. ومن جهتها، أزالت جوجل في فبراير الماضي من سياساتها القيود الصريحة التي تمنع استخدام تقنياتها في مجالات قد تسبب الضرر، كما سمحت شركة ميتا باستخدام نموذجها "لاما" في تطبيقات تخص الأمن الوطني.
وبالنظر لكل هذه التطورات، يبدو واضحاً أن التعاون بين عمالقة الذكاء الاصطناعي والجهات العسكرية والاستخباراتية بات توجهاً بارزًا ومتصاعداً. وبينما توفر هذه العقود الجديدة فرصاً تكنولوجية كبيرة لتعزيز إمكانات الدفاع والأمن، فمن المهم أيضًا أن تلتزم الشركات بمعايير واضحة وشفافة حول كيفية استخدام هذه الأدوات التقنية مستقبلاً. لعله من الأنسب أيضًا أن تواصل شركات الذكاء الاصطناعي بلورة وتحديث سياساتها مع التطورات التكنولوجية، للتأكد من التوازن بين التطور والحفاظ على الاستخدام المسؤول والسلمي للتقنيات الجديدة.