ذكاء اصطناعي

جوجل تتخلى عن مبادئها الأخلاقية وتمضي نحو ذكاء اصطناعي مسلح!!

فريق العمل
فريق العمل

4 د

أزالت جوجل مبادئها المتعلقة بعدم تطوير الذكاء الاصطناعي في الأسلحة والمراقبة، واستبدلتها بسياسة تدعو للتعاون مع الحكومات لحماية الأمن القومي.

تعرضت الشركة لانتقادات حادة بسبب مشاركتها في مشروع نيمبوس، الذي يوفر تقنيات مراقبة للحكومة الإسرائيلية وسط تقارير عن استهداف المدنيين الفلسطينيين.

مع تزايد العقود العسكرية المربحة، تتجه جوجل إلى السوق الدفاعي للاستفادة من مليارات الدولارات المخصصة لتطوير الذكاء الاصطناعي في الحروب.

يشكل الذكاء الاصطناعي العسكري خطرًا كبيرًا بسبب تطوير الأسلحة المستقلة، والتجسس الواسع، والأخطاء القاتلة، مما يثير تساؤلات حول المسؤولية الأخلاقية للشركات التقنية.

في خطوة مثيرة للجدل تكشف عن تحول جذري في سياساتها، أقدمت شركة جوجل على حذف أربعة مبادئ أساسية من ميثاقها الخاص باستخدام الذكاء الاصطناعي، وهي المبادئ التي تعهدت بموجبها بعدم تطوير تقنيات الذكاء الاصطناعي في المجالات التالية:

  • الأسلحة: الامتناع عن تطوير تقنيات تسهم في صناعة الأسلحة الذكية أو أنظمة الهجوم المستقلة.
  • المراقبة: عدم المشاركة في تطوير تقنيات تستخدم للتجسس أو التعقب الجماعي.
  • التقنيات الضارة: تجنب تطوير أي أنظمة قد تسبب ضررًا شاملاً أو تهدد المجتمعات.
  • انتهاك القانون الدولي: عدم العمل على تقنيات تتعارض مع المبادئ المعترف بها عالميًا في القانون الدولي وحقوق الإنسان.

لكن هذه المبادئ لم تعد موجودة الآن.


توجه جديد: تعزيز التعاون مع الحكومات لصالح الأمن القومي

بدلاً من تلك الالتزامات السابقة، أعادت جوجل صياغة رؤيتها لتؤكد أن "الديمقراطيات" يجب أن تكون في طليعة تطوير الذكاء الاصطناعي، وأن على الشركات التقنية التعاون مع الحكومات لتطوير


"ذكاء اصطناعي يحمي الناس، يعزز النمو العالمي، ويدعم الأمن القومي"

هذه الصياغة الجديدة تثير مخاوف بشأن احتمالية توظيف تقنيات الذكاء الاصطناعي في مشاريع عسكرية، مثل أنظمة الأسلحة المستقلة، أو تعزيز تقنيات المراقبة الشاملة باستخدام الحوسبة السحابية وقدرات التعلم الآلي المتطورة التي تمتلكها جوجل.


التحول إلى التكنولوجيا العسكرية رغم الانتقادات الحقوقية

يأتي هذا القرار المثير للجدل بعد انتقادات واسعة تعرضت لها جوجل من قبل مؤسسة الجبهة الإلكترونية (EFF) ومنظمات حقوقية أخرى، بسبب مشاركتها في مشروع نيمبوس (Project Nimbus)، الذي يقدم تقنيات الحوسبة السحابية والذكاء الاصطناعي للحكومة الإسرائيلية. تقارير متزايدة تشير إلى أن هذه الأدوات تُستخدم لتعزيز المراقبة الجماعية واستهداف المدنيين في الأراضي الفلسطينية المحتلة، وهو ما يمثل انتهاكًا واضحًا لحقوق الإنسان.

في عام 2024، صرحت EFF:


"عندما تقدم شركة وعدًا، يجب أن يكون بوسع الجمهور الوثوق به."

لكن جوجل، بدلاً من الالتزام بوعودها السابقة بشأن احترام حقوق الإنسان، يبدو أنها اختارت إعادة ترتيب أولوياتها بما يتماشى مع المصالح الاقتصادية والسياسية.


لماذا تتجه جوجل إلى سوق الذكاء الاصطناعي العسكري؟

تبلغ القيمة السوقية لشركة جوجل 2.343 تريليون دولار، وهي خامس أكبر شركة في العالم، وتمتلك شبكة بنية تحتية ضخمة وإمكانيات قانونية هائلة. ومع ذلك، يبدو أن الشركة تتجه نحو السوق العسكري، في وقت يشهد فيه الإنفاق الحكومي على الأمن القومي والدفاع تصاعدًا غير مسبوق.

يتم ضخ مليارات الدولارات سنويًا في عقود عسكرية تتعلق بتطوير تقنيات الذكاء الاصطناعي للقتال والمراقبة، ما يجعل السوق مغريًا حتى للشركات الكبرى مثل جوجل. حتى الشركات الصغيرة المتخصصة في الذكاء الاصطناعي تحصل على عقود حكومية بقيمة تصل إلى مليار دولار، لذا يبدو أن جوجل قررت عدم تفويت هذه الفرصة المربحة.


مخاطر الذكاء الاصطناعي في الحروب والمراقبة الجماعية

إن استخدام الذكاء الاصطناعي في المجالات العسكرية والاستخباراتية ليس مجرد مسألة تقنية، بل هو قضية تمس حقوق الإنسان والحريات الأساسية، ومن أبرز المخاطر المحتملة:

  • أنظمة الأسلحة المستقلة: الذكاء الاصطناعي قد يُستخدم لتطوير أنظمة هجومية قادرة على اتخاذ قرارات القتل دون تدخل بشري، مما يثير مخاوف أخلاقية وقانونية.
  • استهداف الأفراد باستخدام البيانات الضخمة: يمكن للذكاء الاصطناعي تحليل كميات هائلة من البيانات – من الاتصالات المُعترضة، ومواقع التواصل الاجتماعي، وملفات المراقبة – لإنشاء قوائم استهداف عسكرية أو أمنية.
  • التعرف على الوجوه والتجسس الرقمي: قد تُستخدم تقنيات التعرف على الوجه والتحليل البيومتري لتحديد أماكن الأفراد وتتبعهم، مما يسهم في تقييد الحريات وتعزيز الدولة البوليسية.
  • الأخطاء القاتلة: أنظمة الذكاء الاصطناعي ليست معصومة من الخطأ، وبالتالي هناك خطر كبير من الأخطاء في الاستهداف، مما قد يؤدي إلى قتل أبرياء بناءً على معطيات خاطئة.

المشكلة الأساسية أن الذكاء الاصطناعي لا يمكن محاسبته على قراراته، وإذا ما اكتُشفت أخطاؤه، غالبًا ما تلجأ الشركات إلى حلول شكلية مثل "تحسين الخوارزميات"، دون معالجة المخاطر الجوهرية المرتبطة باستخدامه في النزاعات العسكرية.


دعوة للتراجع قبل فوات الأوان

ذو صلة

تحث EFF جميع الشركات التقنية، وليس جوجل فقط، على إعادة النظر في دورها في المشاريع العسكرية، والالتزام بمبادئ تحترم حقوق الإنسان والأعراف القانونية الدولية. لكن في الوقت الحالي، يبدو أن الخيار أصبح بيد المستخدمين، الذين يجب أن يسألوا أنفسهم: هل تستحق جوجل ولاءهم؟

مع تزايد الانتقادات لممارساتها، وفشل محرك بحثها الرئيسي في الحفاظ على جودته كما كان في السابق، قد يكون التخلي عن خدمات جوجل أسهل من أي وقت مضى.

ذو صلة