ذكاء اصطناعي

مايكروسوفت تدق ناقوس الخطر: استخدام واسع لأدوات ذكاء اصطناعي غير مرخصة يهدد أمن الشركات

مصطفى يسري
مصطفى يسري

3 د

حذرت مايكروسوفت موظفيها من استخدام "الذكاء الاصطناعي الظلي" غير المصرح به في العمل.

أكثر من 71% من الموظفين يستخدمون أدوات ذكاء اصطناعي غير معتمدة لإنجاز مهامهم اليومية.

توفر الأدوات غير المصرح بها 8 ساعات أسبوعيًا، لكن تثير مخاوف من تسريب البيانات.

مايكروسوفت ترى في "الذكاء الظلي" مؤشرًا على فجوة ثقة بين الموظف والمؤسسة.

التحدي هو تحويل "الذكاء الظلي" إلى مساحة آمنة للتجريب دون المساس بالأمان.

حذّرت شركة مايكروسوفت موظفيها في المملكة المتحدة من استخدام أدوات الذكاء الاصطناعي غير المصرّح بها داخل بيئة العمل، بعد أن كشفت دراسة داخلية أن 71% من الموظفين يعتمدون على ما يُعرف بـ«الذكاء الاصطناعي الظلي» لإنجاز مهام يومية. التحذير أثار نقاشًا واسعًا حول توازن الشركات بين الأمان والابتكار في استخدام التقنيات الحديثة.


انتشار الذكاء الاصطناعي "الظلي" داخل الشركات

وفقًا لمسح أجرته مايكروسوفت بالتعاون مع شركة الأبحاث البريطانية Censuswide، اعترف نحو ثلاثة أرباع الموظفين بأنهم يستخدمون أدوات ذكاء اصطناعي لم تُعتمد رسميًا من إداراتهم. تنوّعت الاستخدامات بين تنظيم البريد الإلكتروني وإعداد التقارير والعروض التقديمية، وصولًا إلى مهام محاسبية دقيقة.

أكثر من 40% من المشاركين أوضحوا أنهم استخدموا هذه الأدوات لأنهم يعرفونها من حياتهم الشخصية، بينما لم يُبدِ سوى 30% قلقًا بشأن خصوصية البيانات التي يدخلونها في هذه الأنظمة. هنا يبرز التباين بين الحاجة إلى سهولة الإنتاجية وضرورة حفظ أسرار العمل، وهو توازن ما يزال كثير من المؤسسات يعاني في تحقيقه.

قال دارين هاردمان، الرئيس التنفيذي لمايكروسوفت في المملكة المتحدة وأيرلندا: "ينبغي أن تكون أدوات الذكاء الاصطناعي مصمّمة لبيئة العمل، لا لغرفة المعيشة".

التحذير امتدّ ليشمل خطر الانتهاكات الأمنية، إذ قد تتسرّب بيانات حساسة للشركات أو العملاء عبر المنصات غير الرسمية. مايكروسوفت نبّهت إلى أن هذه الممارسات قد تفتح الباب لهجمات سيبرانية وانتهاكات تنظيمية تمسّ الامتثال القانوني الذي تراقبه الهيئات البريطانية بدقة متزايدة.


توفير الوقت... مقابل المخاطرة بالبيانات

رغم هذه التحفظات، وجد الاستطلاع أن الموظفين استطاعوا توفير ما يقارب 8 ساعات أسبوعيًا بفضل الأدوات غير المصرّح بها، أغلبها في المهام الإدارية. على نطاق أوسع، تشير التقديرات إلى أن الذكاء الاصطناعي يوفّر نحو 12.1 مليار ساعة عمل سنويًا في المملكة المتحدة، أي ما يعادل 208 مليارات جنيه إسترليني من إنتاجية العاملين.

  • 70% من المستخدمين يعتبرون أدوات الذكاء الاصطناعي وسيلة لتخفيف الضغط اليومي.
  • 44% يعتمدون عليها لصياغة البريد الإلكتروني والردود الروتينية.
  • 24% يطبّقونها في إعداد العروض التقديمية والمستندات الرسمية.
  • 15% يستخدمونها في أعمال مالية أو محاسبية.

يمكن القول إنّ دوافع الاستخدام المشبوهة ليست نفعية فقط، بل تعكس فارقًا واضحًا بين إيقاع التقنيات في السوق واستجابة الشركات لها. فبينما تواصل مايكروسوفت توسيع منظومة Copilot الرسمية المدمجة في أوفيس و365، يجد الموظفون أنفسهم أقرب إلى تطبيقات سريعة سهلة الدمج مثل ChatGPT وNotion AI وClaude.


رؤية أوسع: كيف تتعامل المؤسسات مع هذا الواقع؟

الذكاء الاصطناعي الظلي ليس مجرّد ظاهرة عرضية، بل مؤشر على فجوة ثقة بين الموظف وأنظمة مؤسسته. فعندما يشعر العامل أن الأدوات الرسمية بطيئة أو محدودة، يلجأ إلى بدائل تمنحه مرونة أكبر—حتى على حساب الأمان. وقد سبقت شركات أخرى مثل جوجل وبي إن واي ميلون إلى فرض ضوابط مشابهة داخل مؤسساتها لمنع إدخال بيانات حساسة إلى نماذج اللغة العامة.

ذو صلة

المفارقة أن مايكروسوفت نفسها تستثمر بالعشرات من المليارات في حلول الذكاء الاصطناعي المؤسسية. هذا الاختلاف بين الخط الرسمي والممارسة اليومية يعكس سؤالًا أوسع: هل تستطيع الشركات ضبط استخدام الذكاء الاصطناعي دون كبح الابتكار؟

في عالم تتسارع فيه الأدوات أكثر من التشريعات، يبدو أن التحدي الحقيقي ليس منع "الذكاء الظلي"، بل تحويله إلى مساحة آمنة تسمح بالتجريب دون تهديد خصوصية المؤسسة. فحين تتوازن الثقة بالضبط، يصبح الذكاء الاصطناعي شريكًا منتجًا لا مصدر قلق دائم.

ذو صلة