خصوصيتك في خطر؟ LinkedIn يجمع منشورات المستخدمين لتدريب أنظمته الذكية
أعلنت لينكدإن عن استخدام بيانات المستخدمين لتدريب نماذج الذكاء الاصطناعي بدءًا من نوفمبر 2025.
الشركة تستثني الرسائل الخاصة وتستخدم المنشورات والتحديثات لتغذية نماذجها الذكية.
توفر المنصة خيارًا للانسحاب من برنامج تدريب الذكاء الاصطناعي مع إدراج تلقائي للمستخدمين.
تشمل الخطوة مناطق محمية سابقًا بقوانين الخصوصية مثل الاتحاد الأوروبي وسويسرا.
تحاول لينكدإن التوفيق بين طموحات الذكاء الاصطناعي ومتطلبات التشريعات الأوروبية.
في صباحٍ هادئ وأنت تتصفح "لينكدإن" لتحديث ملفك المهني أو تهنئة زميل على ترقية جديدة، قد لا يخطر ببالك أن نفس هذه المنشورات والإنجازات أصبحت الآن وقودًا لتغذية نماذج الذكاء الاصطناعي لدى الشركة. فابتداءً من نوفمبر 2025، أعلنت المنصة المملوكة لمايكروسوفت عن توسيع استخدام بيانات المستخدمين لتدريب أنظمتها الذكية في أوروبا وكندا وهونغ كونغ، في خطوة تثير تساؤلات جديدة حول الحد الفاصل بين التطوير التقني وحق الأفراد في الخصوصية.
بين الطموح المهني ووقود الذكاء الاصطناعي
لينكدإن ليست مجرد شبكة مهنية، بل أصبحت مرآة تعكس كيف تتحول حياتنا الرقمية إلى بيانات يبحث عنها الذكاء الاصطناعي لتعلّم أنماط السلوك والخبرة. مع أن الشركة تستثني الرسائل الخاصة من عملية التدريب، إلا أن كل مشاركة علنية أو تحديث وظيفي يتحول إلى جزء من المادة الخام التي تُغذّي نماذجها اللغوية. بهذا المعنى، صارت إنجازاتنا وتفاعلاتنا اليومية جزءًا من خوارزمية أكبر تُعيد تفسير مفهوم “المشاركة المهنيّة” في عصر التعلم الآلي.
الاختيار موجود... ولكن التلقّي تلقائي
رغم حساسية المسألة، قررت لينكدإن إدراج المستخدمين تلقائيًا ضمن برنامج تدريب الذكاء الاصطناعي، مع خيار يدوي للانسحاب. هذه الصيغة تبدو منطقية تجاريًا لأنها تُسرّع جمع البيانات، لكنها تثير مخاوف أخلاقية متكررة: هل الوعي بالموافقة متحقق إذا كان المستخدم لا يعلم أصلاً أنه مشارك؟ المفارقة أن المنصة التي تُشجع على الشفافية المهنية تحتاج إلى مزيد من الشفافية التقنية لتكسب ثقة مجتمعها المهني.
الخصوصية بين أوروبا وأميركا... معايير متباينة
اللافت أن الخطوة الجديدة تشمل مناطق ظلت محمية سابقًا بقوانين صارمة للخصوصية مثل الاتحاد الأوروبي وسويسرا، ما يعكس رغبة لينكدإن في توحيد سياساتها عالميًا. هذا التوجه قد يكون اختبارًا لقدرة الشركات الأميركية على التوفيق بين طموحات الذكاء الاصطناعي ومتطلبات التشريعات الأوروبية التي تمنح المستخدمين حقًا شبه مطلق في التحكم ببياناتهم.
بين الواقعية والخصوصية... مساحة توازن جديدة
منصف القول إن لينكدإن لم تسلك الطريق الأكثر عدوانية مقارنة بعمالقة التواصل الآخرين، إذ وفرت خيارًا واضحًا للانسحاب من العملية، في حين ما تزال شركات مثل ميتا تستخدم بيانات المستخدمين عبر منصاتها دون استثناء يذكر. لكن الفارق الحقيقي ليس في النوايا بل في تصميم التجربة: كيف يمكن تمكين المستخدم ليشعر بأن بياناته ملك شخصي لا مورد عام؟
تأملات في مستقبل العلاقة بيننا وبين البيانات
حين تتحول كل تفاعلاتنا الرقمية إلى مادة خام للذكاء الاصطناعي، تظهر معضلة جديدة: هل قبولنا بهذه العملية هو ثمن لا مفر منه للمشاركة في الفضاء المهني الرقمي، أم أنه رهان قصير المدى على حساب الخصوصية؟ ربما سيأتي يوم يصبح فيه زر “إلغاء المشاركة في تدريب الذكاء الاصطناعي” بندًا أساسيًا في كل منصة رقمية، كحق بديهي لا يحتاج إلى تفعيل يدوي.










