ذكاء اصطناعي

شكاوى الخصوصية تطارد ChatGPT مجددًا بسبب معلومات افترائية كاذبة

فريق العمل
فريق العمل

4 د

اختلق ChatGPT معلومات افترائية زائفة عن شخص نرويجي، مدعيًا أنه قاتل أطفال مدان.

قدمت منظمة Noyb شكوى ضد OpenAI لانتهاكها قواعد حماية البيانات الأوروبية وعدم تصحيح الأخطاء التي يولدها الذكاء الاصطناعي.

سبق أن تعرضت OpenAI لغرامات وحظر في أوروبا بسبب انتهاكات الخصوصية، وقد تواجه غرامات ضخمة جديدة.

لا تزال تحقيقات الاتحاد الأوروبي بشأن ChatGPT مستمرة، وسط ضغوط متزايدة على شركات الذكاء الاصطناعي للامتثال لقوانين الخصوصية.

يواجه OpenAI شكوى جديدة تتعلق بالخصوصية في أوروبا بسبب ميل ChatGPT لاختلاق معلومات كاذبة، مما يثير تساؤلات حول مدى التزام الشركة بالقوانين التنظيمية الصارمة لحماية البيانات الشخصية.


مزاعم خطيرة وأزمة قانونية محتملة

تقدمت منظمة Noyb، المعنية بحماية حقوق الخصوصية، بشكوى ضد OpenAI أمام هيئة حماية البيانات في النرويج، بعد أن تفاجأ أحد المواطنين بأن ChatGPT قد اختلق عنه معلومات زائفة تفيد بأنه أُدين بجريمة قتل اثنين من أطفاله ومحاولة قتل الثالث.

وتأتي هذه الشكوى ضمن سلسلة من القضايا المتعلقة بتوليد معلومات شخصية خاطئة عبر الذكاء الاصطناعي، حيث اشتكى مستخدمون سابقًا من أخطاء في تواريخ الميلاد أو تفاصيل السيرة الذاتية. لكن هذه الحالة تختلف تمامًا، إذ إن المعلومات المزعومة ليست مجرد خطأ بسيط، بل افتراءات خطيرة قد تؤدي إلى تشويه سمعة الشخص وإلحاق ضرر جسيم به.


الامتثال لقوانين الاتحاد الأوروبي

وفقًا للائحة حماية البيانات العامة (GDPR) في الاتحاد الأوروبي، يتحمل مسؤولو البيانات مسؤولية ضمان دقة المعلومات التي يتم إنتاجها عن الأفراد، كما يحق لهم تصحيح أي بيانات غير صحيحة عنهم. لكن OpenAI، وفقًا للشكوى، لا توفر آلية واضحة للمستخدمين لتعديل المعلومات الخاطئة التي يولدها ChatGPT عنهم، بل تكتفي بعرض تحذير صغير يفيد بأن الذكاء الاصطناعي "قد يخطئ".

وصرّح المحامي المختص بحماية البيانات في Noyb، يواكيم سودربيرغ، قائلاً:


"القانون واضح، يجب أن تكون البيانات الشخصية دقيقة، وإذا لم تكن كذلك، فللمستخدمين الحق في تصحيحها. لا يكفي مجرد وضع تحذير صغير بأن ChatGPT قد يخطئ، لا يمكنك نشر معلومات كاذبة ثم تبرير ذلك بتحذير هامشي".

ومن الجدير بالذكر أن انتهاكات اللائحة العامة لحماية البيانات قد تؤدي إلى فرض غرامات تصل إلى 4% من الإيرادات السنوية العالمية للشركة المخالفة، ما يجعل هذه القضية تهديدًا ماليًا حقيقيًا لـ OpenAI.


السوابق القانونية وتأثيرها المحتمل

هذه ليست المرة الأولى التي يواجه فيها ChatGPT مشكلات قانونية في أوروبا. ففي عام 2023، فرضت هيئة حماية البيانات الإيطالية حظرًا مؤقتًا على ChatGPT بسبب انتهاكات خصوصية مماثلة، مما أجبر OpenAI على تعديل بعض ممارساتها بشأن معالجة بيانات المستخدمين. كما تم لاحقًا فرض غرامة بقيمة 15 مليون يورو على الشركة بسبب عدم التزامها بأسس قانونية صحيحة لمعالجة البيانات.

ورغم أن العديد من الهيئات التنظيمية في أوروبا باتت أكثر حذرًا في تعاملها مع قضايا الذكاء الاصطناعي، فإن هذه الشكوى الجديدة قد تشكل ضغطًا لإعادة النظر في مدى توافق تقنيات الذكاء الاصطناعي التوليدي مع القوانين الأوروبية.


حالة مقلقة: كيف اختلق ChatGPT جريمة قتل؟

شاركت منظمة Noyb لقطة شاشة لمحادثة مع ChatGPT، حيث سُئل عن هوية شخص يدعى "آرفي هالمر هولمن"، فجاء الرد مفبركًا تمامًا، إذ ادعى الذكاء الاصطناعي أنه قد أُدين بجريمة قتل اثنين من أبنائه وحُكم عليه بالسجن لمدة 21 عامًا.

المثير للدهشة أن بعض المعلومات الأخرى في الرد كانت صحيحة، مثل عدد أطفاله وأسماء مدينته، مما يجعل تلفيق الجريمة أكثر إثارة للقلق. وأكدت Noyb أنها بحثت في الأرشيف الإعلامي ولم تجد أي سجل إخباري يدعم هذه المزاعم، ما يدل على أن ChatGPT اختلق هذه المعلومات بشكل عشوائي تمامًا.


تحديثات ChatGPT لا تعني حل المشكلة

يبدو أن تحديثات OpenAI الأخيرة قد حدّت من مثل هذه الأخطاء، حيث أفادت Noyb أن ChatGPT لم يعد يكرر الادعاءات الكاذبة عن هولمن بعد تحديث الذكاء الاصطناعي الأخير، والذي يسمح له الآن بالبحث عبر الإنترنت عند تلقيه أسئلة عن شخصيات معينة.

ومع ذلك، لا تزال المخاوف قائمة، إذ إن إمكانية احتفاظ الذكاء الاصطناعي بالمعلومات المفبركة داخليًا تمثل خطرًا مستمرًا. وأكدت المحامية كلانثي ساردلي من Noyb:


"إضافة تحذير لا يلغي الالتزام بالقانون. لا يمكن لشركات الذكاء الاصطناعي ببساطة إخفاء المعلومات الكاذبة عن المستخدمين بينما تستمر في معالجتها داخليًا."

وأضافت:


"على شركات الذكاء الاصطناعي أن تتوقف عن التصرف كما لو أن قوانين حماية البيانات لا تنطبق عليها. إذا لم يتم الحد من هذه الهلوسات، فقد يتعرض الأشخاص بسهولة لتشويه سمعتهم والإضرار بمكانتهم الاجتماعية."


تحقيقات أوروبية تنتظر الحسم

قد تؤدي هذه الشكوى إلى فتح تحقيق أوسع من قبل هيئة حماية البيانات النرويجية، خاصة أن Noyb قدمت الشكوى ضد الكيان الأمريكي لـ OpenAI وليس فرعه في أيرلندا، الذي تم تعيينه كمزود لخدمات ChatGPT للمستخدمين الأوروبيين.

لكن هناك سابقة تشير إلى أن القضية قد يتم تحويلها إلى هيئة حماية البيانات الأيرلندية (DPC)، كما حدث في أبريل 2024، عندما قدمت Noyb شكوى مشابهة في النمسا، والتي ما زالت قيد المراجعة من قبل DPC منذ سبتمبر 2024، دون إصدار أي قرار حتى الآن.

وقال متحدث باسم DPC لموقع TechCrunch:

ذو صلة

"لقد بدأنا رسميًا التعامل مع الشكوى، وهي لا تزال قيد المعالجة."

ومع ذلك، لم يتم تحديد أي جدول زمني لإنهاء التحقيق أو إصدار قرارات بشأن ChatGPT.

ذو صلة