ذكاء اصطناعي

تحقيقات تلاحق ChatGPT Health بسبب ثغرات تهدد خصوصية المستخدمين

Abdelrahman Amr
Abdelrahman Amr

3 د

كشفت OpenAI عن ChatGPT Health لتبسيط فهم المعلومات الطبية ومساعدة المستخدمين في إدارة صحتهم.

تثير الأداة قلقًا لأنها غير خاضعة لقانون HIPAA، مما يضعف حماية البيانات الصحية.

ثغرة ZombieAgent كشفت ضعف حماية ChatGPT وسحب البيانات الشخصية يثير مخاوف الأمن.

البيئة المشفرة والمحادثات المعزولة لا تضمن الأمان المطلق لغياب التشفير الطرفي.

ChatGPT Health خطوة جديدة في الذكاء الاصطناعي، تواجه تحديات أخلاقية وقانونية كبيرة.

حين يبدأ الناس يومهم بفتح تطبيق صحي، فإنهم يبحثون غالبًا عن طمأنينة بسيطة إجابة تطمئنهم على عرض عابر أو قراءة أوضح لنتيجة فحص. هذا الشعور بالثقة هو ما تحاول OpenAI البناء عليه عبر إطلاق ChatGPT Health، لكن خلف هذه الواجهة الهادئة، يتصاعد نقاش تقني وقانوني معقّد حول الخصوصية، والأمان، وحدود الذكاء الاصطناعي في التعامل مع أدق بيانات الإنسان.


ChatGPT Health ووعود التنظيم الصحي

كشفت OpenAI هذا الأسبوع عن ChatGPT Health، وهي إضافة تتيح للمستخدمين ربط سجلاتهم الطبية الإلكترونية وتطبيقات العافية مع روبوت المحادثة. الميزة الجديدة تسمح بسحب بيانات من ملايين مزودي الرعاية الصحية في الولايات المتحدة، إلى جانب تطبيقات شهيرة مثل Apple Health وMyFitnessPal. الهدف المعلن هو تبسيط فهم المعلومات الطبية ومساعدة المستخدم على إدارة صحته اليومية بصورة أذكى.

لكن الشركة تؤكد في الوقت ذاته أن الأداة ليست مصممة للتشخيص أو العلاج، بل كمساعد معلوماتي فقط، وقد طُوّرت بالتعاون مع مئات الأطباء عالميًا. هذا التوازن بين الفائدة والحدود الطبية يعكس إدراك OpenAI لحساسية المجال، لكنه لا يُنهي الجدل.


الخصوصية الطبية خارج مظلة HIPAA

أبرز نقاط القلق أن ChatGPT Health غير خاضع لقانون حماية المعلومات الصحية HIPAA، لأن OpenAI تُصنّف كمنتج استهلاكي لا كجهة رعاية صحية. هذا يعني أن البيانات الطبية المرتبطة بالمحادثات لا تتمتع بالحماية القانونية نفسها التي توفرها المستشفيات وشركات التأمين.

وتزداد الحساسية في ظل السياق السياسي والقانوني الحالي، خاصة فيما يتعلق بالصحة الإنجابية والرعاية المؤكدة للنوع الاجتماعي. فإمكانية الإفصاح عن البيانات عند وجود مطالبات قانونية، كما أقرت OpenAI، تفتح الباب أمام مخاوف حقيقية بشأن سلامة المستخدمين وحرية قراراتهم الصحية.


ثغرات أمنية تعيد إشعال المخاوف

في توقيت متزامن، كشف باحثون أمنيون عن ثغرة أطلقوا عليها اسم ZombieAgent، تتيح تجاوز آليات الحماية في ChatGPT وسحب البيانات الشخصية حرفًا حرفًا عبر روابط معدّة مسبقًا. الأخطر أن الثغرة تستغل ميزة الذاكرة في النظام، ما يسمح باستمرارية الهجوم دون أي تفاعل من المستخدم.

ورغم أن OpenAI كانت قد أصلحت ثغرة مشابهة في وقت سابق، فإن قدرة الباحثين على تجاوز الحل تعيد طرح سؤال جوهري حول نضج البنية الأمنية لهذه الأنظمة، خصوصًا عندما تكون مرتبطة ببيانات صحية حساسة.


بين العزلة التقنية وغياب التشفير التام

تقول OpenAI إن محادثات الصحة تتم في بيئة معزولة ومشفرة، ولن تُستخدم لتدريب النماذج افتراضيًا. لكن غياب التشفير الطرفي الكامل يترك فجوة يتوقف عندها كثير من الخبراء. فالعزل البرمجي لا يعني بالضرورة حصانة مطلقة، خاصة في أنظمة واسعة الانتشار تعتمد على وكلاء ذكيين وذاكرة سياقية.

تاريخيًا، واجهت ChatGPT انتقادات تتعلق بتقديم معلومات طبية غير دقيقة أو ضارة، وهو ما جعل أي توسع في المجال الصحي يخضع لتدقيق مضاعف من الأطباء والباحثين وصناع السياسات.


مستقبل المساعد الصحي بين الراحة والمخاطرة

ذو صلة

اللافت أن أكثر من 230 مليون شخص حول العالم يطرحون أسئلة صحية على ChatGPT أسبوعيًا، ما يعكس تعطشًا حقيقيًا لأدوات رقمية تفهم الإنسان وترافقه يوميًا. لكن هذه الأرقام نفسها تجعل أي خلل في الخصوصية أو الأمن مسألة ذات أثر واسع.

ChatGPT Health يمثل خطوة جديدة في دمج الذكاء الاصطناعي بالرعاية الذاتية، لكنه يضع المستخدم أمام مفاضلة دقيقة بين الراحة الرقمية والسيطرة على البيانات الشخصية. وبينما تتقدم التقنية بسرعة، يبقى السؤال الأهم متعلقًا بالإطار الأخلاقي والقانوني الذي سيحكم هذا التقدم، لا بقدرته التقنية وحدها.

ذو صلة