OpenAI تكشف ChatGPT Health بعد تسجيل 230 مليون استفسار صحي أسبوعيًا
أطلقت OpenAI "ChatGPT Health" كنموذج مخصص للنقاشات الصحية داخل التطبيق.
تسعى المنصة لفصل سياق الصحة والعافية لضمان الخصوصية في المحادثات.
يدعم ChatGPT Health التكامل مع تطبيقات الصحة كمثل Apple Health وMyFitnessPal.
تؤكد OpenAI بأن ChatGPT لا يمثل أداة للتشخيص أو العلاج الطبي.
تمثل ChatGPT Health تحولًا في تفاعل المستخدمين مع المعلومات الصحية الرقمية.
في لحظة هدوء قبل النوم، يفتح كثيرون هواتفهم ويسألون أسئلة لا يجدون لها مساحة كافية في العيادات أو في أحاديثهم اليومية. سؤال عن عرض مبهم، أو قلق صحي مؤجل، أو محاولة لفهم تقرير طبي معقد. هذا السلوك اليومي هو ما تحاول OpenAI الآن التعامل معه بصورة أكثر تنظيمًا من خلال إعلانها عن ChatGPT Health.
ما هو ChatGPT Health ولماذا الآن
أعلنت OpenAI عن إطلاق ChatGPT Health كمساحة مخصصة داخل التطبيق للنقاشات المرتبطة بالصحة والعافية. الشركة أوضحت أن أكثر من 230 مليون مستخدم يطرحون أسئلة صحية على ChatGPT أسبوعيًا، وهو رقم يكشف حجم الاعتماد الفعلي على الذكاء الاصطناعي في هذا الجانب الحساس. الفكرة الأساسية ليست في إضافة قدرات جديدة بقدر ما هي في فصل السياق الصحي عن بقية المحادثات اليومية، بحيث لا تختلط بيانات اللياقة أو القلق الصحي مع أسئلة العمل أو الدراسة.
فصل السياق كخيار للخصوصية
أحد أكثر الجوانب لفتًا للانتباه هو تصميم التجربة نفسها. حين يبدأ المستخدم محادثة صحية خارج القسم المخصص، سيحاول النظام توجيهه إلى ChatGPT Health. هذا العزل يُظهر وعيًا متزايدًا بحساسية البيانات الطبية، حتى في محادثات تعتمد على نموذج لغوي. ورغم أن النظام قد يستفيد من بعض المعلومات العامة السابقة مثل معرفة أن المستخدم عدّاء أو مهتم باللياقة، إلا أن OpenAI تؤكد أن محادثات الصحة لن تُستخدم في تدريب النماذج.
تكامل مع تطبيقات الصحة واللياقة
ChatGPT Health لن يكون معزولًا عن المنظومة الرقمية التي يعيش فيها المستخدم أصلًا. فالميزة الجديدة ستدعم التكامل مع تطبيقات مثل Apple Health وMyFitnessPal ومنصات تتبع العافية. هذا يفتح الباب أمام حوارات أكثر تخصيصًا، مبنية على بيانات حقيقية عن النوم أو النشاط البدني أو التغذية، دون الحاجة لإعادة شرح التفاصيل في كل مرة.
بين المساعدة والفصل الطبي
رغم الطموح الواضح، تحرص OpenAI على وضع حدود صريحة. في شروط الاستخدام، تؤكد الشركة أن ChatGPT ليس أداة للتشخيص أو العلاج. هذا التذكير يبدو ضروريًا في ظل الانتقادات المستمرة لنماذج اللغة، التي تعتمد على التنبؤ الإحصائي للنصوص ولا تملك مفهومًا حقيقيًا للصواب أو الخطأ الطبي. مخاطر الهلاوس النصية ما تزال قائمة، خصوصًا عندما يتعلق الأمر بمعلومات صحية.
ماذا يعني هذا للمستخدم العادي
بالنسبة للمستخدم، ChatGPT Health يبدو كمساحة أكثر هدوءًا وتنظيمًا لطرح الأسئلة، وفهم المصطلحات الطبية، ومتابعة الأهداف الصحية. هو ليس بديلًا عن الطبيب، لكنه يعكس تحوّلًا أوسع في كيفية تفاعل الناس مع المعلومات الصحية الرقمية. الذكاء الاصطناعي هنا يلعب دور المرافق المعرفي، لا الخبير النهائي.
في النهاية، إعلان ChatGPT Health لا يقول الكثير عن مستقبل الطب بقدر ما يقول عن حاضر المستخدمين. الناس تسأل، تبحث، وتحاول الفهم. والتحدي الحقيقي ليس في توفير الإجابات فقط، بل في معرفة أين يجب أن تتوقف الإجابة، وأين يبدأ الإنسان الآخر في الطرف المقابل من السماعة.










