ChatGPT يتوقف رسميًا عن تقديم المشورة الطبية والقانونية
أعلنت OpenAI أن ChatGPT لم يعد يقدم نصائح طبية أو قانونية.
تهدف هذه السياسة الجديدة إلى تعزيز سلامة المستخدمين وتجنب الأضرار المحتملة.
يعكس هذا القرار فلسفة جديدة في دور الذكاء الاصطناعي كمساعد وليس بديلاً للخبراء.
تشير OpenAI إلى أن النموذج أكثر قدرة على تمييز حالات الضيق النفسي.
قد تُعتبر هذه الخطوة اعترافاً بحدود الذكاء الاصطناعي وحاجة لإشراف بشري دائم.
في السنوات الأخيرة، أصبحت المحادثات مع الذكاء الاصطناعي عادة يومية لدى كثيرين، حيث يبحث الناس عن إجابات سريعة في قضايا تتراوح بين التعليم والتمويل وحتى الصحة. لكن هذا الصباح، وبينما يطالع المستخدمون أحدث التحديثات من OpenAI، اكتشفوا تحولًا جوهريًا في قواعد اللعبة: لم يعد مسموحًا لـChatGPT تقديم المشورة الطبية أو القانونية بأي شكل من الأشكال.
حدود جديدة في ذكاء يُعيد تعريف ذاته
من خلال تحديث رسمي لقواعد الاستخدام، أوضحت OpenAI أن أدواتها اللغوية لم تُصمَّم لتحل محل الخبراء في المهن المقننة مثل الطب أو القانون. الهدف المعلن هو تعزيز سلامة المستخدمين، وتجنب الضرر الذي قد ينجم عن الاعتماد المفرط على إجابات تقنية في مواضيع حساسة تمس حياة الناس مباشرة. هذه الخطوة لا تُقرأ كقيود بقدر ما هي مراجعة جذرية للعلاقة بين الذكاء الاصطناعي والمسؤولية البشرية.
بين السرعة والثقة… معضلة المستخدم الحديثة
لقد جذبت واجهات المحادثة الذكية ملايين المستخدمين لأنها تسمح بالحصول على رد فوري، بينما الوصول إلى متخصص بشري قد يتطلب وقتًا وموارد. ومع ذلك، فإن هذا الاعتماد اللحظي فتح الباب أمام مخاطر جديدة: تشخيص ذاتي، قرارات قانونية مبنية على خوارزمية، وخط رفيع بين المعلومة والاستشارة. بعبارة أخرى، كلما زادت السرعة، نقصت الضمانات.
أمان المستخدم قبل كل شيء
تؤكد OpenAI أن التعديلات الأخيرة في سياساتها جاءت لحماية المستخدمين من الاستخدامات التي تتجاوز قدرات النظام، لا سيما في المواقف الحرجة المتعلقة بالصحة النفسية أو القرارات المصيرية. النموذج الجديد يتمتع بقدرة أعلى على تمييز حالات الضيق النفسي، وإعادة توجيه الحوار نحو موارد الدعم المناسبة بدلًا من الاكتفاء برد تقني آلي. هذا يعكس تحوّلًا فلسفيًا في فهم دور الذكاء الاصطناعي: ليس الطبيب ولا المحامي، بل المساعد الواعي لمحدودية نفسه.
تنظيم أم اعتراف بالحدود؟
قد يرى البعض في هذه السياسة تشديدًا قانونيًا، لكنها تحمل أيضًا دلالة أخلاقية مهمة. فالمستقبل القريب سيشهد ازدياد التشريعات التي تُلزم الشركات بوضع ضوابط دقيقة لاستخدام الذكاء الاصطناعي في المجالات الحساسة. وبهذه الخطوة، تبدو OpenAI وكأنها تستبق الموجة، معترفةً ضمنيًا بأن الذكاء الاصطناعي، مهما بلغ من تطور، ما زال بحاجة إلى إشراف الإنسان، لا لينافسه بل ليكمله.
بين الحرية والمسؤولية
يتّضح أن الذكاء الاصطناعي لم يعد مجرد أداة إنتاجية؛ بل أصبح مرآة تكشف أولوياتنا كمجتمعات رقمية. فحين تضع شركات التقنية قيودًا على قدراتها الخاصة، فإنها لا تخسر السوق، بل ترسم ملامح أخلاقية لمستقبل أكثر نضوجًا. ربما يكون تقييد الوظائف خطوة مؤقتة، لكنه يذكّرنا بأن الذكاء الحقيقي هو ذاك الذي يعرف متى يتوقف.










