هل يمكن لجوجل AI أن يضر صحتك؟ تحقيق يكشف نصائح طبية خطيرة
أظهرت التحقيقات أنّ ميزة "الملخصات بالذكاء الاصطناعي" قدّمت معلومات طبية مغلوطة.
تسبب هذه الأخطاء خطرًا حقيقيًا للمرضى الذين يعتمدون على المعلومات بدلاً من الاستشارة الطبية.
جوجل تستثمر لضمان دقة المخرجات لكن تُشير إلى أن بعض الأخطاء كانت في "لقطات ناقصة".
الذكاء الاصطناعي يفتقر للرقابة اللازمة ويعتمد على احتمالات لغوية وليس دقة طبية.
تحتاج الأدوات الرقمية إلى مراجعة أكثر شفافية لضمان مصداقية المعلومات المعروضة.
في عالم يعتمد الملايين فيه على البحث السريع للحصول على معلومة طبيّة أو نصيحة علاجية، لم يعد الخطأ الرقمي مجرد هفوة تقنية، بل خطرًا على حياة البشر. هذا ما كشفت عنه صحيفة ذا غارديان البريطانية مؤخرًا، بعد أن بيّنت تحقيقاتها وجود أخطاء جسيمة في ميّزة «الملخصات بالذكاء الاصطناعي» من جوجل، وهي الأداة التي تُقدّم إجابات مختصرة في أعلى نتائج البحث.
تحقيق يكشف الوجه المظلم للذكاء الاصطناعي في البحث
التحقيق أظهر أنّ ميّزة Google AI Overviews قدّمت معلومات طبية مغلوطة، بعضها وُصف بالخطير من قبل مختصين صحيين. من بين الأمثلة التي أُثير حولها الجدل، نصيحة لمرضى سرطان البنكرياس بتجنّب الأطعمة الدهنية، في حين أن التوجيهات الطبية الحقيقية تشجّعهم على تناول سعرات حرارية عالية للحفاظ على طاقتهم أثناء العلاج. مثل هذا التضارب قد يعني الفرق بين استمرار العلاج بنجاح أو تعرّض المريض لنكسات خطيرة.
حين يختلط الذكاء الاصطناعي بالطب
المشكلة تتجاوز خطأ عرضيًّا في المحتوى. فالمستخدم الذي يبحث عن معلومة طبية في لحظة خوف أو ارتباك يضع ثقته في مصدر يبدو له موثوقًا. عندما يقدّم الذكاء الاصطناعي إجابات تحمل نبرة الثقة نفسها التي يتحدث بها الطبيب، تصبح الحدود بين المعلومة الصحيحة والافتراض البرمجي ضبابية. وقد شمل التحقيق أيضًا أمثلة عن اختلاط فحوص سرطان عنق الرحم بفحوص المهبل، إلى جانب نتائج غير دقيقة لاختبارات الكبد والنفسية.
رد جوجل ومحاولة تهدئة العاصفة
في المقابل، أكدت جوجل أنها تستثمر مبالغ كبيرة لضمان جودة المخرجات وأن الغالبية العظمى من الملخصات دقيقة حسب قولها. وصرّح متحدث باسم الشركة أن الحالات التي أُشير إليها ضمن التحقيق نُشرت ضمن «لقطات ناقصة» لا تمثل النظام بالكامل، مضيفًا أن الروابط تُوجَّه نحو مصادر طبية معروفة وتوصي دومًا بمراجعة الأطباء المختصين.
ذكاء اصطناعي بلا رقابة كافية
ورغم تلك التطمينات، يشير مراقبون إلى أن أصل الأزمة لا يكمن في نية الشركة، بل في حدود التقنية ذاتها. فالأنظمة التوليدية للذكاء الاصطناعي تعتمد على احتمالات لغوية وليست مصفوفات طبّية دقيقة. وعندما تُقدَّم هذه النتائج في صيغة إجابة نهائية، تُنتزع من سياقها البشري المهم: الشك، والتحقق، والاستشارة.
نحو توازن جديد بين السرعة والدقة
تُعيد هذه القضية تسليط الضوء على التوتر المستمر بين الرغبة في السرعة وسهولة الوصول إلى المعلومة، وبين مسؤولية التحقق من صحتها قبل عرضها. فالمستقبل الرقمي الذي تقوده جوجل وغيرها من الشركات العملاقة يحتاج إلى منظومة مراجعة أكثر شفافية واشتراكًا من الجهات العلمية والطبية، حتى لا يتحول الذكاء الاصطناعي إلى ناقل ذكي للمغالطات.
يبدو أن النقاش حول مصداقية أدوات البحث الذكية ما زال في بدايته. وربما يكون الدرس الأهم أن التكنولوجيا مهما بلغت من دقة، تظل بحاجة إلى عين بشرية ناقدة تراقب ما تُنتجه الخوارزميات باسم الحقيقة.









