ذكاء اصطناعي

غوغل ترفع سقف طموحات ذكاؤها الاصطناعي، لكن الخبراء يرون أن الطريق ما زال طويلاً أمامه ليكون عالمًا

فريق العمل
فريق العمل

5 د

أثار إعلان غوغل عن "العالِم المساعد بالذكاء الاصطناعي" تفاؤلاً لدى فئات تقنية، لكنه قوبل بانتقادات حذِرة من باحثين في MIT ومختبرات سوني.

تركّز الشكوك على نقص التفاصيل المنهجية وغياب الاختبارات المستقلة التي تثبت كفاءة هذه الأدوات.

تتجلى قيمة الذكاء الاصطناعي حالياً في تسهيل الجوانب التنفيذية للأبحاث، وليس في إبداع فرضيّات علمية جريئة أو إدارة التجارب المعقدة.

يُخشى من تدفّق "أبحاث مصطنعة" ذات جودة متدنية، ما يستنزف طاقات المحكّمين ويعمّق الالتباس داخل المجتمع العلمي بدلاً من دفعه إلى الأمام.

أثار إعلان غوغل مؤخراً عن أداة جديدة تُسمّى "المساعد العلمي بالذكاء الاصطناعي" موجةً من الحماسة في الأوساط التقنية، وسط وعودٍ بأن يساهم هذا الابتكار في صياغة الفرضيّات وخُطط الأبحاث العلمية. يظنّ البعض أنّها خطوة تغيّر قواعد اللعبة، بينما يشير آخرون إلى احتمال أن يكون هذا المنتج أقرب إلى مبالغة تسويقية تُبالغ في رسم صورة المستقبل البحثي.

بحسب تقرير نُشر في منصة TechCrunch بتاريخ 5 مارس 2025، قدّمت غوغل هذه الأداة بوصفها حلاً علمياً واعداً، مشيرةً إلى إمكاناتها في تسريع إيجاد علاجات جديدة، خصوصاً في المجالات التي تتطلب استعراض كمّ هائل من الأبحاث، كالبحث الدوائي في علاج سرطان الدم. ومع ذلك، لوحظ أنّ الآراء المتخصّصة لا تسير بالضرورة في المنحى ذاته؛ إذ رأت سارة بيري، الباحثة في مجال الرؤية الحاسوبية لدى معهد ماساتشوستس للتقنية (MIT)، أنّ هذا النموذج الأوّلي لا يقدّم الكثير خارج إطار التوليد العام للأفكار. وذكرت بيري، في تصريحٍ نقلته TechCrunch، أنّ الباحثين لا يعانون نقصاً في الفرضيات، بقدر ما يحتاجون إلى دعم فعّال في الخطوات المختبرية والتجريبية التي لا تُعالجها هذه الأداة.

تكرار هذه المبالغات ليس جديداً؛ ففي عام 2020، ادّعت غوغل تطوير نظام ذكاء اصطناعي يمكنه رصد أورام الثدي بدقة تتفوّق على أداء أخصائيّي الأشعة. إلا أنّ باحثين من جامعتي هارفارد وستانفورد نشروا في مجلة "نيتشر" انتقادات حادّة حول آلية اختبار غوغل وطريقة التحقّق من النتائج، خصوصاً أنّ الشركة لم تُفرج عن البيانات الكاملة لعملياتها البحثية. وفي 2023، ظهرت معطيات تتعلّق بمساهمات غوغل في قطاع المواد الهندسية من خلال نظام يُدعى GNoME، لكن تبيّن لاحقاً أنّ "الاكتشافات" التي أعلنتها الشركة لم تكن مستجدة أو مميّزة بالفعل.


الشكوك حول نُضج التقنيات الجديدة

يرى الأستاذ المساعد في هندسة البرمجيات لدى معهد روتشستر للتقنية، أشيق خودابوخش، أنّ الجهات المنتجة لهذه التقنيات لم تجرِ – في أغلب الحالات – اختبارات حيادية شاملة قادرة على إيضاح مدى الاستفادة الفعلية في شتى الحقول العلمية. وبالنظر إلى الفارق بين التجارب المنضبطة في بيئات شبه مثالية وتلك التي تواجه العقبات العملية في مختبرات العالم الحقيقي، يمكن رسم صورة أوضح عن حاجة "العالِم المساعد" إلى تحسينات جذرية قبل أن يؤخذ على محمل الجد.

كما علّقت فافيا دوبيك، أخصائية علم الأمراض في مركز "نورث ويست ميديكال سنتر" بمدينة توكسون الأمريكية، على النتائج التي أوردتها غوغل في ما يخص إعادة توظيف الأدوية لعلاج أحد أنواع سرطان الدم، ووصفتها بـ"الضبابية" التي لا يمكن الركون إليها بحثياً. وأشارت دوبيك، وفق التقرير المنشور في TechCrunch، إلى عدم توافر تفاصيل منهجية تُظهر كيفية توصل النظام إلى توصياته العلاجية، وهو ما يُفقد هذه التوصيات مصداقيتها لدى المجتمع العلمي.


عقبات في الطريق نحو البحث العلمي المحترف

تنحصر أهم التحديات في الطبيعة المعقّدة للأبحاث العلمية؛ فالكثير من الاكتشافات الكبرى بُني على حدس بشري ومثابرة وإصرار شخصي، وهي أمور قد لا تُنجَز بمجرد تحليل بيانات فقط. إضافةً إلى ذلك، ينصرف معظم الباحثين إلى الاستمتاع بصياغة الفرضيّات بأنفسهم، بوصفها جوهر الفكر العلمي. ويبدو من المثير للتساؤل ما إذا كانت أدوات الذكاء الاصطناعي الحالية ستقنع هؤلاء بالاعتماد عليها لصياغة الجانب الأكثر إبداعاً في أعمالهم، وتركهم للمهام الشاقة فقط.

أشارت لانا سينابايين، الباحثة في مختبرات سوني للبحث العلمي باليابان، إلى عدم رواج هذا النمط من الذكاء الاصطناعي؛ إذ تفضّل نسبة كبيرة من الباحثين الاعتماد على الأنظمة التقنية في الجوانب التنفيذية مثل تلخيص الأبحاث أو تنسيق البيانات، بدلاً من صياغة الفرضيات. وتحدثت سينابايين عن جوانب أخرى، مثل صعوبة الوثوق بنتائج الإحصاء التي يولّدها الذكاء الاصطناعي إذا لم تكن مبنية على بيانات متكاملة وذات جودة عالية.

كما لفتت سارة بيري الانتباه إلى الخطوة الأصعب في العملية العلمية: تصميم الدراسات المخبريّة وتنفيذها واختبار صحّة الفرضيات، وهي مرحلة تتطلّب موارد مادية وبشرية وخبرة متراكمة. ولا يمكن – وفق هذه الرؤية – إهمال السياق الخاص بكل باحث أو مختبر، من ميزانيات وأجهزة وخبرات، والتي لا تعكسها برمجيات الذكاء الاصطناعي العام.


هواجس حول الجودة وموثوقية الأبحاث

يخشى خبراء أن تؤدي وفرة النصوص والاقتراحات التي تُنتجها أنظمة الذكاء الاصطناعي إلى فيضان معلوماتي يصعّب التدقيق ويزيد من عبء المراجعة العلمية. وتشير دراسة حديثة إلى زيادة حالات "العلم الزائف" أو المعطيات الركيكة التي تتسرّب إلى محركات بحث أكاديمية مثل Google Scholar. هذا الأمر قد يُحدث فوضى في المجتمع العلمي، إذ تستهلك لجان التحكيم الوقت في فرز المواد غير الدقيقة عوضاً عن توجيه جهودها نحو دراسات أصيلة.

ذو صلة

لا يتوقف القلق عند حدود الدقة فحسب؛ فالذكاء الاصطناعي، كما هو معروف، قد يعاني أحياناً من "تهيّؤات" أو إنتاج معلومات مختلقة أو دون قيمة. وعندما يتعلّق الأمر بأبحاث حسّاسة كالأدوية أو التقنيات الطبيّة، يصبح احتمال الخطأ محفوفاً بمخاطر كبرى على المرضى والمجتمع. تذكّر بعض الآراء بأنّ حداثة هذه الأدوات وعدم خضوعها لتجارب محايدة وشاملة يزيدان من احتمالات الانتكاسات البحثية بدل دعم التقدّم العلمي.

ختامًا، من الواضح أنّ أدوات الذكاء الاصطناعي تسير بخُطى طموحة نحو توسيع حدود البحث العلمي، لكنّها لا تزال تواجه تشكيكاً كبيراً في مرحلتها الحالية. قد تُوجَّه الانتقادات بنحو خاص إلى الوعود التسويقية التي لا يعضدها تدقيق علمي كافٍ. يبدو أنّ المجتمع البحثي بحاجة إلى شفافية أكبر في الكشف عن أساليب العمل والبيانات، فضلاً عن تقييم منهجي ومستقل لقدرات هذه النماذج. الأرجح أنّه لن يُعترف بتلك النماذج بوصفها "علماء مساعدين" إلا بعد مزيد من النضج والاختبارات الواقعية. وقد يتحقق ذلك سريعاً، أو قد يستغرق سنوات؛ فالمستقبل وحده كفيلٌ بترسيخ الصورة الحقيقية لدور الذكاء الاصطناعي في مختبرات الباحثين.

ذو صلة