الذكاء الاصطناعي إلى “شاهد زور” رقمي! سقطة في محكمة قطرية تزلزل الوسط القانوني

5 د
واقعة قطر: محامٍ في محكمة مركز قطر المالي يستند إلى أحكام قضائية وهمية "اخترعها" الذكاء الاصطناعي، مما أثار صدمة في الوسط القانوني.
خدعة الهلوسة: الذكاء الاصطناعي يعمل كـ "محرك تنبؤ" وليس محرك بحث، وقد يبتكر قصصاً ومراجع مقنعة تماماً لكنها لا وجود لها في الواقع.
عدوى عالمية: الحادثة ليست الأولى؛ محاكم في أمريكا وبريطانيا فرضت غرامات وعقوبات قاسية على محامين اعتمدوا بشكل أعمى على التقنية.
أرقام صادمة: دراسة لجامعة "ستانفورد" تؤكد أن الأدوات القانونية المتخصصة تخطئ بنسبة تصل إلى 34%، مما يجعل الاعتماد الكلي عليها انتحاراً مهنياً.
الرقابة البشرية: المسؤولية القانونية لا يمكن تفويضها للآلة؛ لذا يجب حصر دور الذكاء الاصطناعي في "تنسيق الصياغة" فقط، مع ضرورة تدقيق المصادر يدوياً.
.
في أروقة محكمة مركز قطر المالي (QFC Court)، وفي مطلع ديسمبر من عام 2025، كان الصمت يلف القاعة بانتظار مرافعة قانونية بدت للوهلة الأولى رصينة ومدعومة بفيض من المراجع والقضايا السابقة. تقدم أحد المحامين بمذكرته، واثقاً من "قوة" حججه التي استنبطها من أداة ذكاء اصطناعي قانونية متطورة. لكن، وبضربة مطرقة غير متوقعة، اكتشفت المحكمة أن تلك "الأحكام التاريخية" التي استشهد بها المحامي ليست سوى خيالات رقمية؛ أحكام وهمية، ومراجع لم تُكتب في أي سجل قضائي قطري أو عالمي قط.

هذه الواقعة لم تكن مجرد سقطة مهنية عابرة، بل كانت "جرس إنذار" دوى في المنطقة العربية بأكملها، فاتحاً الباب أمام تساؤلات وجودية حول علاقة العدالة بالخوارزميات، ومدى خطورة الثقة العمياء في عقول "صناعية" لا تفرق بين الحقيقة والفبركة، خاصة في مهنة تتعامل مع حقوق الناس وحرياتهم كمقدسات لا تقبل الخطأ.

هل يكذب الذكاء الاصطناعي؟ (ببساطة: نعم)
لفهم ما حدث مع المحامي القطري، يجب أن نخرج من عباءة المصطلحات التقنية المعقدة. تخيل أنك تسأل "تطبيق خرائط" عن طريق مختصر لمنزلك، وبدلاً من أن يخبرك أن الطريق مغلق، يقوم "بابتكار" جسر وهمي فوق النهر لمجرد أنه يرى أن وجود جسر هنا "منطقي" لتسهيل الحركة وتلبية طلبك. هذا ما يسمى تقنياً بـ "الهلوسة" (Hallucination).
الذكاء الاصطناعي لا يملك "ضميراً" يمنعه من الكذب، بل هو "محرك تنبؤ" يسعى لإرضاء المستخدم. فإذا سألته عن سابقة قضائية تدعم موقفك، سيقوم بتركيب كلمات تبدو قانونية تماماً، وينسبها لسنوات وقضاة وهميين، فقط ليمنحك الإجابة التي تعتقد أنها صحيحة. وقد حذر القاضي جون روبرتس في تقريره السنوي لعام 2023 عن القضاء من أن هذه الهلوسات ليست استثناءً بل هي جزء من طبيعة النماذج اللغوية الحالية.

من قطر إلى لندن وكاليفورنيا: عدوى الفبركة الرقمية
لم تكن المحكمة القطرية وحيدة في هذا الصراع، لكنها كانت "رحيمة" في بدايتها. فقد اكتفت بتوجيه إنذار رسمي للمحامي دون الكشف عن اسمه، معتبرة إياها "سابقة تعليمية". لكن التوجه العالمي أصبح أكثر قسوة بكثير، حيث لم يعد القضاء يقبل بكلمة "لم أكن أعلم":
- في كاليفورنيا: تم تغريم المحامي "أمير مصطفوي" مبلغ 10,000 دولار لاستشهاده بـ 21 قضية وهمية، وأكدت المحكمة أن المحامين واجهوا عقوبات قاسية لأنهم لم يقرأوا المراجع بأنفسهم قبل تقديمها.
- في بريطانيا (قضية Ayinde): قدمت محامية شابة 5 قضايا مزيفة، ورغم أن المحكمة لم تسجنها لقلة خبرتها، إلا أنها وصفت الأمر بـ "العار المهني" الذي يهدد الثقة في منظومة العدالة بأكملها.
- في أستراليا: قضية Larkin الشهيرة شهدت إلزام المحامي بدفع تكاليف القضية من جيبه الشخصي كعقوبة على "الاعتماد الأعمى" الذي أدى لتضليل القضاء.
- المشاهير أيضاً: حتى مايكل كوهين، المحامي السابق لترامب، وقع في الفخ ووجد نفسه أمام دراسة سابقة حول القضايا المزيفة التي كشفت كيف يمكن للذكاء الاصطناعي أن يخدع حتى أكثر العقول خبرة.
بلغة الأرقام: هل نثق في "الروبوت" القانوني؟
تشير الإحصائيات إلى أن الاندفاع نحو التقنية يفوق بكثير قدرة المحامين على مراقبتها. فقد أظهر تقرير حديث أن ما يقرب من ثلاثة أرباع المحامين يخططون لاستخدام الذكاء الاصطناعي التوليدي قريباً. هذا الإقبال يغذيه وهم "السرعة"، لكن الحقيقة المرة تظهرها المختبرات:
أظهرت دراسة حديثة في ورقة بحثية جديدة من جامعة ستانفورد (Stanford RegLab) أن الأدوات المتخصصة التي يزعم أصحابها أنهم "يتجنبون" الهلوسة، لا تزال تخطئ بنسبة 17% في نظام Lexis+ AI وتصل إلى 34% في نظام Westlaw. هذا يعني أن كل ثلاث إجابات قانونية قد تحتوي على واحدة مدمرة لمستقبلك المهني.

لماذا يندفع الجميع نحو الخطر؟ (اقتصاد المليارات)
قد يتساءل البعض: إذا كانت المخاطر بهذا الوضوح، لماذا تضخ شركات الاستثمار مئات الملايين في هذا القطاع؟ الإجابة تكمن في "الوعود البراقة" بالأتمتة. شركة مثل Harvey جمعت 100 مليون دولار بتقييم وصل لـ 1.5 مليار دولار، لأن المستثمرين يراهنون على أن 44% من العمل القانوني يمكن "مكننته".
لكن الواقع العملي يحكي قصة أخرى؛ شركة المحاماة الكبرى Paul Weiss أمضت أكثر من عام ونصف في اختبار هذه الأدوات، لتكتشف أن "مقياس الكفاءة" صعب التحقق منه لأن المحامي يضطر لقضاء وقت إضافي في تدقيق كل كلمة تخرج من الآلة، مما قد يقتل الجدوى الاقتصادية تماماً.
مخاطر الاستخدام الأعمى: حين يتحول "المساعد" إلى "مضلل"
إن الاعتماد الكلي على الذكاء الاصطناعي في صياغة المذكرات القانونية ليس مجرد "اختصار للوقت"، بل هو انتحار مهني للأسباب التالية:
1. ظاهرة "التملق" الرقمي (Sycophancy): تميل النماذج اللغوية للموافقة على افتراضات المستخدم الخاطئة. إذا سألتها: "أعطني حكماً يدين المتهم بناءً على المادة X" (بينما المادة لا تنطبق)، قد تخترع لك تفسيراً ملتوياً لمجرد إرضائك، وهذا يمثل خطراً جسيماً خاصة في قضايا الأفراد الذين يمثلون أنفسهم أمام القضاء.
2. تفويض المسؤولية للعملاء: في قضية Al-Haroun، اعتمد المحامي على بحث أجراه "عميله" باستخدام الذكاء الاصطناعي دون تدقيق. المحكمة وصفت هذا بـ "الفشل الذريع"، مؤكدة أن المسؤولية المهنية لا يمكن تفويضها للعميل أو للآلة.

كيف نستفيد من الذكاء الاصطناعي دون أن نفقد هويتنا المهنية؟
لا أحد يدعو للعودة للعصر الحجري، ولكن الحل يكمن في "الرقابة البشرية المطلقة". هناك الآن أكثر من 25 قاضياً فيدرالياً وضعوا قواعد صارمة تلزم المحامين بالإفصاح عن استخدام التقنية. إليك "روشتة" الأمان:
- اختبار الشم (The Smell Test): لا تقبل أي معلومة قانونية دون العودة للمصدر الرسمي المعتمد.
- قاعدة الـ 10%: اجعل دور الذكاء الاصطناعي منحصراً في "تحسين الصياغة" أو "تلخيص وثائق قرأتها بالفعل"، لا في "استنتاج الأحكام".
- التعلم التقني: يجب على المحامي أن يفهم أساسيات التكنولوجيا؛ فمن لا يعرف كيف "تهلوس" الآلة، سيظل ضحية سهلة لها.
قطر ورسالة "اليقين"
بالعودة لقصة المحامي القطري، نجد أن "ستار الأمان" الذي منحته المحكمة بعدم ذكر اسمه يعكس وعياً بضرورة "التعلم من الصدمة الأولى". لكن هذا الستار لن يبقى طويلاً؛ فالمسؤولية المهنية في عصر الذكاء الاصطناعي أصبحت أكثر تعقيداً من أي وقت مضى.
المحامي القطري الذي استند إلى "أوهام" الخوارزميات لم يكن سيئ النية، لكنه سقط في فخ "السهولة". والدرس الذي تعلمناه هو أن العدالة تُبنى فوق ركائز من "اليقين"، واليقين لا يخرج من خوارزمية تحاول إرضاءك، بل من عقل بشري يحلل، يدقق، ويتحمل مسؤولية كل كلمة يكتبها أمام الله ثم القانون. الذكاء الاصطناعي قد يكون "خادماً مطيعاً" يسرع أعمالك، لكنه "سيد كارثي" إذا منحته حق اتخاذ القرار.









