ذكاء اصطناعي

تطبيق ذكاء اصطناعي يعتذر للمستخدمين بعد نشر تنبيهات جريمة خاطئة في أنحاء أمريكا

مصطفى يسري
مصطفى يسري

2 د

تسبب تطبيق CrimeRadar في ذعر السكان بسبب إشعارات جرائم كاذبة.

أقرت الشركة المطورة بمسؤولية الذعر الناتج عن التقنية.

الخوارزمية تخلط بين البلاغات الحقيقية والكاذبة دون رقابة بشرية كافية.

التطبيق يُبرز الحاجة لموازنة بين سرعة الإبلاغ ودقته لتجنب الذعر.

تجربة التطبيق تؤكد أهمية دمج المراجعة البشرية في أنظمة الذكاء الاصطناعي.

في ليلة عادية في إحدى المدن الأمريكية، تلقى السكان إشعارات متتالية تنذرهم بجرائم قريبة، أغلقت بعض العائلات نوافذها وتوقف البعض عن الخروج. لاحقًا، تبيّن أن كل تلك التحذيرات صدرت عن تطبيق ذكاء اصطناعي يُدعى "كرائم رادار" (CrimeRadar)، وقد كانت معظمها كاذبة. بعد تحقيق أجرته هيئة BBC Verify، خرجت الشركة المطوّرة لتعتذر، مُقرّة بأن تقنيتها تسببت في ذعرٍ غير مقصود.


كيف وقع الخطأ في نظام CrimeRadar

يعتمد التطبيق على خوارزميات ذكاء اصطناعي تتتبع الاتصالات اللاسلكية المفتوحة لشرطة الولايات المتحدة. يقوم النظام بتحويل الكلام إلى نص، ومن ثم يصنّف الأحداث تلقائيًا كجرائم وينشرها لمستخدميه. الفكرة في ظاهرها جذابة: مراقبة السلامة العامة لحظيًا، لكن ما حدث كشف هشاشة الاعتماد على الذكاء الاصطناعي دون رقابة بشرية كافية. فالخوارزميات لا تفرّق دائمًا بين البلاغات الجادة والمكالمات التدريبية أو التنبيهات الزائفة.


بين السرعة والدقة في أنظمة المراقبة

ما جرى أعاد النقاش حول التوازن الدقيق بين سرعة الإبلاغ ودقته في تطبيقات تعتمد على تحليل الصوت والبيانات. في عالم تتسارع فيه الابتكارات الأمنية، تُغري الشركات التقنية بفكرة الفورية، لكنها كثيرًا ما تتجاهل أن الخطر الأكبر هو بث الذعر في مجتمعات لا تحتمل التلاعب بالخوف. حين تصبح الأخطاء التلقائية خبرًا لشبكة بأكملها، تتحوّل التقنية من أداة حماية إلى مصدر قلق.


مسؤولية الشركات عن الأثر الإنساني

اعتذار الشركة المطوّرة لـCrimeRadar لم يكن مجرّد بيان علاقات عامة، بل إقرار ضمني بمسؤولية أخلاقية تتجاوز البرمجة. فالذكاء الاصطناعي لا يعمل في الفراغ، بل في شبكات اجتماعية تعاني أصلًا من القلق وانعدام الثقة. ومن هنا تبرز الحاجة إلى فرق تحقق بشرية تراجع مخرجات الأنظمة وتصحح مسارها قبل وصولها إلى المستخدمين. شفافية كهذه قد تكون الفارق بين خدمة عامة وأداة إثارة.


مستقبل الموثوقية في تطبيقات الذكاء الاصطناعي

ذو صلة

تجربة CrimeRadar تُعد درسًا مبكرًا في الطريق نحو استخدام الذكاء الاصطناعي في الأمن المجتمعي. قد تعيد الشركات النظر في كيفية تدريب النماذج اللغوية وتحسين قدرتها على تمييز السياق، وربما في دمج عناصر مراجعة بشرية دائمة. فمع كل تقدم في تقنيات الرصد والتنبؤ، يتزايد السؤال الجوهري: من يراقب من؟ التقنية تَعِد بالدقة، لكنها تحتاج إلى ضميرٍ يبقيها في حدود المنطق الإنساني.

أخطاء CrimeRadar ليست نهاية قصة تطبيق واحد، بل تذكير بنقطة ضعف عامة في هذا الجيل من الحلول الذكية. فكل خطوة جديدة نحو الاعتماد الكامل على الذكاء الاصطناعي تقتضي أن يكون الإنسان حاضرًا، لا في الأداء التقني فقط، بل في تحمل المسؤولية الأخلاقية لما تنقله الشاشات من إشعار واحد قد يغيّر مجرى يومٍ بأكمله.

ذو صلة