الذكاء الاصطناعي يستمع قبل أن يقرر: Mappa تطلق نظامًا لاختيار الموظفين عبر تحليل أصواتهم
كشفت شركتان ناشئتان عن رؤى جديدة في معرض «تك كرانش ديسرابت 2025» بسان فرانسيسكو.
أسست البرازيلية سارة لوسينا منصة «مابّا» لتحليل السلوك وإنصاف فرص العمل.
تستخدم تقنية «إلّو AI» لحماية أنظمة الذكاء الاصطناعي من الانحراف والمعلومات المضللة.
يسلط المشروعان الضوء على دور الذكاء الاصطناعي كشريك يعزز التحليل والعدالة.
معرض «ديسرابت 2025» يبرز تطور التقنية لفهم الإنسان وحماية القيم والمجتمع.
لم تعد عملية التوظيف أو أمن الذكاء الاصطناعي مسألة تقليدية يمكن الاعتماد فيها على الحدس أو التقدير الشخصي. في معرض «تك كرانش ديسرابت 2025» في سان فرانسيسكو، كشفت شركتان ناشئتان عن رؤيتين طموحتين تعيدان تعريف العلاقة بين الإنسان والآلة: الأولى عبر توظيف الصوت لاكتشاف القدرات البشرية، والثانية عبر بناء «جهاز مناعة» يحمي أنظمة الذكاء الاصطناعي من الانحراف.
في قلب هذه الفكرة ولدت «مابّا»، منصة تحليل سلوكي مدعومة بالذكاء الاصطناعي أسستها البرازيلية سارة لوسينا عام 2023. ترى لوسينا أن التوظيف ينبغي أن يتحول من عملية غامضة إلى علم يمكن قياسه بالصوت والنبرة وطريقة التواصل. فبدلاً من تقييم المرشح عبر سيرته الذاتية فقط، تطرح المنصة أسئلة محددة يتولاها وكيل ذكي يقوم بتحليل أنماط الصوت وربطها بسمات مثل التعاطف والثقة والوضوح. بهذه الطريقة يحصل مسؤولو التوظيف على قائمة قصيرة بمرشحين تتوافق سماتهم مع متطلبات الدور.
وهذا يربط بين ما تقدمه «مابّا» اليوم وطموحها في بناء أدوات تعيد تعريف العدالة في فرص العمل. فقد نجحت الشركة خلال أقل من ثلاث سنوات في جذب أكثر من 130 عميلًا في الولايات المتحدة وتحقيق إيرادات سنوية تتجاوز أربعة ملايين دولار. اللافت أيضاً أنّ 60% من عمليات التوظيف التي تمت عبر المنصة كانت لنساء أو أفراد من مجتمع الميم أو مهاجرين، ما يعكس هدفها في جعل الاختيار أكثر شمولية. تستند الشركة إلى بيانات خاصة أنشأتها بعناية لتحليل السلوك الإنساني، وتؤكد أن الاعتماد على الصوت منح نتائج أكثر دقة من تحليل الفيديو أو الوجود الرقمي.
من التوظيف إلى البنية التحتية
هذا التوجه جعل «مابّا» تتطلع لتتحول من مقدم خدمة إلى مزود بنية أساسية يمكن دمجها عبر واجهات برمجة التطبيقات (API). شركات تعليمية مثل Re‑Skilling.ai بدأت تستخدم التقنية لتحديد مهارات الطلاب التي تحتاج إلى تطوير، بينما يستعين المستثمر تيم درابر بالنظام نفسه لتقييم مؤسسي الشركات قبل الاستثمار. بل إنّ لوسينا ترى إمكان الاستفادة من التحليل الصوتي مستقبلاً في مجالات مثل تقييم طلبات القروض للأفراد الذين لا يمتلكون تاريخاً ائتمانياً، ما يجعل الذكاء الاصطناعي أداة لقياس الجدارة لا التحيّز.
ارتباط هذه الرؤية بالمستقبل يتضح أكثر عندما نطّلع على المشروع الآخر الذي سطع في المنافسة نفسها.
«إلّو AI»… جهاز المناعة لأنظمة الذكاء الاصطناعي
في الجناح المقابل للمعرض عرض المؤسس أوين ساكاوا فكرته البسيطة والعميقة: «إلّو AI» هي واجهة برمجية تعمل كطبقة حماية توضع فوق نماذج اللغة الضخمة لتكشف الأخطاء والانحيازات والمعلومات المضللة. يشبّه ساكاوا منصته بـ«مضاد الفيروسات» الذي يفحص كل استجابة تصدر عن النظام قبل وصولها إلى المستخدم. تضم المنظومة ثلاث «مرساة» رئيسية: الأولى للتحقق من صحة المعلومات بمقارنتها مع مصادر موثوقة، والثانية للتأكد من الامتثال للقوانين مثل اللائحة الأوروبية العامة لحماية البيانات (GDPR) وقانون الخصوصية الأمريكي HIPAA، أما الثالثة فتوفر سجلاً تدقيقياً يوضح كيف اتُّخذ كل قرار ودرجة الثقة فيه.
يرى ساكاوا أن الاعتماد على نموذج لغوي كبير لمراقبة نموذج آخر «يشبه وضع ضمادة على جرح آخر»، لذلك طوّر نظامه اعتماداً على تقنيات تعلم الآلة وفرق بشرية تتابع تحديثات التشريعات لضمان الامتثال المستمر. تؤمن «إلّو AI» بأن بناء الثقة في الذكاء الاصطناعي يتطلّب أدوات مراقبة شفافة قادرة على حماية المستخدمين من المخاطر الأخلاقية والقانونية.
وهذا يسلط الضوء على القاسم المشترك بين «مابّا» و«إلّو AI»: كلاهما يعيد تعريف دور الذكاء الاصطناعي من بديل للإنسان إلى شريك يراقب ويحلّل ويضمن العدالة.
في النهاية، كشف معرض «ديسرابت 2025» أن مستقبل التقنية لا يقوم فقط على تطوير نماذج أذكى، بل على تمكينها من فهم الإنسان وحماية قيمه. سواء عبر صوت مرشح وظيفة أو استجابة لمحرك لغوي، تبقى الغاية واحدة: ذكاء اصطناعي أكثر إنصافاً وأمناً وخدمة للمجتمع البشري.









