ذكاء اصطناعي

جوجل تستقطب فريق شركة Hume AI المتخصصة في الذكاء الاصطناعي الصوتي

Abdelrahman Amr
Abdelrahman Amr

3 د

قررت جوجل تعزيز إمكانياتها الصوتية باستقطاب فريق Hume AI لتحليل المشاعر الصوتية.

تهدف جوجل إلى تحسين نموذج Gemini ليشمل القدرات النفسية والانفعالية عبر الصوت.

تبحث شركات كبرى مثل OpenAI وMeta عن تطوير المساعدات الصوتية لتكون أكثر إنسانية.

الصوت يمثل واجهة المستقبل، حيث يُعتبر التفاعل عبر الصوت الأكثر طبيعية وفاعلية.

تركز الشركات على معالجة قضايا الخصوصية والانحياز لضمان ثقة المستخدمين في المساعدات الذكية.

لم يعد التفاعل مع الذكاء الاصطناعي يقتصر على الكتابة والضغط على الأزرار. هناك لحظة بسيطة أصبحت مألوفة للجميع حين نتحدث إلى جهاز ونتوقع أن يفهمنا، لا الكلمات فقط، بل النبرة والمزاج والتردد. في هذه المساحة تحديدًا، قررت جوجل أن تخطو خطوة جديدة، مستقطبة الفريق القيادي خلف شركة Hume AI المتخصصة في الذكاء الصوتي العاطفي، في صفقة تعكس إعادة ترتيب هادئة لأولويات الذكاء الاصطناعي.


جوجل وDeepMind تعززان رهانهما على الصوت

بحسب تقرير TechCrunch، انضم الرئيس التنفيذي لشركة Hume AI، آلان كاوين، إلى جانب نحو سبعة من أبرز مهندسي الشركة، إلى Google DeepMind ضمن اتفاقية ترخيص مرنة. الهدف المعلن هو تحسين قدرات الصوت في نموذج Gemini، خاصة في ما يتعلق بفهم الحالة النفسية والانفعالية للمستخدم أثناء التحدث.

هذه الخطوة لا تبدو استحواذًا تقليديًا، بل ما يُعرف في وادي السيليكون بصفقات الاستقطاب الذكي، حيث يتم جلب العقول والخبرات دون شراء الشركة كاملة، ما يقلل الاحتكاك التنظيمي ويُسرّع دمج الابتكار داخل العملاق التقني.


ما الذي يميز Hume AI فعلًا

السر الحقيقي وراء Hume AI لا يكمن في جودة الصوت أو وضوحه، بل في قدرتها على تحليل المشاعر من نبرة المستخدم. نموذج الشركة مبني على الذكاء العاطفي، أي قراءة الحالة النفسية من خلال السرعة، الحدة، التوقفات، وحتى التوتر غير المباشر في الصوت.

في عام 2024، أطلقت الشركة ما سمته واجهة صوتية متعاطفة، قادرة على تعديل ردودها بناءً على شعور المستخدم. هذا النوع من تحليل الإشارات الدقيقة هو ما تسعى DeepMind إلى إدخاله في Gemini Live، خصوصًا مع توسع استخدام المساعدات الذكية في الحياة اليومية.


لماذا أصبح الصوت هو الواجهة المقبلة

يبدو أن صناعة الذكاء الاصطناعي تتفق ضمنيًا على أن الشاشة ليست الخيار المثالي على المدى البعيد. مع انتشار الأجهزة القابلة للارتداء، والنظارات الذكية، والسماعات، يصبح الصوت قناة التفاعل الأوضح والأكثر طبيعية.

مستثمرون وخبراء يرون أن الصوت هو المدخل الوحيد المقبول للتقنيات التي ترافق الإنسان بشكل دائم. التحكم بدون استخدام اليدين، التفاعل السريع، والشعور بأن المساعد يفهمك، كلها عوامل تعيد تعريف تجربة الاستخدام.


سباق صامت بين عمالقة التقنية

جوجل ليست وحدها في هذا المسار. OpenAI تستعد لإطلاق جهاز صوتي بالتعاون مع فريق جوني آيف، بينما استثمرت Meta بشكل واضح في تقنيات الصوت لتعزيز نظارات Ray-Ban الذكية. كل شركة تحاول أن تجعل مساعدها أقرب، أكثر إنسانية، وأقل برودًا.

لكن التحدي الأكبر لا يكمن في التقنية ذاتها، بل في الثقة. حين يصبح الصوت هو الواجهة، يصبح المساعد أقرب إلى صديق دائم، وهنا تبدأ الأسئلة حول الخصوصية، والانحياز، وحتى حدود التأثير النفسي.


ما الذي تكشفه هذه الصفقة عن المرحلة القادمة

ذو صلة

استقطاب فريق Hume AI يؤشر إلى تحوّل أعمق في طبيعة نماذج الذكاء الاصطناعي. لم يعد التركيز على الإجابة الصحيحة فقط، بل على التوقيت، والطريقة، والشعور المصاحب للإجابة. هذا الانتقال من العقل الحسابي إلى الوعي السياقي قد يكون الفارق الحقيقي بين مساعد ذكي، وكيان رقمي نفهمه ونرتاح له.

في النهاية، قد لا يتذكر المستخدمون أسماء النماذج أو تفاصيل الصفقات، لكنهم سيتذكرون ذلك الإحساس البسيط حين يتحدثون، ويشعرون أن الطرف الآخر يستمع فعلًا. هنا، ربما، تبدأ المرحلة التالية من الذكاء الاصطناعي.

ذو صلة