ميزة التحكم بالحواسيب في أندرويد تكشف كيف سبق جهاز Rabbit R1 عصره

3 د
جوجل تطور ميزة "التحكم بالحاسوب" لتفعيل الذكاء الاصطناعي في تطبيقات أندرويد.
الميزة الجديدة تعد بتجربة "مساعد ذكي عامل بالوكالة" لتعزيز أداء النظام.
الإطار الجديد يبني على خدمة "إدارة الأجهزة الافتراضية" لضمان التحكم الآمن.
التفاصيل تشير لخيارات بين تحليل محلي أو إرسال التحكم لخوادم بعيدة.
"التحكم بالحاسوب" قد يعيد تعريف علاقة المستخدم بأجهزته الذكية تمامًا.
أعلنت تسريبات حديثة من داخل شيفرة نظام أندرويد عن عمل جوجل على ميزة جديدة تُعرف باسم "التحكم بالحاسوب" (Computer Control)، وهي إطار عمل (framework) مصمم لتمكين الذكاء الاصطناعي من تنفيذ مهام داخل تطبيقات أندرويد بشكل مؤتمت وخلف الكواليس. الميزة التي يُتوقع أن تُطرح رسميًا مع إصدار أندرويد 17، تكشف عن توجه متقدم لجعل النظام أقرب إلى فكرة "المساعد الذكي العامل بالوكالة" بدلًا من المساعد التقليدي.
من نموذج "Rabbit R1" إلى مشروع "Computer Control"
تُعد هذه الميزة استمرارًا طبيعيًا لما بدأته جوجل ضمن مشروعها التجريبي Project Astra، الذي ظهر أول مرة خلال مؤتمر Google I/O حين عرضت الشركة مساعدًا قادرًا على التفاعل البصري والتحكم الكامل في الهاتف من دون لمس، بدءًا من قراءة مستند على الشاشة إلى تشغيل فيديوهات عبر يوتيوب. ورغم أن التجربة كانت بطيئة وزُمن العرض مُسرّع، إلا أنها قدمت تصورًا مبكرًا للجيل المقبل من وكلاء الذكاء الاصطناعي.
تتشابه الفكرة مع جهاز Rabbit R1 الذي حاول العام الماضي تقديم مساعد صغير يعتمد على أوامر صوتية لتنفيذ مهام عن بُعد، لكن دون نجاح تجاري يُذكر. ومع ذلك، يبدو أن "التحكم بالحاسوب" يحمل الفكرة ذاتها بداخل نظام أندرويد نفسه، بطريقة أكثر أمانًا واندماجًا في بنية النظام.
نظام متكامل للتحكم الذكي بالتطبيقات
بحسب تحليل الشيفرة التي عُثر عليها في نسخة Android 16 QPR2، يبني الإطار الجديد على خدمة "إدارة الأجهزة الافتراضية" Virtual Device Manager، والمخصصة لإنشاء شاشات افتراضية يمكن تشغيل التطبيقات عليها ونقل عرضها أو التحكم بها عن بُعد.
- إنشاء "جلسة تحكم بالحاسوب" لاستضافة التطبيق المراد أتمتته على شاشة افتراضية موثوقة.
- إدارة إدخال اللمسات والمفاتيح عن طريق أجهزة إدخال افتراضية.
- عرض محتوى الشاشة وتحليله بالذكاء الاصطناعي قبل اتخاذ الإجراء المناسب.
- إمكانية المرآة (Mirroring) لشاشة تحكّم تفاعلية تسمح بالمراقبة دون تعطيل الجلسة.
اللافت أن الميزة ستتطلب إذنًا جديدًا باسم ACCESS_COMPUTER_CONTROL
، يسمح فقط للتطبيقات الموقعة من جوجل أو المصنع بتفعيله، مما يحصر الاستخدام في نطاق موثوق ويمنع التلاعب من أدوات طرف ثالث. هذه الخطوة توازن بين قابلية الأتمتة وحماية الخصوصية، وهي نقطة حرجة في تصميم مثل هذه الأنظمة.
هل يصبح أندرويد منصة للوكلاء الذكيين؟
رغم أن التفاصيل التقنية حول طريقة التنفيذ ما زالت قيد التطوير، تشير بنية النظام إلى احتمالين: إما أن يتم تحليل واجهات التطبيقات محليًا عبر نموذج مثل Gemini Nano المصمم للأداء على الجهاز، أو أن تُرسل بيانات التحكم إلى خوادم بعيدة تتولى الأتمتة كما تفعل حلول مثل Rabbit R1 سابقًا. الخيار الأول يحافظ على الخصوصية لكنه قد يستهلك طاقة أكبر، والثاني أكثر كفاءة لكنه يتطلب اتصالًا واعتمادية سحابية.
"التحكم بالحاسوب قد يكون أول بنية رسمية لوكلاء الذكاء الاصطناعي داخل النظام نفسه، مما يلغي حاجة المستخدمين لتطبيقات أتمتة معقدة مثل Tasker."
في حال تبنت جوجل هذا التوجه تجاريًا مع إطلاق أندرويد 17 في العام القادم، فإن الهاتف لن يكون مجرد جهاز ذكي يعتمد على تفاعل المستخدم المباشر، بل بيئة ديناميكية قادرة على تنفيذ المهام الروتينية بوعي سياقي متنامٍ.
تأثير محتمل يتجاوز الهواتف
يتكامل "التحكم بالحاسوب" مع توجّه جوجل لبناء منظومة تشغيل موحدة تغطي الهواتف وأجهزة Chromebook والساعات وحتى السيارات عبر Android Auto. هذا يعني أن المساعدات المستقبلية قد تتجاوز الردود الصوتية لتصبح أنظمة تنفيذية تتعامل فعليًا مع المهام المعقدة بشكل تلقائي ومرئي.
سياق هذه الخطوات يعيد تعريف علاقة المستخدم بالأجهزة المحمولة: من جهاز يحتاج إلى نقرات متكررة إلى شريك افتراضي يتعامل مع التطبيقات كما يفعل المستخدم تمامًا، ولكن بطريقة أسرع وأذكى. ومع أن الطريق لا يزال طويلًا لضمان السرعة والدقة والأمان، فإنّ ما يجري في كواليس أندرويد اليوم قد يصبح القاعدة الجديدة لتجربة الاستخدام في عصر "الوكلاء الآليين" (Agentic AI).