Gemini يضيف ميزة Nano Banana للرسم ويكشف الفيديوهات المزيفة بالذكاء الاصطناعي
تطبيق Gemini من Google يضيف ميزة «Nano Banana» للرسم على الصور والتفاعل البصري المباشر.
تتيح واجهة جديدة أدوات تحرير سريعة تجعل التفاعل مع الذكاء الاصطناعي أقرب إلى دفتر ملاحظات.
توسعت أداة SynthID لتحليل مقاطع الفيديو والتحقق من المحتوى المُولّد بواسطة AI.
تحرك Google هذا يشير إلى تحول فلسفي في بناء واجهات الذكاء الاصطناعي.
يهدف الجمع بين الرسم والكشف الرقمي إلى تمكين المستخدم وإيضاح مصدر المحتوى.
في صباحٍ رقميٍّ جديد، تتسلل ميزة جديدة إلى تطبيق Gemini من Google، لتمنح المستخدمين طريقة غير مألوفة للتواصل مع الذكاء الاصطناعي. لم يعد النص وحده لغة الحوار، بل أصبح الرسم والشرح البصري على الصور وسيلة مباشرة لفهم المقصود وتحسين النتائج. هذه الإضافة تُعبّر عن مرحلة ناضجة في العلاقة بين المستخدم والتقنية، حيث تصبح الإيماءة مثل الكلمة، والخط مثل الجملة.
الرسم كوسيلة تفاعل جديدة في Gemini
أضافت Google في تحديث ديسمبر 2025 لتطبيق Gemini إمكانية ما تسميه «Nano Banana»، وهي ميزة تتيح للمستخدم أن يرسم أو يُعلّق مباشرة على الصور داخل واجهة الذكاء الاصطناعي. يمكن للمستخدم تحديد مناطق معينة في الصورة، الإشارة إلى تفاصيل محددة، أو حتى كتابة تعليق مباشر عليها، بينما يتعامل النظام الذكي مع هذه الإشارات كأوامر فورية. الفكرة هنا أن اللغة البصرية قد تكون في بعض الأحيان أسرع وأوضح من أي وصف نصي.
الواجهة الجديدة تتكامل بسلاسة مع أدوات التحرير السريعة مثل التراجع والإعادة وإضافة النصوص، ما يجعل التجربة أقرب إلى دفتر ملاحظات تفاعلي يعتمد على الذكاء الاصطناعي بدلاً من الورق. بهذه الخطوة تسعى Google إلى تقريب نطاق الإبداع بين المستخدم والآلة، دون الحاجة إلى خوض حوار طويل مع مربع الأوامر التقليدي.
من الصور إلى الفيديو: توسع أدوات التحقق
في الوقت نفسه، شهد التطبيق توسعًا لقدرات أداة SynthID، التي أصبحت قادرة الآن على تحليل مقاطع الفيديو إلى جانب الصور. هذه التقنية، التي بدأت بالكشف عن العلامات المائية للذكاء الاصطناعي في المحتوى البصري، باتت تستطيع فحص ملفات الفيديو القصيرة —حتى 90 ثانية— بما في ذلك الطبقة الصوتية، لتوضيح ما إذا كان أي جزء منها تم إنشاؤه أو تعديله باستخدام أدوات Google AI.
هذا التوجه يعكس حرص الشركة على ترسيخ مفهوم «الشفافية الرقمية»، في حقبة تتشابك فيها الحدود بين ما هو مُولَّد وما هو حقيقي. لم يعد يكفي النظر إلى الصورة أو الاستماع إلى الصوت للحكم عليه؛ فالتقنيات الآن تقدم معيارًا للتحقق داخل نظام واحد مفتوح لكل المستخدمين وعلى مستوى عالمي.
ما الذي تعنيه هذه الخطوة لمستقبل الإبداع؟
ما تقوم به Google لا يقتصر على تحديث تطبيقي عابر، بل يشير إلى تحوّل فلسفي في كيفية بناء واجهات الذكاء الاصطناعي. فحين تُتاح للمستخدم حرية الرسم والتوضيح، يصبح التفاعل أكثر طبيعية وشمولية، ويرتقي الذكاء الاصطناعي من مجرد مُجيبٍ على الأسئلة إلى شريكٍ في الفهم والتصوّر. هذه المقاربة تربط بين الحواس الرقمية والبشرية وتفتح بابًا جديدًا لتعليم الأنظمة فهم السياق البصري.
وفي المقابل، يثير دمج أدوات الكشف مثل SynthID تساؤلات حول توازن الإبداع والرقابة، إذ يعتمد الفنانون والمصممون اليوم على أدوات الذكاء الاصطناعي بطريقة يومية. كيف يمكن المحافظة على الثقة بالمحتوى دون كبح الخيال؟ يبدو أن Google تراهن على أن الشفافية لا تعيق الابتكار بل تدعمه، طالما كانت المعلومات بيد المستخدم.
بين التفاعل البصري والشفافية الرقمية
إن الجمع بين ميزة الرسم كموجّه ذكي وأداة كشف المحتوى مولّد الذكاء الصناعي يمثل وجهين للنهج نفسه: تمكين المستخدم وإيضاح المصدر. فمن جهة تمنحك الحرية في التعبير بأصابعك، ومن جهة أخرى تذكّرك بمن صنع ما تراه وتسمعه. هذه المعادلة قد تشكل قاعدة أساسية لتجارب المستخدم المستقبلية، حيث تتلاقى السيطرة الإبداعية مع الوعي الأخلاقي في بيئة رقمية أكثر وضوحًا.
في النهاية، يبدو أن Gemini يتحول تدريجيًا من تطبيق محادثة إلى منصة تفاعلية للفكر والرؤية، تُمزج فيها الخطوط بالأفكار والأصوات بالمعاني. ومع كل تحديث، يقترب الذكاء الاصطناعي خطوة إضافية من طريقة تفكير الإنسان لا فقط في ما يقول، بل أيضًا في كيف يرى ويُشير ويُعبّر.










