ذكاء اصطناعي

OpenAI تستعين برقائق جوجل بدلاً من “إنفيديا”.. ما السر وراء هذه الخطوة؟

محمد كمال
محمد كمال

3 د

شرعت OpenAI باستخدام وحدات التنسور من جوجل لتقليل التكاليف والاعتماد على مزود واحد.

تتميز TPUs بقدرتها على معالجة الشبكات العصبية بسرعة وكفاءة طاقية أكبر من GPUs.

خفضت OpenAI اعتمادها على مايكروسوفت وباتت تستخدم عدة مزودين للبنية التحتية السحابية.

تواجه جوجل تحديًا حيث تزود منافسًا رئيسيًا بحلول معالجة متقدمة، رغم جنيها أرباحًا.

تهدف الشراكة لتوسيع OpenAI خدماتها بسرعة وتحسين خيارات بنيتها التحتية.

في خطوة استراتيجية تستهدف تقليل النفقات الباهظة وتخفيف الاعتماد على مزود واحد للتقنيات الحاسوبية، بدأت شركة OpenAI الاعتماد على وحدات معالجة التنسور (TPUs) التي تصنعها جوجل، وذلك لتشغيل خدمة شات جي بي تي ومنتجاتها الأخرى، مبتعدةً بذلك عن رقائق إنفيديا ومراكز بيانات مايكروسوفت.

تأتي هذه النقلة بعد سنوات من الاعتماد الكليّ على رقائق إنفيديا الرسومية GPU التي تتميز بقدرتها على التعامل مع أعباء العمل الضخمة والمتنوعة للذكاء الاصطناعي. لكن وحدات TPUs التي تقدمها جوجل بالشراكة مع منصة السحابة الخاصة بها لها ميزات خاصة فريدة، أبرزها معالجة الشبكات العصبية والتعلم الآلي بشكل سريع وخفض استهلاك الطاقة بصورة كبيرة—ما يمكّن OpenAI من خفض تكاليف التشغيل التي ازدادت مؤخراً لتشكل ما يقارب 60% من تكاليفها الإجمالية لعام 2024، ويُتوقع أن تتجاوز هذه النسبة 80% في عام 2025، وفق توقعات المحللين.


TPUs أم GPUs.. من يملك الأفضلية؟

لمن يتساءل عن الفرق بين الوحدات التنافسية، فرقائق TPUs التي طورتها جوجل متخصصة في أداء عمليات دقيقة تُسمى "عمليات التنسور" (Tensor operations)، وهي العمليات الحسابية الأساسية في التعلم الآلي والشبكات العصبية الاصطناعية. هذه الوحدات أثبتت تفوقها في بعض المهام، إذ يمكن أن تكون أسرع من المعالجات التقليدية بنحو 15 إلى 30 مرة، وأكثر توفيراً للطاقة بـ 30 إلى 80 مرة.

في المقابل، تمتاز شرائح إنفيديا الرسومية بمرونتها ودعمها للعديد من منصات العمل، إذ يمكنها التعامل مع مختلف الأعباء بكفاءة عالية. وبفضل سعة التخزين في الرقائق الرسومية من إنفيديا، التي تصل إلى 141 جيجا بايت في أحدث إصداراتها (مثل H200)، فإنها تبقى مفضلة في عمليات التوسع والتدريب الواسعة.

لكن على صعيد التكاليف، تبقى رقائق جوجل أكثر توفيراً. ووفقاً لمحللين، تتمكن جوجل من تشغيل مهام الذكاء الاصطناعي بحوالي خُمس تكلفة شرائح إنفيديا، مما يجعلها خياراً اقتصادياً جذاباً في قطاع بات يُعرف بتكاليفه الباهظة التي تُسمى بـ"ضريبة إنفيديا".

وإلى جانب المكاسب المالية لشركة OpenAI، تكتسب الشركة أيضاً استقلالية أكبر وخيارات أوسع في البنية التحتية لخدماتها. فقد خففت بذلك من اعتمادها الحصري على شركة مايكروسوفت المزود السحابي السابق، وبدأت توزع أعباء حوسبتها الضخمة بين عدة مزودين من بينهم جوجل وأوراكل وكور ويف، وهو ما يتيح المزيد من المرونة ويحد من المخاطر التشغيلية.


ماذا يعني ذلك لجوجل المنافسة؟

رغم أن هذه الصفقة تبدو مربحة لجوجل من الناحية المالية، إلا أنها قد تحمل بعض المخاطرة باعتبار OpenAI منافساً رئيسياً لجوجل على عرش الريادة في مجال تقنيات البحث القائمة على الذكاء الاصطناعي. لذا، حاولت جوجل أن تبقى متحفظة قليلاً، حيث تشير التقارير إلى أنها لم تقدم لشركة OpenAI أحدث نسخ الـ TPUs، في محاولة واضحة للحفاظ على تفوق منتجاتها الذكية مثل Gemini 2.5 Pro، والتي تكلف حالياً حوالي 10 دولارات لكل مليون رمز (Token)، مقابل 40 دولار لكل مليون رمز في منتجات OpenAI المماثلة كنموذج o3.

وبهذا، تواجه جوجل موقفاً مثيراً للجدل، إذ تتيح وحدات المعالجة العالي الكفاءة لأحد منافسيها البارزين، لكنها في الوقت ذاته تجني أرباحاً ضخمة من توفير الخدمات السحابية لأحد أكبر العملاء في قطاع التقنية اليوم.

وبالنسبة لـ OpenAI، فإن الهدف من هذه الشراكة ليس مجرد توفير للأموال، بل يمثل أيضاً خطوة استراتيجية نحو امتلاك خيارات متعددة تسمح لها بتوسيع خدماتها وتطويرها بسرعة أكبر. فالشركة التي تجاوزت إيراداتها 10 مليارات دولار مع أكثر من 500 مليون مستخدم أسبوعياً، بحاجة إلى بنية تحتية متجددة لتواكب النمو السريع في الطلب على استخدام منتجاتها.

ذو صلة

ختاماً، يمكن القول إن هذه الخطوة الذكية من OpenAI تمثل نقلة نوعية في مشهد الصناعة التقنية، إذ تعيد تعريف حدود التعاون والتنافس بين كبرى شركات التكنولوجيا. ولعل استخدام مصطلحات أبسط مثل "تقليل التكاليف الحوسبية" بدلاً من "خفض النفقات التشغيلية" أو توضيح العبارات التقنية أكثر، يساعد القارئ على البقاء متابعاً بشغف أكبر. عموماً، فتح باب التعاون بين شركات ضخمة مثل OpenAI وجوجل قد يؤشر لخريطة مستقبلية يشهدها قطاع الذكاء الاصطناعي ومراكز البيانات السحابية خلال السنوات القادمة.

ذو صلة