ذكاء اصطناعي

ثورة في ذاكرة الذكاء الاصطناعي: DeepSeek تلمّح لحل أزمة RAM

Abdelrahman Amr
Abdelrahman Amr

3 د

تستخدم DeepSeek تقنية Engram لفصل المعرفة عن مسار الحساب لتعزيز الأداء وتقليل التكاليف.

تقترح DeepSeek فصل المعرفة الثابتة لتجنب الاعتماد الكامل على ذاكرة HBM المكلفة.

Engram تتيح الوصول إلى المعرفة دون الاعتماد الدائم على الذاكرة السريعة، مما يحسن الأداء.

تركت Engram مساحة ذهنية أكبر للتفكير المنطقي والاستدلال في النماذج دون زيادة العمليات.

تدعم Engram التوسع الخطي وتقلل الضغط على الذاكرة، مما يعزز استقرار الاستثمارات في العتاد.

في مختبرات الحوسبة العالية، يتكرر المشهد ذاته. مهندسون يراقبون مخططات الذاكرة ترتفع بسرعة غير مريحة، وأسعار العتاد تقفز بلا إنذار. المشكلة ليست في عدد النماذج فحسب، بل في الطريقة التي خُصصت بها الذاكرة منذ سنوات. هنا يظهر اسم DeepSeek بمقاربة جديدة تحاول كسر هذه الحلقة المعقدة بين الأداء والتكلفة.


ما الذي تقترحه DeepSeek عبر Engram

تقنية Engram التي طورتها DeepSeek بالتعاون مع جامعة بكين تنطلق من فكرة بسيطة ظاهريا، لكنها عميقة الأثر. فصل المعرفة الثابتة عن مسار الحساب داخل النموذج. بدلا من تحميل كل شيء في ذاكرة عالية النطاق، يتم تخزين الأنماط والمعرفة العامة في طبقة ذاكرة مستقلة، واستدعاؤها عند الحاجة فقط. النتيجة نموذج لا يرهق وحدات المعالجة الرسومية، ولا يضطر للاعتماد الكامل على ذاكرة HBM المكلفة.

هذا الفصل يعيد تشكيل العلاقة بين التخزين والحساب داخل نماذج اللغة الكبيرة، ويمنح النموذج مساحة ذهنية أكبر للتفكير المنطقي والاستدلال، بدلا من إهدار الطبقات العميقة في عمليات استرجاع بسيطة.


لماذا أصبحت الذاكرة عنق الزجاجة الحقيقي

خلال الأشهر الماضية، تضاعفت أسعار الذاكرة العشوائية عدة مرات، مدفوعة بالطلب المحموم من شركات الذكاء الاصطناعي. المشكلة لا تتعلق بسعة النموذج فقط، بل بسرعة الوصول إلى البيانات. معظم النماذج الحالية تفترض أن كل معلومة يجب أن تكون قريبة جدا من المعالج، وهو افتراض باهظ الثمن على مستوى البنية التحتية.

Engram تكسر هذا الافتراض عبر آلية استرجاع حتمية تعتمد على مقاطع لغوية مجزأة، ما يسمح بالوصول إلى المعرفة دون الاعتماد الدائم على الذاكرة السريعة. بهذا المعنى، لا تحل DeepSeek مشكلة تقنية فقط، بل تعالج سببا اقتصاديا مباشرا وراء تضخم أسعار العتاد.


تحسين التفكير دون زيادة الحساب

في الاختبارات الأولية على نموذج يضم سبعة وعشرين مليار معلمة، أظهرت Engram تحسنا مستقرا عبر مؤشرات الأداء القياسية. اللافت أن هذا التحسن لم يأت عبر زيادة عدد العمليات أو المعلمات، بل من خلال إعادة توزيع الذكاء داخل النموذج نفسه.

تركت الطبقات الانتباهية مساحة أكبر لفهم السياق العام، بينما تولت الذاكرة الشرطية مهمة استدعاء التفاصيل الثابتة. هذا التوازن بين الذاكرة والحساب يعكس فهما أعمق لكيفية عمل النماذج، ويعيد الاعتبار لفكرة أن التفكير ليس دائما مرادفا لمزيد من العمليات.


انعكاسات أوسع على بنية الذكاء الاصطناعي

أهمية Engram لا تتوقف عند نموذج بعينه. قابلية التوسع الخطي عبر وحدات معالجة متعددة، ودعم الجلب المسبق غير المتزامن، يفتحان الباب أمام بنى هجينة تجمع بين الذاكرة السريعة والتخزين الأبطأ مثل وحدات SSD أو الذاكرة المشتركة.

ذو صلة

في سياقات تعاني من محدودية الوصول إلى ذاكرة HBM، قد تمثل هذه المقاربة فارقا استراتيجيا. تقليل الضغط على الذاكرة السريعة يعني استثمارات أكثر استقرارا، ونماذج أكبر حجما وقدرة، دون الدخول في دوامة ارتفاع الأسعار.

في النهاية، تقدم DeepSeek تذكيرا هادئا بأن التقدم في الذكاء الاصطناعي لا يأتي دائما من تضخيم النماذج، بل أحيانا من إعادة التفكير في الأساسيات. كيف نخزن المعرفة، ومتى نستدعيها، قد يكونان السؤالين الأهم في السنوات القادمة.

ذو صلة