نظرة استشرافية على إصدار DeepSeek V4: بنية MoE بـ 1 تريليون معلمة و4 ترقيات جوهرية شاملة
إليك ترجمة المحتوى إلى اللغة العربية: يستعد نموذج DeepSeek V4 للإطلاق قريبًا، حيث يعتمد بنية MoE بمعلمات تصل إلى تريليون (1T) تقريبًا، مع دعم أصلي للمدخلات متعددة الوسائط ونافذة سياق فائقة الطول تصل إلى مليون رمز (tokens). بعد عدة تأجيلات، من المتوقع أن يظهر هذا النموذج اللغوي الكبير مفتوح المصدر -الذي يحظى بترقب واسع- رسميًا…
