Анонс DeepSeek V4: архитектура MoE с 1 трлн параметров и подробный разбор 4 ключевых обновлений
DeepSeek V4 уже на подходе: модель использует архитектуру MoE с примерно 1 триллионом (1T) параметров, поддерживает нативный мультимодальный ввод и сверхдлинное контекстное окно в 1 миллион токенов. После нескольких переносов релиза, эта долгожданная большая языковая модель с открытым исходным кодом должна официально дебютировать в апреле 2026 года, чтобы составить конкуренцию сериям GPT-5.x, Claude 4 и…
