DeepSeek продвигает тестирование новой версии модели в режиме грейд-обкатки, которая, вероятно, является финальной грейд-версией перед официальным дебютом V4.
11 февраля часть пользователей, открыв приложение DeepSeek, получила уведомление об обновлении. После обновления приложения (1.7.4) пользователи смогут опробовать новейшую модель DeepSeek. В рамках этого обновления длина контекста модели увеличилась с 128K до 1M, почти в 10 раз; база знаний обновлена до мая 2025 года, а несколько ключевых возможностей претерпели существенные улучшения.
Авторские тесты показали, что в вопросах и ответах текущая версия, скорее всего, не является V4, а, скорее всего, — финальной эволюционной формой серии V3 или же последней грейд-версией перед официальным дебютом V4.
Номура Цукуси 10 февраля опубликовала отчет, в котором говорится, что ожидаемый в середине февраля 2026 года DeepSeek V4 не вызовет глобальной паники по спросу на вычислительные мощности ИИ, как это было при запуске V3 в прошлом году. Компания считает, что ключевая ценность V4 заключается в продвижении коммерциализации ИИ-приложений через инновации в базовой архитектуре, а не в революции существующей цепочки ценности ИИ.
По результатам оценки, новая версия уже достигла уровня обработки сложных задач, сопоставимого с ведущими закрытыми моделями Gemini 3 Pro и K2.5. Номура дополнительно отметил, что V4, по предварительным оценкам, внедрит две инновационные технологии — mHC и Engram, которые на алгоритмическом и инженерном уровнях преодолевают узкие места в вычислительных чипах и памяти. Внутренние тесты показывают, что V4 уже превосходит модели Anthropic Claude и серии GPT от OpenAI по показателям в программировании.
Ключевое значение этого релиза — дальнейшее снижение затрат на обучение и вывод модели в эксплуатацию, что даст возможность снизить барьеры для компаний, разрабатывающих крупные языковые модели и ИИ-приложения по всему миру.
Инновационная архитектура для оптимизации аппаратных узких мест
Отчет Номура указывает, что производительность вычислительных чипов и узкие места в HBM-памяти остаются главными ограничениями для отечественной индустрии крупных моделей. Внедрение DeepSeek V4 с технологиями mHC (сверхсвязь и ограничение потоков на многообразии) и Engram — это системные оптимизации, направленные на устранение этих проблем с двух сторон — обучения и вывода.
mHC:
Полное название — «сверхсвязь с ограничением многообразия». Цель — решить проблему узких мест в информационном потоке и нестабильности обучения при очень глубокой архитектуре трансформеров.
Проще говоря, оно делает «диалог» между слоями нейросети более насыщенным и гибким, одновременно защищая информацию математическими «ограничителями», чтобы избежать её искажения или усиления. Эксперименты показали, что модели с mHC лучше справляются с задачами математического и логического вывода.
Engram:
Модуль «условной памяти». Его идея — отделить «память» от «вычислений».
Статические знания (например, сущности, фиксированные выражения) хранятся в специальной разреженной таблице памяти, которая может находиться в недорогой DRAM. При необходимости вывода осуществляется быстрый поиск. Это освобождает дорогостоящую память GPU (HBM), позволяя ей сосредоточиться на динамических вычислениях.
Технология mHC за счет повышения стабильности обучения и эффективности сходимости помогает частично компенсировать разрыв в межсоединительной пропускной способности и плотности вычислений отечественных чипов; архитектура Engram ориентирована на реконструкцию механизма управления памятью, чтобы при ограниченной поставке HBM более эффективно использовать доступную память и пропускную способность. Номура считает, что эти две инновации вместе образуют комплексное решение, адаптированное под отечественную аппаратную экосистему, и имеют явную инженерную ценность.
Отчет дополнительно подчеркивает, что самое важное коммерческое влияние релиза V4 — существенное снижение затрат на обучение и вывод моделей. Это позволит стимулировать спрос на downstream-приложения и запустить новый цикл развития инфраструктуры ИИ. В процессе этого, китайские производители аппаратного обеспечения для ИИ могут выиграть за счет увеличения спроса и предварительных инвестиций.
Рынок переходит от «доминирования одной компании» к «конкуренции нескольких игроков»
Отчет Номура освещает изменения на рынке спустя год после релиза DeepSeek V3/R1. В конце 2024 года две модели DeepSeek занимали более половины использования токенов в открытом исходном коде на платформе OpenRouter.
Но к середине 2025 года, по мере появления новых участников, их доля заметно снизилась. Рынок перешел от «одной доминирующей компании» к «многополюсной конкуренции». Конкурентная среда для V4 стала значительно сложнее, чем год назад. Эффективность управления вычислительными ресурсами и повышение производительности DeepSeek ускорили развитие крупных языковых моделей и приложений в Китае, а также изменили глобальный баланс сил, повысив интерес к моделям с открытым исходным кодом.
Возможности для повышения стоимости со стороны софтверных компаний
Номура считает, что ведущие мировые облачные провайдеры активно развивают универсальный ИИ, и гонка за капиталовложениями еще не завершена, поэтому V4 вряд ли вызовет такую же волну потрясений в инфраструктуре ИИ, как в прошлом году.
Однако разработчики крупных моделей и приложений сталкиваются с растущими затратами. Если V4 сможет сохранить высокую производительность при значительном снижении затрат на обучение и вывод, это поможет этим компаниям быстрее монетизировать технологии и снизить прибыльные риски.
На стороне приложений более мощный и эффективный V4 создаст условия для появления более интеллектуальных ИИ-агентов. В отчете отмечается, что такие приложения, как приложение Али通ий Цянь Вэнь, уже способны автоматизировать выполнение многошаговых задач, и ИИ-агенты переходят от «диалоговых инструментов» к «умным помощникам», способным решать сложные задачи.
Эти многофункциональные агенты требуют более частого взаимодействия с базовой моделью, что увеличивает расход токенов и повышает требования к вычислительным ресурсам. Поэтому повышение эффективности модели не только не «убьет софт», но и создаст новые возможности для ведущих софтверных компаний. Номура подчеркивает необходимость следить за компаниями, которые смогут первыми использовать новые возможности крупных моделей для создания прорывных ИИ-приложений или агентов. Их рост может быть вновь стимулирован скачком возможностей моделей.
Риск-менеджмент и отказ от ответственности
Рынок подвержен рискам, инвестиции требуют осторожности. Настоящий материал не является индивидуальной инвестиционной рекомендацией и не учитывает конкретные цели, финансовое положение или потребности каждого пользователя. Пользователи должны самостоятельно оценить соответствие приведенных мнений, взглядов или выводов своей ситуации. За инвестиционные решения несут ответственность сами.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Появилась новая модель DeepSeek?
DeepSeek продвигает тестирование новой версии модели в режиме грейд-обкатки, которая, вероятно, является финальной грейд-версией перед официальным дебютом V4.
11 февраля часть пользователей, открыв приложение DeepSeek, получила уведомление об обновлении. После обновления приложения (1.7.4) пользователи смогут опробовать новейшую модель DeepSeek. В рамках этого обновления длина контекста модели увеличилась с 128K до 1M, почти в 10 раз; база знаний обновлена до мая 2025 года, а несколько ключевых возможностей претерпели существенные улучшения.
Авторские тесты показали, что в вопросах и ответах текущая версия, скорее всего, не является V4, а, скорее всего, — финальной эволюционной формой серии V3 или же последней грейд-версией перед официальным дебютом V4.
Номура Цукуси 10 февраля опубликовала отчет, в котором говорится, что ожидаемый в середине февраля 2026 года DeepSeek V4 не вызовет глобальной паники по спросу на вычислительные мощности ИИ, как это было при запуске V3 в прошлом году. Компания считает, что ключевая ценность V4 заключается в продвижении коммерциализации ИИ-приложений через инновации в базовой архитектуре, а не в революции существующей цепочки ценности ИИ.
По результатам оценки, новая версия уже достигла уровня обработки сложных задач, сопоставимого с ведущими закрытыми моделями Gemini 3 Pro и K2.5. Номура дополнительно отметил, что V4, по предварительным оценкам, внедрит две инновационные технологии — mHC и Engram, которые на алгоритмическом и инженерном уровнях преодолевают узкие места в вычислительных чипах и памяти. Внутренние тесты показывают, что V4 уже превосходит модели Anthropic Claude и серии GPT от OpenAI по показателям в программировании.
Ключевое значение этого релиза — дальнейшее снижение затрат на обучение и вывод модели в эксплуатацию, что даст возможность снизить барьеры для компаний, разрабатывающих крупные языковые модели и ИИ-приложения по всему миру.
Инновационная архитектура для оптимизации аппаратных узких мест
Отчет Номура указывает, что производительность вычислительных чипов и узкие места в HBM-памяти остаются главными ограничениями для отечественной индустрии крупных моделей. Внедрение DeepSeek V4 с технологиями mHC (сверхсвязь и ограничение потоков на многообразии) и Engram — это системные оптимизации, направленные на устранение этих проблем с двух сторон — обучения и вывода.
Технология mHC за счет повышения стабильности обучения и эффективности сходимости помогает частично компенсировать разрыв в межсоединительной пропускной способности и плотности вычислений отечественных чипов; архитектура Engram ориентирована на реконструкцию механизма управления памятью, чтобы при ограниченной поставке HBM более эффективно использовать доступную память и пропускную способность. Номура считает, что эти две инновации вместе образуют комплексное решение, адаптированное под отечественную аппаратную экосистему, и имеют явную инженерную ценность.
Отчет дополнительно подчеркивает, что самое важное коммерческое влияние релиза V4 — существенное снижение затрат на обучение и вывод моделей. Это позволит стимулировать спрос на downstream-приложения и запустить новый цикл развития инфраструктуры ИИ. В процессе этого, китайские производители аппаратного обеспечения для ИИ могут выиграть за счет увеличения спроса и предварительных инвестиций.
Рынок переходит от «доминирования одной компании» к «конкуренции нескольких игроков»
Отчет Номура освещает изменения на рынке спустя год после релиза DeepSeek V3/R1. В конце 2024 года две модели DeepSeek занимали более половины использования токенов в открытом исходном коде на платформе OpenRouter.
Но к середине 2025 года, по мере появления новых участников, их доля заметно снизилась. Рынок перешел от «одной доминирующей компании» к «многополюсной конкуренции». Конкурентная среда для V4 стала значительно сложнее, чем год назад. Эффективность управления вычислительными ресурсами и повышение производительности DeepSeek ускорили развитие крупных языковых моделей и приложений в Китае, а также изменили глобальный баланс сил, повысив интерес к моделям с открытым исходным кодом.
Возможности для повышения стоимости со стороны софтверных компаний
Номура считает, что ведущие мировые облачные провайдеры активно развивают универсальный ИИ, и гонка за капиталовложениями еще не завершена, поэтому V4 вряд ли вызовет такую же волну потрясений в инфраструктуре ИИ, как в прошлом году.
Однако разработчики крупных моделей и приложений сталкиваются с растущими затратами. Если V4 сможет сохранить высокую производительность при значительном снижении затрат на обучение и вывод, это поможет этим компаниям быстрее монетизировать технологии и снизить прибыльные риски.
На стороне приложений более мощный и эффективный V4 создаст условия для появления более интеллектуальных ИИ-агентов. В отчете отмечается, что такие приложения, как приложение Али通ий Цянь Вэнь, уже способны автоматизировать выполнение многошаговых задач, и ИИ-агенты переходят от «диалоговых инструментов» к «умным помощникам», способным решать сложные задачи.
Эти многофункциональные агенты требуют более частого взаимодействия с базовой моделью, что увеличивает расход токенов и повышает требования к вычислительным ресурсам. Поэтому повышение эффективности модели не только не «убьет софт», но и создаст новые возможности для ведущих софтверных компаний. Номура подчеркивает необходимость следить за компаниями, которые смогут первыми использовать новые возможности крупных моделей для создания прорывных ИИ-приложений или агентов. Их рост может быть вновь стимулирован скачком возможностей моделей.
Риск-менеджмент и отказ от ответственности
Рынок подвержен рискам, инвестиции требуют осторожности. Настоящий материал не является индивидуальной инвестиционной рекомендацией и не учитывает конкретные цели, финансовое положение или потребности каждого пользователя. Пользователи должны самостоятельно оценить соответствие приведенных мнений, взглядов или выводов своей ситуации. За инвестиционные решения несут ответственность сами.