DeepSeek просуває тестування нової версії моделі у режимі грейд, або ж є фінальною грейд-версією перед офіційним дебютом V4.
11 лютого деякі користувачі, відкривши додаток DeepSeek, отримали повідомлення про оновлення версії. Після оновлення додатку (1.7.4) користувачі можуть випробувати найновішу модель DeepSeek. Після цього оновлення довжина контексту моделі буде збільшена з 128K до 1M, майже у 10 разів; база знань оновлена до травня 2025 року, кілька ключових можливостей отримали суттєві покращення.
Авторські власні тести показали, що DeepSeek у режимі запитань і відповідей, ймовірно, не є V4, а дуже ймовірно — це остаточна еволюційна форма серії V3 або ж фінальна грейд-версія перед офіційним дебютом V4.
Норнікель Securities 10 лютого опублікував звіт, у якому зазначено, що очікуваний запуск моделі DeepSeek V4 у середині лютого 2026 року не спричинить глобальної паніки щодо потреби у обчислювальній потужності AI, яка виникла минулого року при запуску V3. Відзначається, що ключова цінність V4 полягає у просуванні комерціалізації AI-застосунків через інновації у базовій архітектурі, а не у революції у поточних ланцюгах цінності AI.
За результатами оцінки, нова версія вже здатна конкурувати з провідними закритими моделями, такими як Gemini 3 Pro та K2.5, у складних завданнях. Норнікель додатково зазначає, що V4, ймовірно, введе дві інноваційні технології — mHC та Engram, які зможуть прорвати межі обчислювальних чіпів і пам’яті на рівні алгоритмів і інженерії. Попередні внутрішні тести показали, що V4 у програмуванні вже перевищує моделі Anthropic Claude та GPT-серії від OpenAI.
Ключове значення цієї релізу — подальше зниження витрат на тренування та виведення моделей, що створить можливості для зменшення капітальних витрат компаній, що працюють із великими мовними моделями та AI-застосунками по всьому світу.
Інноваційна архітектура для оптимізації апаратних обмежень
Звіт Норнікель Securities зазначає, що продуктивність обчислювальних чіпів і межі HBM-пам’яті залишаються головними обмеженнями для індустрії великих моделей у Китаї. Модель DeepSeek V4, яка скоро буде випущена, вводить архітектури mHC (суперзв’язки та обмеження на маніфольдних зв’язках) та Engram, що системно оптимізують процеси тренування і виведення з урахуванням цих обмежень.
mHC:
Повна назва — «Обмеження на маніфольдних зв’язках». Мета — вирішити проблему вузьких місць у потоках інформації та нестабільності тренування при дуже глибоких трансформерах.
Простими словами, він робить «діалог» між шарами нейронної мережі більш багатим і гнучким, одночасно захищаючи від надмірного посилення або пошкодження інформації за допомогою строгих математичних «огорож». Експерименти показали, що моделі з mHC демонструють кращі результати у математичних розумових задачах.
Engram:
Модуль «умови пам’яті». Його ідея — розділити «пам’ять» і «обчислення».
Статичні знання у моделі (наприклад, сутності, фіксовані вирази) зберігаються у спеціальній розрідженій пам’яті, яку можна розмістити у дешевій DRAM. При необхідності виведення — швидко звертаються до цієї пам’яті. Це звільняє дорогоцінну GPU-пам’ять (HBM), дозволяючи їй зосередитися на динамічних обчисленнях.
Технологія mHC покращує стабільність тренування і швидкість зближення, частково компенсуючи різницю між китайськими чіпами за пропускною здатністю і щільністю обчислень; архітектура Engram спрямована на реконструкцію механізмів управління пам’яттю, щоб подолати обмеження обсягу і пропускної здатності відеопам’яті у умовах її дефіциту. Норнікель вважає, що ці дві інновації разом формують адаптивний комплекс для китайської апаратної екосистеми з чіткою інженерною цінністю.
Звіт додатково підкреслює, що найбільш суттєвий бізнес-ефект від випуску V4 — це реальне зниження витрат на тренування і виведення моделей. Це дозволить активізувати попит на downstream-застосунки і сприятиме новому циклу інвестицій у AI-інфраструктуру. У цьому процесі китайські виробники AI-апаратного забезпечення можуть отримати вигоду від зростання попиту і попередніх інвестицій.
Ринок змінюється: від «домінування однієї компанії» до «конкуренції багатьох гравців»
Звіт Норнікель згадує про зміни на ринку через рік після запуску DeepSeek-V3/R1. Наприкінці 2024 року два моделі DeepSeek займали понад половину використання токенів у відкритих моделях на платформі OpenRouter.
Але вже до другої половини 2025 року, з появою нових гравців, їх частка значно зменшилася. Ринок перейшов від «домінування однієї компанії» до «конкуренції багатьох». Конкурентне середовище для V4 стало набагато складнішим, ніж рік тому. Ефективність управління обчислювальними ресурсами та покращення продуктивності DeepSeek прискорюють розвиток великих мовних моделей і застосунків у Китаї, змінюючи глобальний конкурентний ландшафт і підвищуючи інтерес до відкритих моделей.
Можливості для підвищення цінності софтверних компаній
Звіт Норнікель вважає, що головні світові хмарні провайдери активно змагаються за універсальний штучний інтелект, і конкуренція за капітальні витрати ще не завершена, тому V4 навряд чи спричинить масштабний шок у глобальному AI-інфраструктурному ринку, як минулого року.
Але розробники великих моделей і застосунків несуть все зростаючий тягар капітальних витрат. Якщо V4 зможе зберегти високі показники продуктивності і водночас суттєво знизити витрати на тренування і виведення, це допоможе цим компаніям швидше монетизувати технології і зменшити прибутковий тиск.
Щодо застосунків, більш потужний і ефективний V4 сприятиме створенню ще більш потужних AI-агентів. Звіт відзначає, що такі додатки, як App «Тисячі питань» від Alibaba, вже здатні автоматизувати виконання багатоступеневих завдань, перетворюючись із «інструменту для діалогів» у «AI-помічників», здатних виконувати складні задачі.
Ці мультизадачні агенти потребують частого взаємодії з базовими моделями, що збільшує споживання токенів і підвищує вимоги до обчислювальної потужності. Тому підвищення ефективності моделей не лише не «вбиває софт», а навпаки створює цінність для провідних софтверних компаній. Норнікель наголошує, що важливо слідкувати за тими компаніями, які першими зможуть використовувати нові можливості великих моделей для створення революційних AI-застосунків або агентів. Їхній потенціал зростання може бути ще більш підсилений проривами у можливостях моделей.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Чи з'явилася нова модель DeepSeek?
DeepSeek просуває тестування нової версії моделі у режимі грейд, або ж є фінальною грейд-версією перед офіційним дебютом V4.
11 лютого деякі користувачі, відкривши додаток DeepSeek, отримали повідомлення про оновлення версії. Після оновлення додатку (1.7.4) користувачі можуть випробувати найновішу модель DeepSeek. Після цього оновлення довжина контексту моделі буде збільшена з 128K до 1M, майже у 10 разів; база знань оновлена до травня 2025 року, кілька ключових можливостей отримали суттєві покращення.
Авторські власні тести показали, що DeepSeek у режимі запитань і відповідей, ймовірно, не є V4, а дуже ймовірно — це остаточна еволюційна форма серії V3 або ж фінальна грейд-версія перед офіційним дебютом V4.
Норнікель Securities 10 лютого опублікував звіт, у якому зазначено, що очікуваний запуск моделі DeepSeek V4 у середині лютого 2026 року не спричинить глобальної паніки щодо потреби у обчислювальній потужності AI, яка виникла минулого року при запуску V3. Відзначається, що ключова цінність V4 полягає у просуванні комерціалізації AI-застосунків через інновації у базовій архітектурі, а не у революції у поточних ланцюгах цінності AI.
За результатами оцінки, нова версія вже здатна конкурувати з провідними закритими моделями, такими як Gemini 3 Pro та K2.5, у складних завданнях. Норнікель додатково зазначає, що V4, ймовірно, введе дві інноваційні технології — mHC та Engram, які зможуть прорвати межі обчислювальних чіпів і пам’яті на рівні алгоритмів і інженерії. Попередні внутрішні тести показали, що V4 у програмуванні вже перевищує моделі Anthropic Claude та GPT-серії від OpenAI.
Ключове значення цієї релізу — подальше зниження витрат на тренування та виведення моделей, що створить можливості для зменшення капітальних витрат компаній, що працюють із великими мовними моделями та AI-застосунками по всьому світу.
Інноваційна архітектура для оптимізації апаратних обмежень
Звіт Норнікель Securities зазначає, що продуктивність обчислювальних чіпів і межі HBM-пам’яті залишаються головними обмеженнями для індустрії великих моделей у Китаї. Модель DeepSeek V4, яка скоро буде випущена, вводить архітектури mHC (суперзв’язки та обмеження на маніфольдних зв’язках) та Engram, що системно оптимізують процеси тренування і виведення з урахуванням цих обмежень.
Технологія mHC покращує стабільність тренування і швидкість зближення, частково компенсуючи різницю між китайськими чіпами за пропускною здатністю і щільністю обчислень; архітектура Engram спрямована на реконструкцію механізмів управління пам’яттю, щоб подолати обмеження обсягу і пропускної здатності відеопам’яті у умовах її дефіциту. Норнікель вважає, що ці дві інновації разом формують адаптивний комплекс для китайської апаратної екосистеми з чіткою інженерною цінністю.
Звіт додатково підкреслює, що найбільш суттєвий бізнес-ефект від випуску V4 — це реальне зниження витрат на тренування і виведення моделей. Це дозволить активізувати попит на downstream-застосунки і сприятиме новому циклу інвестицій у AI-інфраструктуру. У цьому процесі китайські виробники AI-апаратного забезпечення можуть отримати вигоду від зростання попиту і попередніх інвестицій.
Ринок змінюється: від «домінування однієї компанії» до «конкуренції багатьох гравців»
Звіт Норнікель згадує про зміни на ринку через рік після запуску DeepSeek-V3/R1. Наприкінці 2024 року два моделі DeepSeek займали понад половину використання токенів у відкритих моделях на платформі OpenRouter.
Але вже до другої половини 2025 року, з появою нових гравців, їх частка значно зменшилася. Ринок перейшов від «домінування однієї компанії» до «конкуренції багатьох». Конкурентне середовище для V4 стало набагато складнішим, ніж рік тому. Ефективність управління обчислювальними ресурсами та покращення продуктивності DeepSeek прискорюють розвиток великих мовних моделей і застосунків у Китаї, змінюючи глобальний конкурентний ландшафт і підвищуючи інтерес до відкритих моделей.
Можливості для підвищення цінності софтверних компаній
Звіт Норнікель вважає, що головні світові хмарні провайдери активно змагаються за універсальний штучний інтелект, і конкуренція за капітальні витрати ще не завершена, тому V4 навряд чи спричинить масштабний шок у глобальному AI-інфраструктурному ринку, як минулого року.
Але розробники великих моделей і застосунків несуть все зростаючий тягар капітальних витрат. Якщо V4 зможе зберегти високі показники продуктивності і водночас суттєво знизити витрати на тренування і виведення, це допоможе цим компаніям швидше монетизувати технології і зменшити прибутковий тиск.
Щодо застосунків, більш потужний і ефективний V4 сприятиме створенню ще більш потужних AI-агентів. Звіт відзначає, що такі додатки, як App «Тисячі питань» від Alibaba, вже здатні автоматизувати виконання багатоступеневих завдань, перетворюючись із «інструменту для діалогів» у «AI-помічників», здатних виконувати складні задачі.
Ці мультизадачні агенти потребують частого взаємодії з базовими моделями, що збільшує споживання токенів і підвищує вимоги до обчислювальної потужності. Тому підвищення ефективності моделей не лише не «вбиває софт», а навпаки створює цінність для провідних софтверних компаній. Норнікель наголошує, що важливо слідкувати за тими компаніями, які першими зможуть використовувати нові можливості великих моделей для створення революційних AI-застосунків або агентів. Їхній потенціал зростання може бути ще більш підсилений проривами у можливостях моделей.