DeepSeekは新バージョンモデルのグレイアウトテストを推進しており、V4正式公開前の最終的なグレイアウト版とも考えられる。
2月11日、一部ユーザーがDeepSeekアプリを起動すると、更新バージョンの通知を受け取った。アプリの更新後(1.7.4)、ユーザーはDeepSeekの最新モデルを体験できる。本アップグレードにより、モデルのコンテキスト長は128Kから1Mに拡張され、約10倍に近い向上を実現。知識ベースも2025年5月まで更新され、複数のコア機能が実質的に向上した。
作者の実測によると、DeepSeekは質問応答中に「現バージョンはおそらくV4ではなく、おそらくV3シリーズの最終進化形態、またはV4正式公開前の究極のグレイアウト版である可能性が高い」と述べている。
野村證券は2月10日にレポートを発表し、**2026年2月中旬にリリース予定のDeepSeek V4モデルは、昨年のV3リリース時に引き起こされた世界的なAI計算能力需要のパニックを再現しないと予測している。**同証券は、V4の核心的価値は、基盤アーキテクチャの革新を通じてAI応用の商用化を促進することにあり、既存のAIバリューチェーンを覆すことではないと指摘している。
評価によると、**新バージョンは複雑なタスク処理能力において、Gemini 3 ProやK2.5などの主流クローズドソースモデルとほぼ同等の性能を実現している。**野村はさらに、V4はmHCとEngramの二つの革新的技術を導入し、アルゴリズムとエンジニアリングの両面から計算能力チップとメモリのボトルネックを突破すると予測している。内部の初期テストでは、V4はプログラミングタスクにおいてAnthropic ClaudeやOpenAI GPTシリーズの同世代モデルを超えるパフォーマンスを示している。
今回のリリースの重要な意義は、訓練と推論のコストをさらに圧縮し、世界中の大規模言語モデルやAIアプリケーション企業の資本支出負担を軽減するための実現可能な道筋を提供することにある。
野村證券のレポートは、計算能力チップの性能とHBMメモリのボトルネックが、国内大規模モデル産業にとって避けられないハードルであると指摘している。間もなくリリースされるDeepSeek V4に導入されるmHC(超連結と多様体制約超連結)とEngramアーキテクチャは、訓練と推論の両面からこれらの短所をシステムレベルで最適化したものだ。
mHC: 「多様体制約超連結」の略称。Transformerモデルの層数が深くなるほど、情報の流れのボトルネックや訓練の不安定さを解決することを目的としている。 簡単に言えば、神経ネットワークの層間の「対話」をより豊かに、柔軟にしつつ、厳格な数学的「ガードレール」により情報の拡大や破壊を防止する。実験では、mHCを採用したモデルは数学的推論などのタスクでより良い性能を示している。
mHC:
「多様体制約超連結」の略称。Transformerモデルの層数が深くなるほど、情報の流れのボトルネックや訓練の不安定さを解決することを目的としている。
簡単に言えば、神経ネットワークの層間の「対話」をより豊かに、柔軟にしつつ、厳格な数学的「ガードレール」により情報の拡大や破壊を防止する。実験では、mHCを採用したモデルは数学的推論などのタスクでより良い性能を示している。
Engram: 「条件記憶」モジュール。記憶と計算を切り離す設計思想に基づく。 モデル内の静的知識(実体や固定表現など)は、疎なメモリ表に専用的に格納され、廉価なDRAMに置くことも可能。推論時には高速に検索し、高価なGPUメモリ(HBM)の負担を軽減し、動的計算に集中させる。
Engram:
「条件記憶」モジュール。記憶と計算を切り離す設計思想に基づく。
モデル内の静的知識(実体や固定表現など)は、疎なメモリ表に専用的に格納され、廉価なDRAMに置くことも可能。推論時には高速に検索し、高価なGPUメモリ(HBM)の負担を軽減し、動的計算に集中させる。
mHC技術は、訓練の安定性と収束効率を改善することで、一定の範囲で国内チップの世代間ギャップ(相互接続帯域と計算密度の差)を相殺し、Engramアーキテクチャはメモリのスケジューリングを再構築し、HBM供給の制約下でも効率的なアクセス戦略によりメモリ容量と帯域の制約を突破しようとしている。野村は、これら二つの革新は、国内ハードウェアエコシステムに適応したソリューションとして、明確なエンジニアリングの実現価値を持つと考えている。
レポートはさらに、V4のリリースによる最も直接的なビジネスインパクトは、訓練と推論のコストの実質的な低減にあると指摘している。コストの最適化は、下流のアプリケーション需要を喚起し、新たなAIインフラ構築サイクルを促進する可能性がある。この過程で、中国のAIハードウェアメーカーは、需要拡大と投資前倒しの二重の追い風を受ける見込みだ。
野村のレポートは、DeepSeek-V3/R1のリリースから1年後の市場の変化を振り返っている。2024年末には、DeepSeekの二つのモデルはOpenRouter上のオープンソースモデルのトークン使用量の半数以上を占めていた。
しかし、2025年下半期には、多くのプレイヤーが参入し、市場シェアは著しく低下。市場は「一強」から「群雄割拠」へと移行している。V4の競争環境は、1年前よりもはるかに複雑になった。DeepSeekの「計算能力管理効率」と「性能向上」の相乗効果は、中国の大規模言語モデルと応用の発展を加速させ、世界的な競争構造も変化させている。これにより、オープンソースモデルへの関心も高まっている。
野村は、世界の主要クラウドサービス事業者が汎用人工知能を追求し続けており、資本支出の競争は依然として続いているため、V4が昨年のような規模のインパクトをもたらすことはないと予測している。
しかし、世界の大規模モデルやアプリ開発企業は、資本支出の負担が増大している。V4が高性能を維持しつつ、訓練と推論のコストを大幅に削減できれば、これらの企業は技術をより早く収益化し、収益圧力を緩和できる。
アプリケーション側では、より強力で効率的なV4により、より高度なAIインテリジェントエージェントの創出が期待される。レポートは、阿里巴巴の通义千問アプリなどが、より自動化された多段階タスクの実行を可能にしており、AIインテリジェントエージェントは「対話ツール」から複雑なタスクを処理できる「AIアシスタント」へと変貌しつつあると観察している。
これらの多タスク実行可能なインテリジェントエージェントは、より頻繁に底層の大規模モデルとインタラクションを行い、多くのトークンを消費し、計算能力の需要を押し上げる。**したがって、モデルの性能向上は「ソフトウェアを殺す」どころか、先行するソフトウェア企業にとって価値創出の機会となる。**野村は、次世代の大規模モデルの能力をいち早く活用し、破壊的なAIネイティブアプリやインテリジェントエージェントを構築できるソフトウェア企業に注目すべきだと強調している。これらの企業の成長の天井は、モデル能力の飛躍によって再び引き上げられる可能性がある。
リスク提示及び免責事項
市場にはリスクが伴い、投資は自己責任で行うべきです。本記事は個別の投資助言を意図したものではなく、特定の投資目的や財務状況、ニーズを考慮したものではありません。読者は、本文の意見や見解、結論が自身の状況に適合するかどうかを判断し、投資の責任は自己にあります。
2.63K 人気度
1.33K 人気度
544 人気度
31.43K 人気度
242.7K 人気度
DeepSeek新モデルが登場?
DeepSeekは新バージョンモデルのグレイアウトテストを推進しており、V4正式公開前の最終的なグレイアウト版とも考えられる。
2月11日、一部ユーザーがDeepSeekアプリを起動すると、更新バージョンの通知を受け取った。アプリの更新後(1.7.4)、ユーザーはDeepSeekの最新モデルを体験できる。本アップグレードにより、モデルのコンテキスト長は128Kから1Mに拡張され、約10倍に近い向上を実現。知識ベースも2025年5月まで更新され、複数のコア機能が実質的に向上した。
作者の実測によると、DeepSeekは質問応答中に「現バージョンはおそらくV4ではなく、おそらくV3シリーズの最終進化形態、またはV4正式公開前の究極のグレイアウト版である可能性が高い」と述べている。
野村證券は2月10日にレポートを発表し、**2026年2月中旬にリリース予定のDeepSeek V4モデルは、昨年のV3リリース時に引き起こされた世界的なAI計算能力需要のパニックを再現しないと予測している。**同証券は、V4の核心的価値は、基盤アーキテクチャの革新を通じてAI応用の商用化を促進することにあり、既存のAIバリューチェーンを覆すことではないと指摘している。
評価によると、**新バージョンは複雑なタスク処理能力において、Gemini 3 ProやK2.5などの主流クローズドソースモデルとほぼ同等の性能を実現している。**野村はさらに、V4はmHCとEngramの二つの革新的技術を導入し、アルゴリズムとエンジニアリングの両面から計算能力チップとメモリのボトルネックを突破すると予測している。内部の初期テストでは、V4はプログラミングタスクにおいてAnthropic ClaudeやOpenAI GPTシリーズの同世代モデルを超えるパフォーマンスを示している。
今回のリリースの重要な意義は、訓練と推論のコストをさらに圧縮し、世界中の大規模言語モデルやAIアプリケーション企業の資本支出負担を軽減するための実現可能な道筋を提供することにある。
ハードウェアのボトルネックに最適化された革新的アーキテクチャ
野村證券のレポートは、計算能力チップの性能とHBMメモリのボトルネックが、国内大規模モデル産業にとって避けられないハードルであると指摘している。間もなくリリースされるDeepSeek V4に導入されるmHC(超連結と多様体制約超連結)とEngramアーキテクチャは、訓練と推論の両面からこれらの短所をシステムレベルで最適化したものだ。
mHC技術は、訓練の安定性と収束効率を改善することで、一定の範囲で国内チップの世代間ギャップ(相互接続帯域と計算密度の差)を相殺し、Engramアーキテクチャはメモリのスケジューリングを再構築し、HBM供給の制約下でも効率的なアクセス戦略によりメモリ容量と帯域の制約を突破しようとしている。野村は、これら二つの革新は、国内ハードウェアエコシステムに適応したソリューションとして、明確なエンジニアリングの実現価値を持つと考えている。
レポートはさらに、V4のリリースによる最も直接的なビジネスインパクトは、訓練と推論のコストの実質的な低減にあると指摘している。コストの最適化は、下流のアプリケーション需要を喚起し、新たなAIインフラ構築サイクルを促進する可能性がある。この過程で、中国のAIハードウェアメーカーは、需要拡大と投資前倒しの二重の追い風を受ける見込みだ。
市場構造の変化:一強から群雄割拠へ
野村のレポートは、DeepSeek-V3/R1のリリースから1年後の市場の変化を振り返っている。2024年末には、DeepSeekの二つのモデルはOpenRouter上のオープンソースモデルのトークン使用量の半数以上を占めていた。
しかし、2025年下半期には、多くのプレイヤーが参入し、市場シェアは著しく低下。市場は「一強」から「群雄割拠」へと移行している。V4の競争環境は、1年前よりもはるかに複雑になった。DeepSeekの「計算能力管理効率」と「性能向上」の相乗効果は、中国の大規模言語モデルと応用の発展を加速させ、世界的な競争構造も変化させている。これにより、オープンソースモデルへの関心も高まっている。
ソフトウェア企業の価値向上の機会
野村は、世界の主要クラウドサービス事業者が汎用人工知能を追求し続けており、資本支出の競争は依然として続いているため、V4が昨年のような規模のインパクトをもたらすことはないと予測している。
しかし、世界の大規模モデルやアプリ開発企業は、資本支出の負担が増大している。V4が高性能を維持しつつ、訓練と推論のコストを大幅に削減できれば、これらの企業は技術をより早く収益化し、収益圧力を緩和できる。
アプリケーション側では、より強力で効率的なV4により、より高度なAIインテリジェントエージェントの創出が期待される。レポートは、阿里巴巴の通义千問アプリなどが、より自動化された多段階タスクの実行を可能にしており、AIインテリジェントエージェントは「対話ツール」から複雑なタスクを処理できる「AIアシスタント」へと変貌しつつあると観察している。
これらの多タスク実行可能なインテリジェントエージェントは、より頻繁に底層の大規模モデルとインタラクションを行い、多くのトークンを消費し、計算能力の需要を押し上げる。**したがって、モデルの性能向上は「ソフトウェアを殺す」どころか、先行するソフトウェア企業にとって価値創出の機会となる。**野村は、次世代の大規模モデルの能力をいち早く活用し、破壊的なAIネイティブアプリやインテリジェントエージェントを構築できるソフトウェア企業に注目すべきだと強調している。これらの企業の成長の天井は、モデル能力の飛躍によって再び引き上げられる可能性がある。
リスク提示及び免責事項
市場にはリスクが伴い、投資は自己責任で行うべきです。本記事は個別の投資助言を意図したものではなく、特定の投資目的や財務状況、ニーズを考慮したものではありません。読者は、本文の意見や見解、結論が自身の状況に適合するかどうかを判断し、投資の責任は自己にあります。