現在、コンテキストを百万レベルにまで拡張できるモデルは少なく、GoogleのGeminiシリーズやAnthropicのClaude Opus 4.6などが先行して実現しています。
DeepSeekのVシリーズモデルは、究極の総合性能を追求する基盤モデルとして位置付けられています。2024年12月にリリースされた基盤モデルV3は、DeepSeekにとって重要なマイルストーンであり、高効率のMoE(Mixture of Experts)アーキテクチャにより、強力な総合性能の基盤を確立しています。その後、DeepSeekはV3を基に迅速に改良を重ね、推論とエージェント(インテリジェントエージェント)能力を強化したV3.1をリリースし、2025年12月には最新の正式版V3.2を発表しました。また、高難度の数学や学術的な問題に特化した特別版V3.2-Specialeも登場しています。
Deepseek、智谱、MiniMaxが新製品を一斉に発表
中国のAI大規模モデルに関する重要なニュースが次々と伝えられています。
2月11日夜、智谱(Zhipu)公式は、以前グローバルモデルサービスプラットフォームOpenRouterで話題トップに立った謎のモデル「Pony Alpha」が、智谱の新モデルGLM-5であることを確認しました。現在、新モデルはchat.z.aiプラットフォームで公開されています。
2月6日、グローバルモデルサービスプラットフォームOpenRouterは、「Pony Alpha」というコードネームの匿名モデルを静かにリリースしました。高いコーディング能力、超長いコンテキストウィンドウ、インテリジェントエージェントのワークフローに対する深い最適化により、開発者コミュニティの注目を集め、海外コミュニティでの熱狂的な関心を呼びました。
OpenRouter公式は、Pony Alphaを「最先端の基盤モデル」と表現し、プログラミング、インテリジェントエージェントのワークフロー、推論、ロールプレイにおいて優れた性能を発揮するとともに、「非常に高いツール呼び出し精度」を強調しています。この特性により、AIエージェント(インテリジェントエージェント)アプリケーションにおいて顕著な優位性を示し、開発者はClaude Codeなどのツールを通じてこのモデルを呼び出し、数時間にわたる複雑なプロジェクトの開発を実現できます。
1月8日、智谱は香港証券取引所に正式に上場しました。上場当日、同社の最高科学者である清華大学計算機科学科の唐杰教授は全社員に向けて内部通達を出し、新世代の基盤モデルGLM-5の「まもなくリリースされる」ことを確認し、2026年から「基盤モデル研究に全面的に回帰」すると発表しました。また、最先端のイノベーション部門X-Labを設立し、アーキテクチャ、学習パラダイム、継続的進化の三つの方向に焦点を当てています。
さらに、DeepSeekもモデルのアップデートを行いました。報告によると、複数のユーザーからのフィードバックにより、DeepSeekはウェブ版とアプリ版の両方でバージョンアップされ、最大1M(百万)トークンのコンテキスト長をサポートしています。昨年8月にリリースされたDeepSeekV3.1は、コンテキスト長が128Kに拡張されました。
現在、コンテキストを百万レベルにまで拡張できるモデルは少なく、GoogleのGeminiシリーズやAnthropicのClaude Opus 4.6などが先行して実現しています。
DeepSeekのVシリーズモデルは、究極の総合性能を追求する基盤モデルとして位置付けられています。2024年12月にリリースされた基盤モデルV3は、DeepSeekにとって重要なマイルストーンであり、高効率のMoE(Mixture of Experts)アーキテクチャにより、強力な総合性能の基盤を確立しています。その後、DeepSeekはV3を基に迅速に改良を重ね、推論とエージェント(インテリジェントエージェント)能力を強化したV3.1をリリースし、2025年12月には最新の正式版V3.2を発表しました。また、高難度の数学や学術的な問題に特化した特別版V3.2-Specialeも登場しています。
テクノロジーメディアThe Informationは以前、DeepSeekが今年2月中旬の旧正月期間中に新世代のフラッグシップAIモデルDeepSeek V4をリリースし、より高度なコーディング能力を備えると報じました。
今年初め、DeepSeekチームは2つの論文を発表し、2つの革新的なアーキテクチャを公開しました。mHC(多様体制約超接続)は深層Transformerの情報流動を最適化し、モデルの訓練を安定させ、拡張性を向上させるもので、計算負荷を増やすことなく性能を向上させます。Engram(条件記憶モジュール)は静的知識と動的計算をデカップリングし、安価なDRAMに実体知識を保存し、高価なHBMを推論に集中させることで、長いコンテキスト推論のコストを大幅に削減します。
同日、MiniMaxからもニュースが入り、M2.5モデルが正式にリリース間近であり、現在海外のMiniMaxエージェント製品で内部テストが行われています。