執筆者:ブルース最近、テクノロジー界と投資界は皆同じことに注目している:AIの応用が従来のSaaSを「殺して」いるという現象だ。@AnthropicAIのClaude Coworkが、メール作成やPPT作成、Excel分析をいとも簡単に行えることを披露して以来、「ソフトウェアは死んだ」という恐怖が広がり始めた。確かに衝撃的だが、もしここだけに目を向けていると、真の大地震を見逃すことになる。これはまるで、私たち全員が空中のドローン戦闘に目を奪われている間に、足元の大陸プレートが静かに動いていることに気づかないのと同じだ。本当の嵐は水面下に潜み、多くの人が見ていない場所で起きている:AIの世界を支える計算能力の基盤、そこに「静かな革命」が進行している。そしてこの革命は、AIの販売者である英偉達@nvidiaの盛大なパーティを、予想よりも早く終わらせるかもしれない。交差する二つの革命の道この革命は一つの出来事ではなく、見た目は独立している二つの技術路線が絡み合っている。まるで二つの軍隊が包囲網を形成し、英偉達のGPUの覇権に締め付けをかけているかのようだ。第一の道は、アルゴリズムのスリム化革命だ。超巨大な頭脳が問題を考えるとき、本当にすべての脳細胞を動員する必要があるのか?明らかに必要ない。DeepSeekはこの点を理解し、MoE(混合専門家モデル)のアーキテクチャを開発した。これを一つの会社に例えると、数百人の異なる分野の専門家を養っているようなものだ。しかし、会議で問題を解決するときは、最も関係の深い2、3人だけを呼べばよい。全員でブレインストーミングをする必要はない。これがMoEの賢さだ:巨大なモデルが、計算のたびに「専門家」の一部だけを活性化させることで、計算資源を大幅に節約できる。結果はどうなるか?DeepSeek-V2モデルは、名目上2360億の「専門家」(パラメータ)を持つが、実際に働かせるのはそのうちの210億だけで、総数の約9%未満だ。それでいて、その性能は100%全力稼働のGPT-4に匹敵する。これは何を意味するか?AIの能力と消費する計算資源が、切り離されつつあるということだ。従来、私たちはAIが強くなるほど消費するGPUも増えると考えていた。しかし今、DeepSeekは、賢いアルゴリズムを使えば、コストの十分の一で同じ効果を得られることを示している。これはまさに、英偉達のGPUの必要性に大きな疑問符を投げかける。第二の道は、ハードウェアの「道を変える」革命だ。AIの作業は、トレーニングと推論の二段階に分かれる。トレーニングは学校の勉強のようなもので、膨大な書籍を読む必要があり、そのときはGPUのような「大力出奇跡」の並列計算カードが有効だ。しかし、推論は日常的にAIを使う場面であり、反応速度が最も重要だ。GPUには推論時に本質的な欠陥がある:メモリ(HBM)が外付けで、データの往復に遅延が生じる。これは、シェフが食材を隣の部屋の冷蔵庫から取り出すようなもので、いくら速くてもその動作は遅くなる。これに対し、CerebrasやGroqといった企業は、専用の推論チップを設計し、メモリ(SRAM)をチップに直接搭載、食材を手元に置くことで「遅延ゼロ」のアクセスを実現している。市場はすでに真剣に投票している。OpenAIは、英偉達のGPU推論に不満を漏らしつつも、Cerebrasと契約し、100億ドル規模の推論サービスを借りている。英偉達も慌てて、200億ドルを投じてGroqを買収し、この新たなレースで遅れを取らないようにしている。二つの道が交わるとき:コストの崩壊さて、これら二つの事象を一緒に考えよう。アルゴリズムの「スリム化」により軽量化されたDeepSeekモデルと、ハードウェアの「遅延ゼロ」Cerebrasチップが結びついたとき、何が起きるか?それはコストの雪崩だ。まず、スリム化されたモデルは非常に小さく、チップの内蔵メモリに一度に全部収まる。次に、外部メモリのボトルネックがなくなることで、AIの反応速度は驚くほど高速になる。最終的に、MoEアーキテクチャによるトレーニングコストは90%削減され、推論コストも専用ハードとスパース計算によってさらに桁違いに低下する。計算してみると、世界クラスのAIを所有・運用する総コストは、従来のGPU方案のわずか10〜15%にまで縮小する可能性がある。これは単なる改良ではなく、パラダイムシフトだ。英偉達の王座は、静かにその絨毯を剥がされつつある。今や、なぜこれが「Cowork恐慌」よりも致命的なのか、理解できるだろう。英偉達の数兆ドルの時価総額は、「AIは未来であり、その未来は私のGPUにかかっている」という単純な物語に基づいている。しかし今、その土台が揺らぎ始めている。トレーニング市場では、英偉達が引き続き独占しても、顧客が十分の一のカードで仕事をこなせるなら、市場全体の規模は大きく縮小する可能性がある。推論市場は、訓練の十倍の規模を持つが、英偉達は絶対的な優位を持たず、GoogleやCerebrasなどの競合に囲まれている。最大の顧客であるOpenAIさえも離反しつつある。もしウォール街が、英偉達の「シャベル」がもはや唯一の選択肢ではなく、最良でもないと気づけば、従来の「永久独占」前提の評価はどうなるか?誰もがその結果を理解している。だから、今後半年で最も大きなブラックスワンは、誰かのAIアプリが誰かを倒すことではなく、MoEアルゴリズムの効率性に関する新論文や、専用推論チップの市場シェア拡大を示すレポートのような、さりげない技術ニュースかもしれない。それが静かに、計算能力戦争の新段階を告げる。「販売シャベル」のシャベルがもはや唯一の選択肢ではなくなるとき、彼らの黄金時代も終わるのかもしれない。
AIの次なる地震:本当の危険はSaaSの殺し手ではなく、計算力革命にある理由
執筆者:ブルース
最近、テクノロジー界と投資界は皆同じことに注目している:AIの応用が従来のSaaSを「殺して」いるという現象だ。@AnthropicAIのClaude Coworkが、メール作成やPPT作成、Excel分析をいとも簡単に行えることを披露して以来、「ソフトウェアは死んだ」という恐怖が広がり始めた。確かに衝撃的だが、もしここだけに目を向けていると、真の大地震を見逃すことになる。
これはまるで、私たち全員が空中のドローン戦闘に目を奪われている間に、足元の大陸プレートが静かに動いていることに気づかないのと同じだ。本当の嵐は水面下に潜み、多くの人が見ていない場所で起きている:AIの世界を支える計算能力の基盤、そこに「静かな革命」が進行している。
そしてこの革命は、AIの販売者である英偉達@nvidiaの盛大なパーティを、予想よりも早く終わらせるかもしれない。
交差する二つの革命の道
この革命は一つの出来事ではなく、見た目は独立している二つの技術路線が絡み合っている。まるで二つの軍隊が包囲網を形成し、英偉達のGPUの覇権に締め付けをかけているかのようだ。
第一の道は、アルゴリズムのスリム化革命だ。
超巨大な頭脳が問題を考えるとき、本当にすべての脳細胞を動員する必要があるのか?明らかに必要ない。DeepSeekはこの点を理解し、MoE(混合専門家モデル)のアーキテクチャを開発した。
これを一つの会社に例えると、数百人の異なる分野の専門家を養っているようなものだ。しかし、会議で問題を解決するときは、最も関係の深い2、3人だけを呼べばよい。全員でブレインストーミングをする必要はない。これがMoEの賢さだ:巨大なモデルが、計算のたびに「専門家」の一部だけを活性化させることで、計算資源を大幅に節約できる。
結果はどうなるか?DeepSeek-V2モデルは、名目上2360億の「専門家」(パラメータ)を持つが、実際に働かせるのはそのうちの210億だけで、総数の約9%未満だ。それでいて、その性能は100%全力稼働のGPT-4に匹敵する。これは何を意味するか?AIの能力と消費する計算資源が、切り離されつつあるということだ。
従来、私たちはAIが強くなるほど消費するGPUも増えると考えていた。しかし今、DeepSeekは、賢いアルゴリズムを使えば、コストの十分の一で同じ効果を得られることを示している。これはまさに、英偉達のGPUの必要性に大きな疑問符を投げかける。
第二の道は、ハードウェアの「道を変える」革命だ。
AIの作業は、トレーニングと推論の二段階に分かれる。トレーニングは学校の勉強のようなもので、膨大な書籍を読む必要があり、そのときはGPUのような「大力出奇跡」の並列計算カードが有効だ。しかし、推論は日常的にAIを使う場面であり、反応速度が最も重要だ。
GPUには推論時に本質的な欠陥がある:メモリ(HBM)が外付けで、データの往復に遅延が生じる。これは、シェフが食材を隣の部屋の冷蔵庫から取り出すようなもので、いくら速くてもその動作は遅くなる。これに対し、CerebrasやGroqといった企業は、専用の推論チップを設計し、メモリ(SRAM)をチップに直接搭載、食材を手元に置くことで「遅延ゼロ」のアクセスを実現している。
市場はすでに真剣に投票している。OpenAIは、英偉達のGPU推論に不満を漏らしつつも、Cerebrasと契約し、100億ドル規模の推論サービスを借りている。英偉達も慌てて、200億ドルを投じてGroqを買収し、この新たなレースで遅れを取らないようにしている。
二つの道が交わるとき:コストの崩壊
さて、これら二つの事象を一緒に考えよう。アルゴリズムの「スリム化」により軽量化されたDeepSeekモデルと、ハードウェアの「遅延ゼロ」Cerebrasチップが結びついたとき、何が起きるか?
それはコストの雪崩だ。
まず、スリム化されたモデルは非常に小さく、チップの内蔵メモリに一度に全部収まる。次に、外部メモリのボトルネックがなくなることで、AIの反応速度は驚くほど高速になる。最終的に、MoEアーキテクチャによるトレーニングコストは90%削減され、推論コストも専用ハードとスパース計算によってさらに桁違いに低下する。計算してみると、世界クラスのAIを所有・運用する総コストは、従来のGPU方案のわずか10〜15%にまで縮小する可能性がある。
これは単なる改良ではなく、パラダイムシフトだ。
英偉達の王座は、静かにその絨毯を剥がされつつある。
今や、なぜこれが「Cowork恐慌」よりも致命的なのか、理解できるだろう。
英偉達の数兆ドルの時価総額は、「AIは未来であり、その未来は私のGPUにかかっている」という単純な物語に基づいている。しかし今、その土台が揺らぎ始めている。
トレーニング市場では、英偉達が引き続き独占しても、顧客が十分の一のカードで仕事をこなせるなら、市場全体の規模は大きく縮小する可能性がある。
推論市場は、訓練の十倍の規模を持つが、英偉達は絶対的な優位を持たず、GoogleやCerebrasなどの競合に囲まれている。最大の顧客であるOpenAIさえも離反しつつある。
もしウォール街が、英偉達の「シャベル」がもはや唯一の選択肢ではなく、最良でもないと気づけば、従来の「永久独占」前提の評価はどうなるか?誰もがその結果を理解している。
だから、今後半年で最も大きなブラックスワンは、誰かのAIアプリが誰かを倒すことではなく、MoEアルゴリズムの効率性に関する新論文や、専用推論チップの市場シェア拡大を示すレポートのような、さりげない技術ニュースかもしれない。それが静かに、計算能力戦争の新段階を告げる。
「販売シャベル」のシャベルがもはや唯一の選択肢ではなくなるとき、彼らの黄金時代も終わるのかもしれない。