Odaily星球日报によると、分散型AI実験室Gradientは本日、Echo-2分散強化学習フレームワークを発表しました。これはAI研究とトレーニングの効率の壁を打破することを目的としています。アーキテクチャレベルで学習者(Learner)とアクター(Actor)の徹底的な分離を実現することで、Echo-2は30Bモデルの後訓練コストを4,500ドルから425ドルに大幅に削減しました。同じ予算内で、研究のスループットは10倍以上向上しています。このフレームワークは、ストレージと計算の分離技術を用いた非同期学習(Async RL)を採用し、大量のサンプリング計算能力を不安定なGPUインスタンスやParallaxベースの異種GPUにオフロードします。界限された古さ、インスタンスのフォールトトレランススケジューリング、自社開発のLattica通信プロトコルなどの技術革新と組み合わせることで、モデルの精度を維持しつつ、トレーニング効率を大幅に向上させています。フレームワークのリリースに伴い、GradientはRLaaSプラットフォームLogitsも間もなく公開予定であり、AI研究のパラダイムを「資本積み上げ」から「効率的なイテレーション」へと移行させることを目指しています。Logitsは既に世界中の学生や研究者に向けて予約受付を開始しています(logits.dev)。なお、Gradientは分散型インフラストラクチャの構築に取り組むAI実験室であり、最先端の大規模モデルの分散訓練、サービス、展開に特化しています。
GradientはEcho-2 RLフレームワークをリリースし、AI研究の効率を向上させる
Odaily星球日报によると、分散型AI実験室Gradientは本日、Echo-2分散強化学習フレームワークを発表しました。これはAI研究とトレーニングの効率の壁を打破することを目的としています。アーキテクチャレベルで学習者(Learner)とアクター(Actor)の徹底的な分離を実現することで、Echo-2は30Bモデルの後訓練コストを4,500ドルから425ドルに大幅に削減しました。同じ予算内で、研究のスループットは10倍以上向上しています。
このフレームワークは、ストレージと計算の分離技術を用いた非同期学習(Async RL)を採用し、大量のサンプリング計算能力を不安定なGPUインスタンスやParallaxベースの異種GPUにオフロードします。界限された古さ、インスタンスのフォールトトレランススケジューリング、自社開発のLattica通信プロトコルなどの技術革新と組み合わせることで、モデルの精度を維持しつつ、トレーニング効率を大幅に向上させています。フレームワークのリリースに伴い、GradientはRLaaSプラットフォームLogitsも間もなく公開予定であり、AI研究のパラダイムを「資本積み上げ」から「効率的なイテレーション」へと移行させることを目指しています。Logitsは既に世界中の学生や研究者に向けて予約受付を開始しています(logits.dev)。
なお、Gradientは分散型インフラストラクチャの構築に取り組むAI実験室であり、最先端の大規模モデルの分散訓練、サービス、展開に特化しています。