Odaily Planet Daily News Gradient, un laboratoire d’IA distribuée, a publié aujourd’hui le cadre d’apprentissage par renforcement distribué Echo-2, visant à lever les obstacles à l’efficacité de la formation en recherche en IA. En implémentant un découplage complet des Apprenants des Acteurs au niveau architectural, Echo-2 a fait chuter le coût post-formation d’un modèle 30B, passant de 4 500 $ à 425 $. Avec le même budget, cela génère plus de dix fois le débit de recherche scientifique.
Le framework utilise la technologie de séparation mémoire-calcul pour l’entraînement asynchrone (Async RL) afin de transférer une puissance d’échantillonnage massive à des instances instables de cartes graphiques et à des cartes graphiques hétérogènes basées sur Parallax. Grâce à des avancées techniques telles que l’obsolescence bornée, la planification tolérante aux pannes des instances et le protocole de communication Lattica auto-développé, cela améliore considérablement l’efficacité de l’entraînement tout en assurant la précision du modèle. Parallèlement à la version du framework, Gradient s’apprête également à lancer la plateforme RLaaS Logits, qui provoquera un changement de paradigme dans la recherche en IA, passant de la « capitalisation » à la « itération de l’efficacité ». Logits est désormais ouvert aux rendez-vous (logits.dev) pour les étudiants et chercheurs du monde entier.
Il est rapporté que Gradient est un laboratoire d’IA dédié à la construction d’infrastructures distribuées, axé sur la formation, le service et le déploiement distribués de grands modèles de pointe.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Gradient publie le cadre Echo-2 RL, améliorant l'efficacité de la recherche en IA
Odaily Planet Daily News Gradient, un laboratoire d’IA distribuée, a publié aujourd’hui le cadre d’apprentissage par renforcement distribué Echo-2, visant à lever les obstacles à l’efficacité de la formation en recherche en IA. En implémentant un découplage complet des Apprenants des Acteurs au niveau architectural, Echo-2 a fait chuter le coût post-formation d’un modèle 30B, passant de 4 500 $ à 425 $. Avec le même budget, cela génère plus de dix fois le débit de recherche scientifique.
Le framework utilise la technologie de séparation mémoire-calcul pour l’entraînement asynchrone (Async RL) afin de transférer une puissance d’échantillonnage massive à des instances instables de cartes graphiques et à des cartes graphiques hétérogènes basées sur Parallax. Grâce à des avancées techniques telles que l’obsolescence bornée, la planification tolérante aux pannes des instances et le protocole de communication Lattica auto-développé, cela améliore considérablement l’efficacité de l’entraînement tout en assurant la précision du modèle. Parallèlement à la version du framework, Gradient s’apprête également à lancer la plateforme RLaaS Logits, qui provoquera un changement de paradigme dans la recherche en IA, passant de la « capitalisation » à la « itération de l’efficacité ». Logits est désormais ouvert aux rendez-vous (logits.dev) pour les étudiants et chercheurs du monde entier.
Il est rapporté que Gradient est un laboratoire d’IA dédié à la construction d’infrastructures distribuées, axé sur la formation, le service et le déploiement distribués de grands modèles de pointe.