O Odaily Planet Daily News Gradient, um laboratório distribuído de IA, lançou hoje a estrutura de aprendizagem por reforço distribuída Echo-2, com o objetivo de derrubar barreiras à eficiência do treino em investigação em IA. Ao implementar um desacoplamento completo dos Aprendizes dos Atores na camada da arquitetura, o Echo-2 fez cair drasticamente o custo pós-formação de um modelo 30B, de 4.500 para 425 dólares. Com o mesmo orçamento, gera mais de 10 vezes a capacidade de investigação científica.
O framework utiliza tecnologia de separação memória-computação para treino assíncrono (Async RL) para transferir uma enorme capacidade de processamento de amostragem para instâncias instáveis de placas gráficas e placas gráficas heterogéneas baseadas em Parallax. Com avanços técnicos como obsolescência limitada, agendamento tolerante a falhas de instâncias e protocolo de comunicação Lattica auto-desenvolvido, melhora significativamente a eficiência do treino, garantindo ao mesmo tempo a precisão do modelo. Juntamente com o lançamento do framework, a Gradient está prestes a lançar a plataforma RLaaS Logits, impulsionando a mudança de paradigma na investigação em IA do “capital stacking” para a “iteração de eficiência”. O Logits está agora aberto para marcações (logits.dev) para estudantes e investigadores em todo o mundo.
Diz-se que o Gradient é um laboratório de IA dedicado à construção de infraestruturas distribuídas, focado em treino, serviço e implementação distribuídos de grandes modelos de ponta.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Gradient lança o quadro Echo-2 RL, aumentando a eficiência da pesquisa em IA
O Odaily Planet Daily News Gradient, um laboratório distribuído de IA, lançou hoje a estrutura de aprendizagem por reforço distribuída Echo-2, com o objetivo de derrubar barreiras à eficiência do treino em investigação em IA. Ao implementar um desacoplamento completo dos Aprendizes dos Atores na camada da arquitetura, o Echo-2 fez cair drasticamente o custo pós-formação de um modelo 30B, de 4.500 para 425 dólares. Com o mesmo orçamento, gera mais de 10 vezes a capacidade de investigação científica.
O framework utiliza tecnologia de separação memória-computação para treino assíncrono (Async RL) para transferir uma enorme capacidade de processamento de amostragem para instâncias instáveis de placas gráficas e placas gráficas heterogéneas baseadas em Parallax. Com avanços técnicos como obsolescência limitada, agendamento tolerante a falhas de instâncias e protocolo de comunicação Lattica auto-desenvolvido, melhora significativamente a eficiência do treino, garantindo ao mesmo tempo a precisão do modelo. Juntamente com o lançamento do framework, a Gradient está prestes a lançar a plataforma RLaaS Logits, impulsionando a mudança de paradigma na investigação em IA do “capital stacking” para a “iteração de eficiência”. O Logits está agora aberto para marcações (logits.dev) para estudantes e investigadores em todo o mundo.
Diz-se que o Gradient é um laboratório de IA dedicado à construção de infraestruturas distribuídas, focado em treino, serviço e implementação distribuídos de grandes modelos de ponta.