Odaily Planet Daily News Gradient, un laboratorio distribuido de IA, ha publicado hoy el marco de aprendizaje por refuerzo distribuido Echo-2, con el objetivo de derribar barreras para la eficiencia del entrenamiento en investigación en IA. Al implementar una desacoplación completa de los Aprendices de los Actores en la capa de arquitectura, Echo-2 hizo caer el coste post-formación de un modelo 30B de 4.500 a 425 dólares. Con el mismo presupuesto, se aporta más de diez veces el rendimiento de investigación científica.
El framework utiliza tecnología de separación memoria-cálculo para entrenamiento asíncrono (Async RL) para descargar una gran potencia de muestreo a instancias inestables de tarjetas gráficas y tarjetas gráficas heterogéneas basadas en Paralax. Con avances técnicos como la obsolescencia acotada, la planificación tolerante a fallos de instancias y el protocolo de comunicación Lattica desarrollado por uno mismo, mejora enormemente la eficiencia del entrenamiento asegurando la precisión del modelo. Junto con la versión del marco, Gradient también está a punto de lanzar la plataforma RLaaS Logits, impulsando el cambio de paradigma en la investigación en IA de “apilamiento de capital” a “iteración de eficiencia”. Logits está ahora abierto para citas (logits.dev) para estudiantes e investigadores de todo el mundo.
Se informa que Gradient es un laboratorio de IA dedicado a construir infraestructura distribuida, centrado en la formación, el servicio y el despliegue distribuidos de modelos grandes de vanguardia.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Gradient lanza el marco Echo-2 RL, mejorando la eficiencia de la investigación en IA
Odaily Planet Daily News Gradient, un laboratorio distribuido de IA, ha publicado hoy el marco de aprendizaje por refuerzo distribuido Echo-2, con el objetivo de derribar barreras para la eficiencia del entrenamiento en investigación en IA. Al implementar una desacoplación completa de los Aprendices de los Actores en la capa de arquitectura, Echo-2 hizo caer el coste post-formación de un modelo 30B de 4.500 a 425 dólares. Con el mismo presupuesto, se aporta más de diez veces el rendimiento de investigación científica.
El framework utiliza tecnología de separación memoria-cálculo para entrenamiento asíncrono (Async RL) para descargar una gran potencia de muestreo a instancias inestables de tarjetas gráficas y tarjetas gráficas heterogéneas basadas en Paralax. Con avances técnicos como la obsolescencia acotada, la planificación tolerante a fallos de instancias y el protocolo de comunicación Lattica desarrollado por uno mismo, mejora enormemente la eficiencia del entrenamiento asegurando la precisión del modelo. Junto con la versión del marco, Gradient también está a punto de lanzar la plataforma RLaaS Logits, impulsando el cambio de paradigma en la investigación en IA de “apilamiento de capital” a “iteración de eficiencia”. Logits está ahora abierto para citas (logits.dev) para estudiantes e investigadores de todo el mundo.
Se informa que Gradient es un laboratorio de IA dedicado a construir infraestructura distribuida, centrado en la formación, el servicio y el despliegue distribuidos de modelos grandes de vanguardia.