El 11 de febrero, Zhipu lanzó oficialmente su nueva generación de modelo insignia GLM-5, enfocado en capacidades de programación e inteligencia artificial. La compañía afirma haber alcanzado el mejor rendimiento en el campo del código abierto. Este es otro lanzamiento importante en el período de Año Nuevo chino para los grandes modelos de IA nacionales, tras DeepSeek.
El tamaño del parámetro de GLM-5 se expandió de 355B en la generación anterior a 744B, y los parámetros activos aumentaron de 32B a 40B. Zhipu confirmó que el misterioso modelo “Pony Alpha”, que lideró las listas de popularidad en la plataforma global de servicios de modelos OpenRouter, es en realidad GLM-5.
Las evaluaciones internas muestran que GLM-5 supera en más del 20% a su predecesor en escenarios de programación y desarrollo, como front-end, back-end y tareas de largo alcance, acercándose al nivel de Claude Opus 4.5 en experiencia de programación real. Este modelo ya está disponible en la plataforma chat.z.ai. Este lanzamiento marca una reducción continua en la brecha técnica y de capacidades entre los modelos nacionales y los líderes internacionales, ofreciendo a los desarrolladores una nueva opción de código abierto.
Duplicación del tamaño del parámetro y expansión significativa de datos de preentrenamiento
La nueva generación de modelo insignia GLM-5 de Zhipu presenta mejoras clave en su arquitectura. El tamaño del parámetro se amplió de 355B (con 32B activos) a 744B (con 40B activos), y la cantidad de datos de preentrenamiento aumentó de 23T a 28.5T, impulsada por una mayor inversión en capacidad computacional que mejora significativamente las capacidades de inteligencia general.
Por primera vez, el modelo introduce la mecánica de atención dispersa DeepSeek, que mantiene la efectividad en el procesamiento de textos largos, reduce costos de despliegue y mejora la eficiencia en el uso de tokens. Esta estrategia técnica es coherente con DeepSeek-V3/V3.2.
En cuanto a la configuración arquitectónica, GLM-5 cuenta con 78 capas ocultas, integra 256 módulos expertos, activando 8 a la vez, con aproximadamente 44B de parámetros activos y una dispersión del 5.9%. La ventana de contexto soporta hasta 202K tokens.
Capacidades de programación significativamente mejoradas
La nueva generación GLM-5 destaca en las evaluaciones internas de Claude Code. En escenarios de programación y desarrollo, como front-end, back-end y tareas de largo alcance, supera ampliamente a GLM-4.7, con una mejora promedio superior al 20%.
GLM-5 puede realizar tareas complejas de planificación y ejecución a largo plazo, reestructuración de back-end y depuración profunda con mínima intervención humana. La compañía afirma que la experiencia en programación real se acerca al nivel de Claude Opus 4.5.
Zhipu posiciona a GLM-5 como la última generación de modelos insignia para diálogo, programación e inteligencia artificial, con énfasis en mejorar su capacidad para manejar tareas complejas de ingeniería de sistemas y agentes de largo alcance.
Capacidades de agente y rendimiento en código abierto
GLM-5 alcanza el estado del arte en capacidades de agentes en código abierto, liderando en múltiples benchmarks. En pruebas como BrowseComp (búsqueda en línea y comprensión de información), MCP-Atlas (llamadas a herramientas de extremo a extremo a gran escala) y τ2-Bench (planificación y ejecución automática en escenarios complejos), GLM-5 obtiene los mejores resultados.
Para lograr avances en capacidades, el modelo utiliza un nuevo marco de entrenamiento llamado “Slime”, que soporta arquitecturas de modelos más grandes y tareas de aprendizaje reforzado más complejas, mejorando significativamente la eficiencia del proceso de entrenamiento posterior.
Además, Zhipu ha desarrollado un algoritmo de aprendizaje reforzado de agentes asíncronos, que permite al modelo aprender continuamente de interacciones prolongadas, potenciando su potencial profundo tras el preentrenamiento. Esta mecánica se ha convertido en una de las características centrales de GLM-5.
Lanzamientos intensivos de grandes modelos nacionales en el período de Año Nuevo chino
El lanzamiento de Zhipu Qingyan GLM-5 marca la última contribución en la competencia intensificada de modelos de IA nacionales durante el período de Año Nuevo chino. Esa misma noche, Minimax lanzó Minimax 2.5, apenas un mes después de la versión 2.2.
La tendencia de lanzamientos se ha intensificado. DeepSeek ya presentó un nuevo modelo, y productos como Qwen 3.5 de Alibaba y SeeDance 2.0 de ByteDance también han sido lanzados recientemente. Varias empresas están concentrando sus nuevos desarrollos en la ventana del Año Nuevo, reflejando una competencia cada vez más feroz en el mercado de grandes modelos nacionales.
Los detalles técnicos completos de GLM-5 y Minimax 2.5 aún no se han divulgado, y su rendimiento real aún requiere validación por parte de la comunidad de desarrolladores y organizaciones especializadas.
Aviso de riesgos y exención de responsabilidad
El mercado tiene riesgos, invierta con precaución. Este artículo no constituye asesoramiento de inversión personal y no considera objetivos, situación financiera o necesidades específicas de ningún usuario. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí presentados son adecuados a su situación particular. La inversión es bajo su propio riesgo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Zhipu lanza la nueva generación de modelo insignia GLM-5, con énfasis en mejorar las capacidades de programación y agentes inteligentes
El 11 de febrero, Zhipu lanzó oficialmente su nueva generación de modelo insignia GLM-5, enfocado en capacidades de programación e inteligencia artificial. La compañía afirma haber alcanzado el mejor rendimiento en el campo del código abierto. Este es otro lanzamiento importante en el período de Año Nuevo chino para los grandes modelos de IA nacionales, tras DeepSeek.
El tamaño del parámetro de GLM-5 se expandió de 355B en la generación anterior a 744B, y los parámetros activos aumentaron de 32B a 40B. Zhipu confirmó que el misterioso modelo “Pony Alpha”, que lideró las listas de popularidad en la plataforma global de servicios de modelos OpenRouter, es en realidad GLM-5.
Las evaluaciones internas muestran que GLM-5 supera en más del 20% a su predecesor en escenarios de programación y desarrollo, como front-end, back-end y tareas de largo alcance, acercándose al nivel de Claude Opus 4.5 en experiencia de programación real. Este modelo ya está disponible en la plataforma chat.z.ai. Este lanzamiento marca una reducción continua en la brecha técnica y de capacidades entre los modelos nacionales y los líderes internacionales, ofreciendo a los desarrolladores una nueva opción de código abierto.
Duplicación del tamaño del parámetro y expansión significativa de datos de preentrenamiento
La nueva generación de modelo insignia GLM-5 de Zhipu presenta mejoras clave en su arquitectura. El tamaño del parámetro se amplió de 355B (con 32B activos) a 744B (con 40B activos), y la cantidad de datos de preentrenamiento aumentó de 23T a 28.5T, impulsada por una mayor inversión en capacidad computacional que mejora significativamente las capacidades de inteligencia general.
Por primera vez, el modelo introduce la mecánica de atención dispersa DeepSeek, que mantiene la efectividad en el procesamiento de textos largos, reduce costos de despliegue y mejora la eficiencia en el uso de tokens. Esta estrategia técnica es coherente con DeepSeek-V3/V3.2.
En cuanto a la configuración arquitectónica, GLM-5 cuenta con 78 capas ocultas, integra 256 módulos expertos, activando 8 a la vez, con aproximadamente 44B de parámetros activos y una dispersión del 5.9%. La ventana de contexto soporta hasta 202K tokens.
Capacidades de programación significativamente mejoradas
La nueva generación GLM-5 destaca en las evaluaciones internas de Claude Code. En escenarios de programación y desarrollo, como front-end, back-end y tareas de largo alcance, supera ampliamente a GLM-4.7, con una mejora promedio superior al 20%.
GLM-5 puede realizar tareas complejas de planificación y ejecución a largo plazo, reestructuración de back-end y depuración profunda con mínima intervención humana. La compañía afirma que la experiencia en programación real se acerca al nivel de Claude Opus 4.5.
Zhipu posiciona a GLM-5 como la última generación de modelos insignia para diálogo, programación e inteligencia artificial, con énfasis en mejorar su capacidad para manejar tareas complejas de ingeniería de sistemas y agentes de largo alcance.
Capacidades de agente y rendimiento en código abierto
GLM-5 alcanza el estado del arte en capacidades de agentes en código abierto, liderando en múltiples benchmarks. En pruebas como BrowseComp (búsqueda en línea y comprensión de información), MCP-Atlas (llamadas a herramientas de extremo a extremo a gran escala) y τ2-Bench (planificación y ejecución automática en escenarios complejos), GLM-5 obtiene los mejores resultados.
Para lograr avances en capacidades, el modelo utiliza un nuevo marco de entrenamiento llamado “Slime”, que soporta arquitecturas de modelos más grandes y tareas de aprendizaje reforzado más complejas, mejorando significativamente la eficiencia del proceso de entrenamiento posterior.
Además, Zhipu ha desarrollado un algoritmo de aprendizaje reforzado de agentes asíncronos, que permite al modelo aprender continuamente de interacciones prolongadas, potenciando su potencial profundo tras el preentrenamiento. Esta mecánica se ha convertido en una de las características centrales de GLM-5.
Lanzamientos intensivos de grandes modelos nacionales en el período de Año Nuevo chino
El lanzamiento de Zhipu Qingyan GLM-5 marca la última contribución en la competencia intensificada de modelos de IA nacionales durante el período de Año Nuevo chino. Esa misma noche, Minimax lanzó Minimax 2.5, apenas un mes después de la versión 2.2.
La tendencia de lanzamientos se ha intensificado. DeepSeek ya presentó un nuevo modelo, y productos como Qwen 3.5 de Alibaba y SeeDance 2.0 de ByteDance también han sido lanzados recientemente. Varias empresas están concentrando sus nuevos desarrollos en la ventana del Año Nuevo, reflejando una competencia cada vez más feroz en el mercado de grandes modelos nacionales.
Los detalles técnicos completos de GLM-5 y Minimax 2.5 aún no se han divulgado, y su rendimiento real aún requiere validación por parte de la comunidad de desarrolladores y organizaciones especializadas.
Aviso de riesgos y exención de responsabilidad
El mercado tiene riesgos, invierta con precaución. Este artículo no constituye asesoramiento de inversión personal y no considera objetivos, situación financiera o necesidades específicas de ningún usuario. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí presentados son adecuados a su situación particular. La inversión es bajo su propio riesgo.