Em 11 de fevereiro, a Zhipu lançou oficialmente o novo modelo de flagship de última geração, o GLM-5, com foco em programação e capacidades de agentes inteligentes, sendo considerado pela equipa como o desempenho mais avançado no domínio de código aberto. Este é mais um lançamento importante na temporada do Ano Novo Chinês para grandes modelos de IA nacionais, após o DeepSeek.
O tamanho do parâmetro do GLM-5 foi expandido de 355B na geração anterior para 744B, com os parâmetros ativos a subir de 32B para 40B. A Zhipu confirmou que o misterioso modelo “Pony Alpha”, que liderou as tabelas de popularidade na plataforma global de serviços de modelos OpenRouter, é o próprio GLM-5.
Avaliações internas indicam que o GLM-5 apresenta uma melhoria superior a 20% no desempenho médio em cenários de programação e desenvolvimento, incluindo front-end, back-end e tarefas de longo prazo, aproximando-se da experiência de programação real ao nível do Claude Opus 4.5. Este modelo já está disponível na plataforma chat.z.ai. Este lançamento marca uma contínua redução da disparidade entre os grandes modelos nacionais e os níveis de liderança internacional em termos de tecnologia e desempenho, oferecendo aos desenvolvedores uma nova opção de código aberto.
Duplicação do tamanho do parâmetro e expansão significativa dos dados de pré-treinamento
A nova geração de flagship da Zhipu, o GLM-5, implementou melhorias essenciais na arquitetura do modelo. O tamanho do parâmetro foi expandido de 355B (com 32B ativos) para 744B (com 40B ativos), e a quantidade de dados de pré-treinamento aumentou de 23T para 28,5T, impulsionada por um investimento de computação de maior escala que reforça significativamente as capacidades de inteligência geral.
Este modelo introduziu pela primeira vez a mecânica de atenção esparsa DeepSeek, que, mantendo a eficácia no processamento de textos longos, reduz efetivamente os custos de implantação e melhora a eficiência do uso de tokens. Esta abordagem técnica mantém-se alinhada com DeepSeek-V3/V3.2.
Em termos de configuração arquitetónica, o GLM-5 possui 78 camadas ocultas, integra 256 módulos especializados, ativando 8 de cada vez, com aproximadamente 44B de parâmetros ativos, uma esparsidade de 5,9%, e uma janela de contexto que suporta até 202K tokens.
Capacidades de programação significativamente aprimoradas
O novo modelo de flagship, o GLM-5, destacou-se na avaliação interna Claude Code. Em cenários de programação de front-end, back-end e tarefas de longo prazo, o modelo superou de forma abrangente a geração anterior, o GLM-4.7, com uma melhoria média superior a 20%.
O GLM-5 consegue realizar tarefas complexas de planejamento e execução de agentes de longo prazo, reestruturação de back-end e depuração profunda com intervenção humana mínima. A equipa oficial afirma que, no ambiente de programação real, a experiência de uso aproxima-se do nível do Claude Opus 4.5.
A Zhipu posiciona o GLM-5 como a mais recente geração de modelos de diálogo, programação e agentes inteligentes de topo, com ênfase na sua capacidade de lidar com sistemas complexos e tarefas de agentes de longo prazo.
Capacidades de agentes inteligentes atingem desempenho de ponta em código aberto
O GLM-5 alcançou o estado da arte (SOTA) em capacidades de agentes no código aberto, liderando várias métricas de avaliação. Nos testes BrowseComp (recuperação de informações e compreensão via internet), MCP-Atlas (chamadas de ferramentas de ponta a ponta em grande escala) e τ2-Bench (planeamento e execução automática de ferramentas em cenários complexos), o GLM-5 obteve os melhores resultados.
Para alcançar avanços nesta área, o modelo foi construído com uma nova estrutura de treino chamada “Slime”, que suporta arquiteturas de modelos maiores e tarefas de aprendizagem reforçada mais complexas, aumentando significativamente a eficiência do processo de treino pós-reforço.
Além disso, a Zhipu propôs um algoritmo de aprendizagem por reforço assíncrona para agentes inteligentes, permitindo que o modelo aprenda continuamente a partir de interações de longo prazo, estimulando o potencial profundo do pré-treinamento. Este mecanismo tornou-se uma das principais características tecnológicas do GLM-5.
Lançamentos intensivos de grandes modelos nacionais na temporada do Ano Novo Chinês
O lançamento do GLM-5 pela Zhipu marcou a mais recente entrada na competição acirrada de grandes modelos de IA nacionais durante a temporada do Ano Novo Chinês. Na mesma noite, a Minimax lançou o Minimax 2.5, apenas um pouco mais de um mês após a versão anterior, 2.2.
Esta onda de lançamentos continua a aquecer. O DeepSeek já apresentou um novo modelo, enquanto produtos como o Qwen 3.5 da Alibaba e o SeeDance 2.0 da ByteDance também foram lançados recentemente. Vários fabricantes estão concentrando seus lançamentos nesta janela do Ano Novo, refletindo uma fase de competição cada vez mais intensa no setor de grandes modelos nacionais.
Os detalhes técnicos completos do GLM-5 e do Minimax 2.5 ainda não foram totalmente divulgados, e o desempenho real ainda aguarda validação por parte da comunidade de desenvolvedores e de instituições especializadas.
Aviso de risco e isenção de responsabilidade
O mercado apresenta riscos, e os investimentos devem ser feitos com cautela. Este artigo não constitui aconselhamento de investimento pessoal, nem leva em consideração objetivos, situação financeira ou necessidades específicas de qualquer utilizador. Os utilizadores devem avaliar se as opiniões, pontos de vista ou conclusões aqui apresentadas são compatíveis com a sua situação particular. Investir com base nesta informação é de responsabilidade do próprio.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Zhipu lança a nova geração de modelo flagship GLM-5, com foco na melhoria das capacidades de programação e agentes inteligentes
Em 11 de fevereiro, a Zhipu lançou oficialmente o novo modelo de flagship de última geração, o GLM-5, com foco em programação e capacidades de agentes inteligentes, sendo considerado pela equipa como o desempenho mais avançado no domínio de código aberto. Este é mais um lançamento importante na temporada do Ano Novo Chinês para grandes modelos de IA nacionais, após o DeepSeek.
O tamanho do parâmetro do GLM-5 foi expandido de 355B na geração anterior para 744B, com os parâmetros ativos a subir de 32B para 40B. A Zhipu confirmou que o misterioso modelo “Pony Alpha”, que liderou as tabelas de popularidade na plataforma global de serviços de modelos OpenRouter, é o próprio GLM-5.
Avaliações internas indicam que o GLM-5 apresenta uma melhoria superior a 20% no desempenho médio em cenários de programação e desenvolvimento, incluindo front-end, back-end e tarefas de longo prazo, aproximando-se da experiência de programação real ao nível do Claude Opus 4.5. Este modelo já está disponível na plataforma chat.z.ai. Este lançamento marca uma contínua redução da disparidade entre os grandes modelos nacionais e os níveis de liderança internacional em termos de tecnologia e desempenho, oferecendo aos desenvolvedores uma nova opção de código aberto.
Duplicação do tamanho do parâmetro e expansão significativa dos dados de pré-treinamento
A nova geração de flagship da Zhipu, o GLM-5, implementou melhorias essenciais na arquitetura do modelo. O tamanho do parâmetro foi expandido de 355B (com 32B ativos) para 744B (com 40B ativos), e a quantidade de dados de pré-treinamento aumentou de 23T para 28,5T, impulsionada por um investimento de computação de maior escala que reforça significativamente as capacidades de inteligência geral.
Este modelo introduziu pela primeira vez a mecânica de atenção esparsa DeepSeek, que, mantendo a eficácia no processamento de textos longos, reduz efetivamente os custos de implantação e melhora a eficiência do uso de tokens. Esta abordagem técnica mantém-se alinhada com DeepSeek-V3/V3.2.
Em termos de configuração arquitetónica, o GLM-5 possui 78 camadas ocultas, integra 256 módulos especializados, ativando 8 de cada vez, com aproximadamente 44B de parâmetros ativos, uma esparsidade de 5,9%, e uma janela de contexto que suporta até 202K tokens.
Capacidades de programação significativamente aprimoradas
O novo modelo de flagship, o GLM-5, destacou-se na avaliação interna Claude Code. Em cenários de programação de front-end, back-end e tarefas de longo prazo, o modelo superou de forma abrangente a geração anterior, o GLM-4.7, com uma melhoria média superior a 20%.
O GLM-5 consegue realizar tarefas complexas de planejamento e execução de agentes de longo prazo, reestruturação de back-end e depuração profunda com intervenção humana mínima. A equipa oficial afirma que, no ambiente de programação real, a experiência de uso aproxima-se do nível do Claude Opus 4.5.
A Zhipu posiciona o GLM-5 como a mais recente geração de modelos de diálogo, programação e agentes inteligentes de topo, com ênfase na sua capacidade de lidar com sistemas complexos e tarefas de agentes de longo prazo.
Capacidades de agentes inteligentes atingem desempenho de ponta em código aberto
O GLM-5 alcançou o estado da arte (SOTA) em capacidades de agentes no código aberto, liderando várias métricas de avaliação. Nos testes BrowseComp (recuperação de informações e compreensão via internet), MCP-Atlas (chamadas de ferramentas de ponta a ponta em grande escala) e τ2-Bench (planeamento e execução automática de ferramentas em cenários complexos), o GLM-5 obteve os melhores resultados.
Para alcançar avanços nesta área, o modelo foi construído com uma nova estrutura de treino chamada “Slime”, que suporta arquiteturas de modelos maiores e tarefas de aprendizagem reforçada mais complexas, aumentando significativamente a eficiência do processo de treino pós-reforço.
Além disso, a Zhipu propôs um algoritmo de aprendizagem por reforço assíncrona para agentes inteligentes, permitindo que o modelo aprenda continuamente a partir de interações de longo prazo, estimulando o potencial profundo do pré-treinamento. Este mecanismo tornou-se uma das principais características tecnológicas do GLM-5.
Lançamentos intensivos de grandes modelos nacionais na temporada do Ano Novo Chinês
O lançamento do GLM-5 pela Zhipu marcou a mais recente entrada na competição acirrada de grandes modelos de IA nacionais durante a temporada do Ano Novo Chinês. Na mesma noite, a Minimax lançou o Minimax 2.5, apenas um pouco mais de um mês após a versão anterior, 2.2.
Esta onda de lançamentos continua a aquecer. O DeepSeek já apresentou um novo modelo, enquanto produtos como o Qwen 3.5 da Alibaba e o SeeDance 2.0 da ByteDance também foram lançados recentemente. Vários fabricantes estão concentrando seus lançamentos nesta janela do Ano Novo, refletindo uma fase de competição cada vez mais intensa no setor de grandes modelos nacionais.
Os detalhes técnicos completos do GLM-5 e do Minimax 2.5 ainda não foram totalmente divulgados, e o desempenho real ainda aguarda validação por parte da comunidade de desenvolvedores e de instituições especializadas.
Aviso de risco e isenção de responsabilidade
O mercado apresenta riscos, e os investimentos devem ser feitos com cautela. Este artigo não constitui aconselhamento de investimento pessoal, nem leva em consideração objetivos, situação financeira ou necessidades específicas de qualquer utilizador. Os utilizadores devem avaliar se as opiniões, pontos de vista ou conclusões aqui apresentadas são compatíveis com a sua situação particular. Investir com base nesta informação é de responsabilidade do próprio.