Grandes notícias sobre os modelos de IA na China têm sido divulgadas sucessivamente.
Na noite de 11 de fevereiro, a Zhipu confirmou oficialmente que o misterioso modelo “Pony Alpha”, que liderou as tendências na plataforma global de serviços de modelos OpenRouter, é o novo modelo da Zhipu, o GLM-5. Atualmente, o novo modelo já está disponível na plataforma chat.z.ai.
Em 6 de fevereiro, a plataforma global de serviços de modelos OpenRouter lançou discretamente um modelo anónimo com o codinome “Pony Alpha”. Devido às suas fortes capacidades de codificação, janela de contexto ultra longa e otimizações profundas para fluxos de trabalho de agentes inteligentes, rapidamente atraiu a atenção da comunidade de desenvolvedores, aumentando rapidamente sua popularidade em comunidades internacionais.
A OpenRouter descreveu oficialmente o Pony Alpha como um “modelo de base de ponta”, com desempenho robusto em programação, fluxos de trabalho de agentes inteligentes, raciocínio e interpretação de papéis, destacando especialmente sua “altíssima precisão na chamada de ferramentas”. Essa característica confere vantagens notáveis em cenários de aplicação de AI Agent, permitindo aos desenvolvedores usar ferramentas como Claude Code para chamar o modelo e desenvolver projetos complexos por várias horas.
Em 8 de janeiro, a Zhipu foi oficialmente listada na Bolsa de Valores de Hong Kong. No dia do IPO, o principal cientista da empresa, o professor Tang Jie, da Universidade Tsinghua, enviou uma carta interna a todos os funcionários confirmando que o novo modelo de base GLM-5 “está prestes a ser lançado” e anunciou que, a partir de 2026, a “revisão completa da pesquisa em modelos de base” será retomada, além de estabelecer o departamento de inovação de ponta X-Lab, focado em arquitetura, paradigmas de aprendizagem e evolução contínua.
Além disso, a DeepSeek também atualizou seus modelos. Segundo relatos, vários usuários forneceram feedback de que a DeepSeek realizou atualizações de versão na versão web e no aplicativo, suportando uma janela de contexto de até 1 milhão de tokens. A versão DeepSeekV3.1, lançada em agosto do ano passado, expandiu a janela de contexto para 128K.
Atualmente, poucos modelos conseguem estender a janela de contexto até milhões de tokens, sendo exemplos a série Gemini do Google e o Claude Opus 4.6 da Anthropic.
A série V da DeepSeek é posicionada como um modelo de base que busca desempenho extremo e abrangente. O modelo V3, lançado em dezembro de 2024, marca um marco importante para a DeepSeek, com sua arquitetura MoE eficiente estabelecendo uma base sólida de desempenho abrangente. Posteriormente, a DeepSeek iterou rapidamente a partir do V3, lançando o V3.1, que aprimora raciocínio e capacidades de Agent, e, em dezembro de 2025, lançou a versão oficial mais recente, o V3.2. Além disso, foi lançada uma versão especial, o V3.2-Speciale, focada em resolver problemas matemáticos e acadêmicos de alta complexidade.
A mídia tecnológica The Information divulgou anteriormente que a DeepSeek lançará, durante o Ano Novo Lunar em meados de fevereiro, seu novo modelo de IA de última geração, o DeepSeek V4, que terá capacidades aprimoradas de codificação.
No início deste ano, a equipe da DeepSeek publicou dois artigos, revelando duas inovações arquitetônicas: o mHC (Superconexão com restrição de manifold), que otimiza o fluxo de informações em Transformers profundos, tornando o treinamento mais estável e escalável, melhorando o desempenho sem aumentar a carga computacional; e o Engram (módulo de memória condicional), que desacopla conhecimento estático de cálculo dinâmico, usando DRAM de baixo custo para armazenar conhecimento factual, liberando a HBM cara para foco em raciocínio, reduzindo significativamente os custos de raciocínio em janelas de contexto longas.
No mesmo dia, também surgiram notícias sobre a MiniMax, que está prestes a lançar oficialmente o modelo M2.5. Atualmente, o modelo MiniMax M2.5 já está em fase de testes internos no produto MiniMax Agent no exterior.
(Fonte: Daily Economic News)
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Deepseek, Zhipu e MiniMax anunciam novidades coletivamente
Grandes notícias sobre os modelos de IA na China têm sido divulgadas sucessivamente.
Na noite de 11 de fevereiro, a Zhipu confirmou oficialmente que o misterioso modelo “Pony Alpha”, que liderou as tendências na plataforma global de serviços de modelos OpenRouter, é o novo modelo da Zhipu, o GLM-5. Atualmente, o novo modelo já está disponível na plataforma chat.z.ai.
Em 6 de fevereiro, a plataforma global de serviços de modelos OpenRouter lançou discretamente um modelo anónimo com o codinome “Pony Alpha”. Devido às suas fortes capacidades de codificação, janela de contexto ultra longa e otimizações profundas para fluxos de trabalho de agentes inteligentes, rapidamente atraiu a atenção da comunidade de desenvolvedores, aumentando rapidamente sua popularidade em comunidades internacionais.
A OpenRouter descreveu oficialmente o Pony Alpha como um “modelo de base de ponta”, com desempenho robusto em programação, fluxos de trabalho de agentes inteligentes, raciocínio e interpretação de papéis, destacando especialmente sua “altíssima precisão na chamada de ferramentas”. Essa característica confere vantagens notáveis em cenários de aplicação de AI Agent, permitindo aos desenvolvedores usar ferramentas como Claude Code para chamar o modelo e desenvolver projetos complexos por várias horas.
Em 8 de janeiro, a Zhipu foi oficialmente listada na Bolsa de Valores de Hong Kong. No dia do IPO, o principal cientista da empresa, o professor Tang Jie, da Universidade Tsinghua, enviou uma carta interna a todos os funcionários confirmando que o novo modelo de base GLM-5 “está prestes a ser lançado” e anunciou que, a partir de 2026, a “revisão completa da pesquisa em modelos de base” será retomada, além de estabelecer o departamento de inovação de ponta X-Lab, focado em arquitetura, paradigmas de aprendizagem e evolução contínua.
Além disso, a DeepSeek também atualizou seus modelos. Segundo relatos, vários usuários forneceram feedback de que a DeepSeek realizou atualizações de versão na versão web e no aplicativo, suportando uma janela de contexto de até 1 milhão de tokens. A versão DeepSeekV3.1, lançada em agosto do ano passado, expandiu a janela de contexto para 128K.
Atualmente, poucos modelos conseguem estender a janela de contexto até milhões de tokens, sendo exemplos a série Gemini do Google e o Claude Opus 4.6 da Anthropic.
A série V da DeepSeek é posicionada como um modelo de base que busca desempenho extremo e abrangente. O modelo V3, lançado em dezembro de 2024, marca um marco importante para a DeepSeek, com sua arquitetura MoE eficiente estabelecendo uma base sólida de desempenho abrangente. Posteriormente, a DeepSeek iterou rapidamente a partir do V3, lançando o V3.1, que aprimora raciocínio e capacidades de Agent, e, em dezembro de 2025, lançou a versão oficial mais recente, o V3.2. Além disso, foi lançada uma versão especial, o V3.2-Speciale, focada em resolver problemas matemáticos e acadêmicos de alta complexidade.
A mídia tecnológica The Information divulgou anteriormente que a DeepSeek lançará, durante o Ano Novo Lunar em meados de fevereiro, seu novo modelo de IA de última geração, o DeepSeek V4, que terá capacidades aprimoradas de codificação.
No início deste ano, a equipe da DeepSeek publicou dois artigos, revelando duas inovações arquitetônicas: o mHC (Superconexão com restrição de manifold), que otimiza o fluxo de informações em Transformers profundos, tornando o treinamento mais estável e escalável, melhorando o desempenho sem aumentar a carga computacional; e o Engram (módulo de memória condicional), que desacopla conhecimento estático de cálculo dinâmico, usando DRAM de baixo custo para armazenar conhecimento factual, liberando a HBM cara para foco em raciocínio, reduzindo significativamente os custos de raciocínio em janelas de contexto longas.
No mesmo dia, também surgiram notícias sobre a MiniMax, que está prestes a lançar oficialmente o modelo M2.5. Atualmente, o modelo MiniMax M2.5 já está em fase de testes internos no produto MiniMax Agent no exterior.
(Fonte: Daily Economic News)