11 февраля компания Чжипу официально представила новое поколение флагманской модели GLM-5, ориентированной на программирование и интеллектуальные агенты, заявляя о достижении лучших результатов в области открытого исходного кода. Это очередной важный релиз после DeepSeek в рамках новогодних премьер отечественных ИИ-моделей.
Параметрический масштаб GLM-5 увеличился с предыдущих 355 миллиардов до 744 миллиардов, активных параметров стало 40 миллиардов по сравнению с 32 миллиардами ранее. Представители Чжипу подтвердили, что ранее доминировавшая на глобальной платформе моделирования OpenRouter загадочная модель «Pony Alpha» — это именно GLM-5.
Внутренние оценки показывают, что в сценариях программирования и разработки, таких как фронтенд, бэкенд и долгосрочные задачи, средняя производительность GLM-5 превышает предыдущую версию более чем на 20%, а реальный опыт программирования приближается к уровню Claude Opus 4.5. Модель уже доступна на платформе chat.z.ai. Этот релиз свидетельствует о постепенном сокращении разрыва между отечественными крупными моделями и мировыми лидерами по техническим характеристикам и возможностям, предоставляя разработчикам новые открытые решения.
Увеличение масштаба параметров и значительное расширение обучающих данных
Новая флагманская модель Чжипу GLM-5 получила ключевые обновления архитектуры. Масштаб параметров вырос с 355 миллиардов (активных 32 миллиарда) до 744 миллиардов (активных 40 миллиардов), объем предобучающих данных увеличился с 23 терабайт до 28,5 терабайт, что обусловлено более мощными вычислительными ресурсами, значительно усиливающими универсальные интеллектуальные возможности.
Модель впервые внедрила механизм разреженного внимания DeepSeek, который позволяет сохранять эффективность обработки длинных текстов при одновременном снижении затрат на развертывание и повышении эффективности использования токенов. Этот подход соответствует версиям DeepSeek-V3 и V3.2.
В архитектуре GLM-5 использовано 78 слоев скрытых нейронных сетей, интегрировано 256 экспертных модулей, активируется одновременно 8 из них, что дает около 44 миллиардов активных параметров при разреженности 5.9%, а максимальный размер окна контекста достигает 202 тысяч токенов.
Значительное улучшение программных возможностей
Новая модель GLM-5 демонстрирует выдающиеся результаты в внутренней оценке Claude Code. В сценариях фронтенд, бэкенд и долгосрочного программирования модель превосходит предыдущую GLM-4.7 в целом, с ростом средней производительности более чем на 20%.
GLM-5 способна самостоятельно выполнять сложные системные задачи, такие как долгосрочное планирование и выполнение агентных сценариев, рефакторинг кода и глубокая отладка, практически без вмешательства человека. По словам официальных представителей, ощущение при использовании в реальных условиях приближается к уровню Claude Opus 4.5.
Чжипу позиционирует GLM-5 как новейшее поколение флагманских моделей для диалогов, программирования и интеллектуальных агентов, с особым акцентом на обработку сложных системных задач и долгосрочных агентных сценариев.
Достижения в области интеллектуальных агентов и открытый исходный код
GLM-5 достигла передовых результатов в области агентных возможностей, занимая первое место среди открытых моделей по нескольким бенчмаркам. В тестах BrowseComp (поиск и понимание информации в сети), MCP-Atlas (масштабное вызов внешних инструментов) и τ2-Bench (автоматическое планирование и выполнение сложных задач в сценариях) модель показывает лучшие показатели.
Для достижения таких результатов разработан новый обучающий фреймворк «Slime», поддерживающий более крупные архитектуры и более сложные задачи с усиленным обучением с подкреплением, что значительно повышает эффективность последующего обучения.
Кроме того, Чжипу предложила асинхронный алгоритм обучения с усилением для интеллектуальных агентов, позволяющий моделям учиться на долгосрочных взаимодействиях и раскрывать глубокий потенциал предобученных моделей. Этот механизм стал одной из ключевых технологий GLM-5.
Массовые релизы отечественных ИИ-моделей в новогодний сезон
Появление GLM-5 от Чжипу стало последним штрихом в серии интенсивных релизов отечественных крупных моделей в новогодние праздники. В тот же вечер был запущен Minimax 2.5, всего через чуть более месяца после версии 2.2.
Эта волна релизов продолжает набирать обороты. Ранее DeepSeek представила новые модели, а также продукты Qwen 3.5 от Alibaba и SeeDance 2.0 от ByteDance появились на рынке недавно. Многие компании одновременно анонсируют новые модели в период праздников, что свидетельствует о все более острой конкуренции в отечественном сегменте ИИ.
Подробные технические документы по GLM-5 и Minimax 2.5 пока не опубликованы полностью, их реальные показатели требуют дальнейшей проверки со стороны сообщества разработчиков и профильных организаций.
Предупреждение о рисках и отказ от ответственности
Рынок подвержен рискам, инвестиции требуют осторожности. Настоящий материал не является индивидуальной инвестиционной рекомендацией и не учитывает особенности целей, финансового положения или потребностей конкретных пользователей. Пользователи должны самостоятельно оценить, соответствуют ли приведенные мнения, взгляды или выводы их конкретной ситуации. За последствия инвестиций ответственность несет сам пользователь.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Чжипу выпустила новое поколение флагманской модели GLM-5, с акцентом на улучшение программирования и возможностей интеллектуальных агентов
11 февраля компания Чжипу официально представила новое поколение флагманской модели GLM-5, ориентированной на программирование и интеллектуальные агенты, заявляя о достижении лучших результатов в области открытого исходного кода. Это очередной важный релиз после DeepSeek в рамках новогодних премьер отечественных ИИ-моделей.
Параметрический масштаб GLM-5 увеличился с предыдущих 355 миллиардов до 744 миллиардов, активных параметров стало 40 миллиардов по сравнению с 32 миллиардами ранее. Представители Чжипу подтвердили, что ранее доминировавшая на глобальной платформе моделирования OpenRouter загадочная модель «Pony Alpha» — это именно GLM-5.
Внутренние оценки показывают, что в сценариях программирования и разработки, таких как фронтенд, бэкенд и долгосрочные задачи, средняя производительность GLM-5 превышает предыдущую версию более чем на 20%, а реальный опыт программирования приближается к уровню Claude Opus 4.5. Модель уже доступна на платформе chat.z.ai. Этот релиз свидетельствует о постепенном сокращении разрыва между отечественными крупными моделями и мировыми лидерами по техническим характеристикам и возможностям, предоставляя разработчикам новые открытые решения.
Увеличение масштаба параметров и значительное расширение обучающих данных
Новая флагманская модель Чжипу GLM-5 получила ключевые обновления архитектуры. Масштаб параметров вырос с 355 миллиардов (активных 32 миллиарда) до 744 миллиардов (активных 40 миллиардов), объем предобучающих данных увеличился с 23 терабайт до 28,5 терабайт, что обусловлено более мощными вычислительными ресурсами, значительно усиливающими универсальные интеллектуальные возможности.
Модель впервые внедрила механизм разреженного внимания DeepSeek, который позволяет сохранять эффективность обработки длинных текстов при одновременном снижении затрат на развертывание и повышении эффективности использования токенов. Этот подход соответствует версиям DeepSeek-V3 и V3.2.
В архитектуре GLM-5 использовано 78 слоев скрытых нейронных сетей, интегрировано 256 экспертных модулей, активируется одновременно 8 из них, что дает около 44 миллиардов активных параметров при разреженности 5.9%, а максимальный размер окна контекста достигает 202 тысяч токенов.
Значительное улучшение программных возможностей
Новая модель GLM-5 демонстрирует выдающиеся результаты в внутренней оценке Claude Code. В сценариях фронтенд, бэкенд и долгосрочного программирования модель превосходит предыдущую GLM-4.7 в целом, с ростом средней производительности более чем на 20%.
GLM-5 способна самостоятельно выполнять сложные системные задачи, такие как долгосрочное планирование и выполнение агентных сценариев, рефакторинг кода и глубокая отладка, практически без вмешательства человека. По словам официальных представителей, ощущение при использовании в реальных условиях приближается к уровню Claude Opus 4.5.
Чжипу позиционирует GLM-5 как новейшее поколение флагманских моделей для диалогов, программирования и интеллектуальных агентов, с особым акцентом на обработку сложных системных задач и долгосрочных агентных сценариев.
Достижения в области интеллектуальных агентов и открытый исходный код
GLM-5 достигла передовых результатов в области агентных возможностей, занимая первое место среди открытых моделей по нескольким бенчмаркам. В тестах BrowseComp (поиск и понимание информации в сети), MCP-Atlas (масштабное вызов внешних инструментов) и τ2-Bench (автоматическое планирование и выполнение сложных задач в сценариях) модель показывает лучшие показатели.
Для достижения таких результатов разработан новый обучающий фреймворк «Slime», поддерживающий более крупные архитектуры и более сложные задачи с усиленным обучением с подкреплением, что значительно повышает эффективность последующего обучения.
Кроме того, Чжипу предложила асинхронный алгоритм обучения с усилением для интеллектуальных агентов, позволяющий моделям учиться на долгосрочных взаимодействиях и раскрывать глубокий потенциал предобученных моделей. Этот механизм стал одной из ключевых технологий GLM-5.
Массовые релизы отечественных ИИ-моделей в новогодний сезон
Появление GLM-5 от Чжипу стало последним штрихом в серии интенсивных релизов отечественных крупных моделей в новогодние праздники. В тот же вечер был запущен Minimax 2.5, всего через чуть более месяца после версии 2.2.
Эта волна релизов продолжает набирать обороты. Ранее DeepSeek представила новые модели, а также продукты Qwen 3.5 от Alibaba и SeeDance 2.0 от ByteDance появились на рынке недавно. Многие компании одновременно анонсируют новые модели в период праздников, что свидетельствует о все более острой конкуренции в отечественном сегменте ИИ.
Подробные технические документы по GLM-5 и Minimax 2.5 пока не опубликованы полностью, их реальные показатели требуют дальнейшей проверки со стороны сообщества разработчиков и профильных организаций.
Предупреждение о рисках и отказ от ответственности
Рынок подвержен рискам, инвестиции требуют осторожности. Настоящий материал не является индивидуальной инвестиционной рекомендацией и не учитывает особенности целей, финансового положения или потребностей конкретных пользователей. Пользователи должны самостоятельно оценить, соответствуют ли приведенные мнения, взгляды или выводы их конкретной ситуации. За последствия инвестиций ответственность несет сам пользователь.