11 лютого компанія Чжипу офіційно представила нову генерацію флагманської моделі GLM-5, орієнтовану на програмування та здатності агентів штучного інтелекту, яка, за офіційною інформацією, демонструє найкращі результати у відкритому доступі. Це ще одне важливе випуск після DeepSeek у рамках весняного сезону китайських великих моделей штучного інтелекту.
Параметричний масштаб GLM-5 розширився з попереднього покоління 355B до 744B, кількість активних параметрів зросла з 32B до 40B. Представники Чжипу підтвердили, що таємнича модель «Pony Alpha», яка раніше очолювала рейтинг популярності на глобальній платформі OpenRouter, є саме GLM-5.
Внутрішні оцінки показують, що GLM-5 у сценаріях програмування, таких як фронтенд, бекенд та довготривалі задачі, демонструє середню продуктивність понад 20% у порівнянні з попереднім поколінням, а реальний досвід програмування наближається до рівня Claude Opus 4.5. Модель вже доступна на платформі chat.z.ai. Цей реліз ознаменовує поступове скорочення розриву між вітчизняними великими моделями та світовими лідерами у технічних можливостях, а також надає розробникам новий відкритий вибір.
Масштаб параметрів подвоєно, значне розширення обсягу попереднього навчального набору даних
Нова флагманська модель Чжипу GLM-5 отримала ключові оновлення архітектури. Масштаб параметрів збільшився з 355B (активних 32B) до 744B (активних 40B), обсяг попередньо навчальних даних зріс з 23Т до 28.5Т, що забезпечує більш потужні обчислювальні ресурси для значного підсилення універсальних інтелектуальних можливостей.
Модель вперше застосувала механізм розрідженої уваги DeepSeek, який дозволяє зберегти ефективність обробки довгих текстів, одночасно знижуючи витрати на розгортання та підвищуючи ефективність використання токенів. Ця технологія відповідає підходам DeepSeek-V3/V3.2.
Щодо архітектурних налаштувань, GLM-5 має 78 шарів прихованих рівнів, інтегрує 256 експертних модулів, активується одночасно 8 з них, кількість активних параметрів становить приблизно 44B, розрідженість — 5.9%, максимальне вікно контексту підтримує до 202K токенів.
Значне покращення програмних можливостей
Нова генерація флагманської моделі GLM-5 показала видатні результати у внутрішній оцінці Claude Code. У сценаріях фронтенду, бекенду та довготривалих задачах модель суттєво перевищує попереднє покоління GLM-4.7, з середнім зростанням продуктивності понад 20%.
GLM-5 здатна автономно виконувати складні системні задачі, такі як довготривале планування та виконання агентських дій, рефакторинг бекенду, глибоке налагодження — з мінімальним людським втручанням. За офіційною інформацією, відчуття від реального програмування вже наближається до рівня Claude Opus 4.5.
Чжипу позиціонує GLM-5 як найновішу флагманську модель для діалогів, програмування та агентів штучного інтелекту, з особливим акцентом на здатність обробляти складні системні задачі та довготривалі сценарії.
Відкритий код для агентських можливостей досяг найкращих результатів
GLM-5 досягла найкращих у галузі результатів у відкритому доступі для агентських можливостей, посівши перше місце за кількома ключовими бенчмарками. У тестах BrowseComp (інтернет-пошук та розуміння інформації), MCP-Atlas (масштабне викликання інструментів end-to-end) та τ2-Bench (автоматичне планування та виконання складних сценаріїв агентами) модель показала найкращі результати.
Для досягнення прориву у можливостях модель побудувала нову навчальну платформу «Slime», яка підтримує масштабніші архітектури та складніші задачі з підсиленим навчанням з підкріпленням, значно підвищуючи ефективність процесу донавчання.
Крім того, Чжипу запропонувала асинхронний алгоритм підсиленого навчання агентів, що дозволяє моделям постійно навчатися з довготривалих взаємодій, ефективно розкриваючи глибокий потенціал попередньо навчених моделей. Ця механіка стала однією з ключових технологічних особливостей GLM-5.
Вихідні релізи великих моделей у китайському весняному сезоні
Випуск GLM-5 компанії Чжипу став останнім штрихом у щільній серії релізів вітчизняних AI- моделей у весняний період. В той же вечір був запущений Minimax 2.5, що з’явився менш ніж через місяць після попередньої версії 2.2.
Ця хвиля релізів продовжує набирати обертів. Раніше DeepSeek представила нову модель, а також Qwen 3.5 від Alibaba та SeeDance 2.0 від ByteDance — усі вони з’явилися у короткий термін. Багато компаній цілеспрямовано випускають нові продукти саме у весняний сезон, що свідчить про загострення конкуренції у вітчизняному сегменті великих моделей штучного інтелекту.
Детальні технічні документи щодо GLM-5 і Minimax 2.5 ще не оприлюднені повністю, тому їх реальні характеристики та продуктивність потребують подальшої перевірки з боку спільноти розробників та профільних інституцій.
Попередження про ризики та відмову від відповідальності
Ринок має ризики, інвестуйте з обережністю. Цей матеріал не є інвестиційною рекомендацією та не враховує індивідуальні цілі, фінансовий стан або потреби користувачів. Користувачі мають самостійно оцінити відповідність будь-яких думок, поглядів або висновків їхнім конкретним обставинам. За таке інвестування відповідальність несе сам.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Zhipu випустила нову генерацію флагманської моделі GLM-5, зосереджуючись на покращенні можливостей програмування та агентів
11 лютого компанія Чжипу офіційно представила нову генерацію флагманської моделі GLM-5, орієнтовану на програмування та здатності агентів штучного інтелекту, яка, за офіційною інформацією, демонструє найкращі результати у відкритому доступі. Це ще одне важливе випуск після DeepSeek у рамках весняного сезону китайських великих моделей штучного інтелекту.
Параметричний масштаб GLM-5 розширився з попереднього покоління 355B до 744B, кількість активних параметрів зросла з 32B до 40B. Представники Чжипу підтвердили, що таємнича модель «Pony Alpha», яка раніше очолювала рейтинг популярності на глобальній платформі OpenRouter, є саме GLM-5.
Внутрішні оцінки показують, що GLM-5 у сценаріях програмування, таких як фронтенд, бекенд та довготривалі задачі, демонструє середню продуктивність понад 20% у порівнянні з попереднім поколінням, а реальний досвід програмування наближається до рівня Claude Opus 4.5. Модель вже доступна на платформі chat.z.ai. Цей реліз ознаменовує поступове скорочення розриву між вітчизняними великими моделями та світовими лідерами у технічних можливостях, а також надає розробникам новий відкритий вибір.
Масштаб параметрів подвоєно, значне розширення обсягу попереднього навчального набору даних
Нова флагманська модель Чжипу GLM-5 отримала ключові оновлення архітектури. Масштаб параметрів збільшився з 355B (активних 32B) до 744B (активних 40B), обсяг попередньо навчальних даних зріс з 23Т до 28.5Т, що забезпечує більш потужні обчислювальні ресурси для значного підсилення універсальних інтелектуальних можливостей.
Модель вперше застосувала механізм розрідженої уваги DeepSeek, який дозволяє зберегти ефективність обробки довгих текстів, одночасно знижуючи витрати на розгортання та підвищуючи ефективність використання токенів. Ця технологія відповідає підходам DeepSeek-V3/V3.2.
Щодо архітектурних налаштувань, GLM-5 має 78 шарів прихованих рівнів, інтегрує 256 експертних модулів, активується одночасно 8 з них, кількість активних параметрів становить приблизно 44B, розрідженість — 5.9%, максимальне вікно контексту підтримує до 202K токенів.
Значне покращення програмних можливостей
Нова генерація флагманської моделі GLM-5 показала видатні результати у внутрішній оцінці Claude Code. У сценаріях фронтенду, бекенду та довготривалих задачах модель суттєво перевищує попереднє покоління GLM-4.7, з середнім зростанням продуктивності понад 20%.
GLM-5 здатна автономно виконувати складні системні задачі, такі як довготривале планування та виконання агентських дій, рефакторинг бекенду, глибоке налагодження — з мінімальним людським втручанням. За офіційною інформацією, відчуття від реального програмування вже наближається до рівня Claude Opus 4.5.
Чжипу позиціонує GLM-5 як найновішу флагманську модель для діалогів, програмування та агентів штучного інтелекту, з особливим акцентом на здатність обробляти складні системні задачі та довготривалі сценарії.
Відкритий код для агентських можливостей досяг найкращих результатів
GLM-5 досягла найкращих у галузі результатів у відкритому доступі для агентських можливостей, посівши перше місце за кількома ключовими бенчмарками. У тестах BrowseComp (інтернет-пошук та розуміння інформації), MCP-Atlas (масштабне викликання інструментів end-to-end) та τ2-Bench (автоматичне планування та виконання складних сценаріїв агентами) модель показала найкращі результати.
Для досягнення прориву у можливостях модель побудувала нову навчальну платформу «Slime», яка підтримує масштабніші архітектури та складніші задачі з підсиленим навчанням з підкріпленням, значно підвищуючи ефективність процесу донавчання.
Крім того, Чжипу запропонувала асинхронний алгоритм підсиленого навчання агентів, що дозволяє моделям постійно навчатися з довготривалих взаємодій, ефективно розкриваючи глибокий потенціал попередньо навчених моделей. Ця механіка стала однією з ключових технологічних особливостей GLM-5.
Вихідні релізи великих моделей у китайському весняному сезоні
Випуск GLM-5 компанії Чжипу став останнім штрихом у щільній серії релізів вітчизняних AI- моделей у весняний період. В той же вечір був запущений Minimax 2.5, що з’явився менш ніж через місяць після попередньої версії 2.2.
Ця хвиля релізів продовжує набирати обертів. Раніше DeepSeek представила нову модель, а також Qwen 3.5 від Alibaba та SeeDance 2.0 від ByteDance — усі вони з’явилися у короткий термін. Багато компаній цілеспрямовано випускають нові продукти саме у весняний сезон, що свідчить про загострення конкуренції у вітчизняному сегменті великих моделей штучного інтелекту.
Детальні технічні документи щодо GLM-5 і Minimax 2.5 ще не оприлюднені повністю, тому їх реальні характеристики та продуктивність потребують подальшої перевірки з боку спільноти розробників та профільних інституцій.
Попередження про ризики та відмову від відповідальності
Ринок має ризики, інвестуйте з обережністю. Цей матеріал не є інвестиційною рекомендацією та не враховує індивідуальні цілі, фінансовий стан або потреби користувачів. Користувачі мають самостійно оцінити відповідність будь-яких думок, поглядів або висновків їхнім конкретним обставинам. За таке інвестування відповідальність несе сам.