Zhipu a publié la nouvelle génération de modèle phare GLM-5, mettant l'accent sur l'amélioration des capacités de programmation et d'agents intelligents

robot
Création du résumé en cours

11 février, Zhipu a officiellement lancé la nouvelle génération de modèle phare GLM-5, axé sur la programmation et les capacités d’agents intelligents, déclarant avoir atteint la meilleure performance dans le domaine de l’open source. Il s’agit d’une nouvelle étape importante dans la sortie de modèles d’IA nationaux pour la période du Nouvel An chinois, après DeepSeek.

La taille du paramètre de GLM-5 est passée de 355 milliards à 744 milliards, avec une activation de paramètres passant de 32 milliards à 40 milliards. Zhipu a confirmé que le mystérieux modèle « Pony Alpha », qui a dominé le classement de popularité sur la plateforme mondiale de services de modèles OpenRouter, est en réalité GLM-5.

Les évaluations internes montrent que GLM-5 améliore en moyenne de plus de 20 % ses performances par rapport à la génération précédente dans des scénarios de programmation tels que le front-end, le back-end et les tâches longues, avec une expérience de programmation réelle proche du niveau Claude Opus 4.5. Ce modèle est désormais disponible sur la plateforme chat.z.ai. Cette sortie marque une réduction continue de l’écart entre les modèles d’IA nationaux et les standards internationaux en termes de technologie et de capacités, offrant aux développeurs une nouvelle option open source.

Doublement de la taille des paramètres et expansion significative des données de pré-entraînement

La nouvelle génération de modèle phare de Zhipu, GLM-5, a réalisé une mise à niveau clé au niveau de l’architecture. La taille du paramètre est passée de 355 milliards (activation de 32 milliards) à 744 milliards (activation de 40 milliards), et la quantité de données de pré-entraînement est passée de 23 téraoctets à 28,5 téraoctets, avec un investissement en puissance de calcul plus important qui renforce considérablement les capacités d’intelligence générale.

Ce modèle introduit pour la première fois la mécanisme d’attention sparse DeepSeek, qui, tout en maintenant la qualité du traitement de textes longs, réduit efficacement les coûts de déploiement et améliore l’efficacité de l’utilisation des tokens. Cette approche technologique est alignée avec DeepSeek-V3/V3.2.

Concernant la configuration architecturale, GLM-5 comporte 78 couches cachées, intègre 256 modules experts, en active 8 à la fois, avec environ 44 milliards de paramètres activés, un taux de sparsité de 5,9 %, et une fenêtre de contexte supportant jusqu’à 202 000 tokens.

Capacités de programmation fortement améliorées

La nouvelle génération de modèle phare GLM-5 affiche des performances remarquables dans l’évaluation interne Claude Code. Dans les scénarios de programmation tels que le front-end, le back-end et les tâches longues, il dépasse largement la génération précédente GLM-4.7, avec une amélioration moyenne de plus de 20 %.

GLM-5 peut réaliser de manière autonome, avec peu d’intervention humaine, la planification et l’exécution à long terme d’agents, la reconstruction back-end, le débogage approfondi et d’autres tâches complexes de systèmes. Selon l’équipe officielle, l’expérience de programmation réelle s’approche désormais du niveau Claude Opus 4.5.

Zhipu positionne GLM-5 comme la dernière génération de modèles de dialogue, de programmation et d’agents intelligents, en mettant l’accent sur le renforcement de ses capacités dans les tâches complexes de systèmes et les missions longues d’agents.

Capacités d’agents intelligents atteignant une performance open source optimale

GLM-5 atteint le sommet de l’état de l’art (SOTA) en capacités d’agents, se classant en tête parmi les modèles open source selon plusieurs benchmarks. Dans les tests BrowseComp (recherche en ligne et compréhension d’informations), MCP-Atlas (appel d’outils de bout en bout à grande échelle) et τ2-Bench (planification et exécution d’outils d’agents automatiques dans des scénarios complexes), GLM-5 a obtenu les meilleures performances.

Pour réaliser cette avancée, le modèle a été construit avec un tout nouveau cadre d’entraînement « Slime », supportant des architectures de modèles plus grandes et des tâches d’apprentissage par renforcement plus complexes, améliorant significativement l’efficacité du processus de formation post-entraînement.

De plus, Zhipu a proposé un algorithme d’apprentissage par renforcement d’agents asynchrones, permettant au modèle d’apprendre en continu à partir d’interactions longues, exploitant pleinement le potentiel profond du pré-entraînement. Ce mécanisme est devenu l’une des caractéristiques technologiques clés de GLM-5.

Sortie intensive de modèles nationaux lors du Nouvel An chinois

Le lancement de Zhipu Qingyan GLM-5 marque la dernière étape d’une série de sorties intensives de modèles d’IA nationaux durant la période du Nouvel An chinois. Le même soir, Minimax a également lancé Minimax 2.5, seulement un peu plus d’un mois après la version précédente 2.2.

Cette vague de lancements s’intensifie. DeepSeek a déjà présenté un nouveau modèle, Alibaba Qianwen Qwen 3.5, ByteDance SeeDance 2.0 et d’autres produits ont également été récemment dévoilés. Plusieurs entreprises choisissent délibérément de lancer leurs nouveautés durant cette période, illustrant une compétition de plus en plus féroce dans le domaine des grands modèles d’IA nationaux.

Les documents techniques détaillés de GLM-5 et Minimax 2.5 ne sont pas encore entièrement divulgués, et leurs performances réelles restent à confirmer par la communauté des développeurs et des institutions spécialisées.

Avertissements et clauses de non-responsabilité

Le marché comporte des risques, l’investissement doit être prudent. Cet article ne constitue pas un conseil d’investissement personnel et ne prend pas en compte les objectifs, la situation financière ou les besoins spécifiques de chaque utilisateur. Les utilisateurs doivent juger si les opinions, points de vue ou conclusions présentés ici sont adaptés à leur situation particulière. En investissant sur cette base, la responsabilité leur incombe.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)