Deepseek, Zhipu, MiniMax annoncent collectivement leur nouvelle version

robot
Création du résumé en cours

Les nouvelles importantes concernant les grands modèles d’IA chinois se succèdent.

Le 11 février au soir, l’équipe officielle de Zhipu a confirmé que le mystérieux modèle « Pony Alpha », qui occupait la première place du classement de popularité sur la plateforme mondiale de services de modèles OpenRouter, était en réalité le nouveau modèle de Zhipu, GLM-5. Actuellement, le nouveau modèle est en ligne sur la plateforme chat.z.ai.

Le 6 février, la plateforme mondiale de services de modèles OpenRouter a discrètement lancé un modèle anonyme nommé « Pony Alpha ». En raison de ses capacités de codage avancées, de sa fenêtre de contexte ultra-longue et de ses optimisations approfondies pour les flux de travail des agents intelligents, il a rapidement attiré l’attention de la communauté des développeurs, avec une popularité en forte hausse dans les communautés étrangères.

OpenRouter décrit officiellement Pony Alpha comme un « modèle de base de pointe », performant dans la programmation, les flux de travail des agents intelligents, le raisonnement et le jeu de rôles, en insistant particulièrement sur sa « précision extrêmement élevée dans l’appel aux outils ». Cette caractéristique lui confère un avantage notable dans les scénarios d’application des agents IA, permettant aux développeurs d’utiliser des outils comme Claude Code pour exploiter ce modèle et réaliser des projets complexes sur plusieurs heures.

Le 8 janvier, Zhipu a officiellement été introduit en bourse à Hong Kong. Lors de la première journée de cotation, le chef scientifique de l’entreprise, le professeur Tang Jie de l’Université Tsinghua, a envoyé une lettre interne à tous les employés pour confirmer que la nouvelle génération de modèle de base GLM-5 « sera bientôt lancée », et a annoncé qu’à partir de 2026, l’entreprise « reviendrait entièrement à la recherche sur les modèles fondamentaux ». Par ailleurs, un département d’innovation de pointe, X-Lab, a été créé, se concentrant sur l’architecture, les paradigmes d’apprentissage et l’évolution continue.

De plus, DeepSeek a également mis à jour ses modèles. Selon des rapports, plusieurs utilisateurs ont signalé que DeepSeek a effectué une mise à jour sur la version web et l’application, supportant désormais une longueur de contexte maximale de 1 million de tokens. La version DeepSeekV3.1, sortie en août dernier, avait déjà étendu cette capacité à 128K.

Actuellement, peu de modèles peuvent pousser la longueur de contexte jusqu’au million, parmi lesquels la série Gemini de Google et Claude Opus 4.6 d’Anthropic ont déjà atteint cet objectif.

La série V de DeepSeek vise à offrir des performances globales extrêmes en tant que modèle de base. Le modèle V3, lancé en décembre 2024, constitue une étape importante pour DeepSeek, avec une architecture MoE efficace qui établit une base solide pour des performances puissantes. Par la suite, DeepSeek a rapidement itéré sur V3, lançant V3.1 avec des capacités renforcées de raisonnement et d’agents, puis en décembre 2025, la version officielle V3.2. Un version spéciale, V3.2-Speciale, a également été introduite, se concentrant sur la résolution de problèmes mathématiques et académiques complexes.

Les médias technologiques, comme The Information, ont rapporté que DeepSeek prévoit de lancer au cours de la deuxième moitié de février, durant le Nouvel An chinois, une nouvelle génération de modèle phare, DeepSeek V4, doté de capacités accrues en codage.

Au début de cette année, l’équipe de DeepSeek a publié deux articles, dévoilant deux innovations architecturales : mHC (Hyper-Connection with Manifold Constraints), conçue pour optimiser le flux d’informations dans les transformers profonds, rendant la formation plus stable et évolutive sans augmenter la charge de calcul ; et Engram (Module de mémoire conditionnelle), qui découple la connaissance statique du calcul dynamique, utilisant une mémoire DRAM peu coûteuse pour stocker la connaissance concrète, libérant ainsi la HBM coûteuse pour le raisonnement, réduisant considérablement le coût du raisonnement sur de longues séquences.

Le même jour, des nouvelles sont également parvenues concernant MiniMax : le modèle M2.5 sera bientôt lancé officiellement. Actuellement, le modèle MiniMax M2.5 est en phase de test interne sur le produit MiniMax Agent à l’étranger.

(Source : Daily Economic News)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)