DeepSeek, le nouveau modèle arrive-t-il ?

robot
Création du résumé en cours

DeepSeek avance actuellement dans la phase de test en condition réelle de sa nouvelle version du modèle, ou s’agit-il de la version ultime en phase de pré-lancement de V4 ?

Le 11 février, certains utilisateurs ont reçu une notification de mise à jour après avoir ouvert l’application DeepSeek. Après la mise à jour (1.7.4), les utilisateurs peuvent expérimenter le tout dernier modèle de DeepSeek. Avec cette mise à jour, la longueur du contexte du modèle passera de 128K à 1M, soit une augmentation proche de dix fois ; la base de connaissances sera actualisée jusqu’en mai 2025, et plusieurs capacités clés seront substantiellement améliorées.

Les tests effectués par l’auteur ont révélé que, dans ses réponses, DeepSeek indique que la version actuelle n’est probablement pas V4, mais très probablement la dernière évolution de la série V3, ou la version ultime en phase de pré-lancement de V4.

Nomura Securities a publié un rapport le 10 février, indiquant que le modèle DeepSeek V4 prévu pour mi-février 2026 ne reproduira pas la panique mondiale de la demande en puissance de calcul IA déclenchée lors du lancement de V3 l’année dernière. La société estime que la valeur centrale de V4 réside dans la promotion de la commercialisation des applications IA via une innovation dans l’architecture sous-jacente, plutôt que dans une disruption de la chaîne de valeur IA existante.

Selon les évaluations, la nouvelle version a déjà aligné ses capacités de traitement de tâches complexes avec celles de modèles propriétaires populaires tels que Gemini 3 Pro et K2.5. Nomura souligne en outre que V4 devrait introduire deux innovations technologiques, mHC et Engram, qui briseront les goulots d’étranglement en termes de puissance de calcul et de mémoire au niveau des algorithmes et de l’ingénierie. Les premiers tests internes montrent que V4 dépasse déjà les modèles contemporains tels qu’Anthropic Claude et la série GPT d’OpenAI dans les tâches de programmation.

L’enjeu clé de cette sortie est de réduire davantage les coûts d’entraînement et d’inférence, offrant ainsi une voie viable pour soulager la pression sur les investissements en capital des entreprises du secteur des grands modèles linguistiques et de l’IA à l’échelle mondiale.

Architecture innovante optimisée pour le matériel

Le rapport de Nomura souligne que la performance des puces de puissance de calcul et le goulot d’étranglement de la mémoire HBM restent des contraintes majeures pour l’industrie des grands modèles domestiques. Les innovations introduites par DeepSeek V4, notamment mHC (superconnexion à contrainte de manifold) et l’architecture Engram, sont des optimisations systémiques à la fois pour l’entraînement et l’inférence, ciblant ces limitations.

mHC :

  • Signifie « superconnexion à contrainte de manifold ». Son objectif est de résoudre le problème du goulot d’étranglement de la circulation de l’information et de l’instabilité lors de l’entraînement de modèles Transformer très profonds.

  • En termes simples, il enrichit et flexibilise le « dialogue » entre les couches du réseau neuronal, tout en utilisant des « barrières » mathématiques strictes pour empêcher la suramplification ou la dégradation de l’information. Les tests montrent que les modèles utilisant mHC excellent dans des tâches de raisonnement mathématique.

Engram :

  • Un module de « mémoire conditionnelle ». Son concept est de découpler « mémoire » et « calcul ».

  • La connaissance statique dans le modèle (par exemple, entités, expressions fixes) est stockée dans une mémoire sparse, qui peut être placée dans une DRAM peu coûteuse. Lorsqu’une inférence est nécessaire, la recherche est rapide. Cela libère la mémoire GPU coûteuse (HBM), permettant de se concentrer sur le calcul dynamique.

Les technologies mHC, en améliorant la stabilité de l’entraînement et l’efficacité de la convergence, atténuent dans une certaine mesure l’écart générationnel en termes de bande passante interconnectée et de densité de calcul des puces domestiques ; tandis que l’architecture Engram vise à reconstruire la gestion de la mémoire, en utilisant des stratégies d’accès plus efficaces pour dépasser les limites de capacité et de bande passante de la mémoire vidéo dans un contexte de pénurie de HBM. Nomura considère que ces deux innovations constituent ensemble une solution d’adaptation à l’écosystème matériel domestique, avec une valeur concrète en ingénierie.

Le rapport indique également que l’impact commercial immédiat de la sortie de V4 sera une réduction substantielle des coûts d’entraînement et d’inférence. Cette optimisation des coûts stimulera la demande en applications en aval, entraînant un nouveau cycle de développement des infrastructures IA. Dans ce contexte, les fabricants chinois de matériel IA pourraient bénéficier d’un double effet : augmentation de la demande et anticipation des investissements.

Une mutation du marché d’un « monopole » à une « compétition entre plusieurs acteurs »

Le rapport de Nomura revient sur l’évolution du marché un an après le lancement de DeepSeek V3/R1. Fin 2024, deux modèles DeepSeek représentaient plus de la moitié de l’utilisation des tokens des modèles open source sur OpenRouter.

Mais au second semestre 2025, avec l’arrivée de plus d’acteurs, leur part de marché a considérablement diminué. Le marché est passé d’un « monopole » à une « compétition entre plusieurs acteurs ». La concurrence autour de V4 est bien plus complexe qu’il y a un an. La gestion de la puissance de calcul de DeepSeek, combinée à ses améliorations de performance, a accéléré le développement des grands modèles et applications en Chine, tout en modifiant la configuration concurrentielle mondiale et en renforçant l’intérêt pour les modèles open source.

Les entreprises de logiciels voient une opportunité de valorisation

Nomura estime que les principaux fournisseurs mondiaux de services cloud poursuivent activement la course à l’intelligence artificielle générale, et la compétition en investissements ne faiblit pas, ce qui signifie que V4 ne provoquera pas un choc de la même ampleur que l’année dernière dans le marché des infrastructures IA.

Mais les développeurs de grands modèles et d’applications à l’échelle mondiale supportent un fardeau croissant en termes de coûts de capital. Si V4 peut maintenir ses hautes performances tout en réduisant significativement les coûts d’entraînement et d’inférence, cela aidera ces entreprises à convertir plus rapidement la technologie en revenus, atténuant ainsi la pression sur leur rentabilité.

Du côté des applications, un V4 plus puissant et plus efficace favorisera la création d’agents IA plus intelligents. Le rapport note que des applications comme l’App « Qianwen » d’Alibaba peuvent déjà exécuter des tâches multi-étapes de façon plus automatisée, et que les agents IA évoluent d’outils de dialogue à assistants capables de gérer des tâches complexes.

Ces agents multi-tâches, nécessitant des interactions plus fréquentes avec le modèle de base, consommeront davantage de tokens, augmentant ainsi la demande en puissance de calcul. Par conséquent, l’amélioration des performances du modèle ne tuera pas le logiciel, mais créera plutôt de la valeur pour les entreprises leaders. Nomura insiste sur l’importance de suivre les entreprises capables d’exploiter en premier les capacités de la nouvelle génération de grands modèles pour créer des applications ou agents IA disruptifs. Leur potentiel de croissance pourrait être encore renforcé par cette avancée des capacités du modèle.

Avertissements et clauses de non-responsabilité

Le marché comporte des risques, l’investissement doit être prudent. Cet article ne constitue pas un conseil en investissement personnel et ne prend pas en compte les objectifs, la situation financière ou les besoins spécifiques de chaque utilisateur. Les utilisateurs doivent juger si les opinions, points de vue ou conclusions présentés ici sont adaptés à leur situation particulière. En investissant sur cette base, ils en assument la responsabilité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)