DeepSeek está avanzando en las pruebas en modo gris de su nuevo modelo, o quizás en la versión gris definitiva antes del lanzamiento oficial de V4.
El 11 de febrero, algunos usuarios que abrieron la aplicación DeepSeek recibieron una notificación de actualización. Tras actualizar la APP (1.7.4), los usuarios pueden experimentar el modelo más reciente de DeepSeek. Con esta actualización, la longitud del contexto del modelo se ampliará de 128K a 1M, casi un aumento de diez veces; la base de conocimientos se actualizó hasta mayo de 2025, y varias capacidades clave han mejorado sustancialmente.
Los autores realizaron pruebas y descubrieron que, en las respuestas, DeepSeek probablemente no sea la versión V4 actual, sino que muy probablemente sea la forma final evolutiva de la serie V3, o la versión gris definitiva antes del lanzamiento oficial de V4.
Nomura Securities publicó un informe el 10 de febrero que afirma que, se espera que el modelo DeepSeek V4, que se lanzará a mediados de febrero de 2026, no vuelva a generar la misma demanda global de potencia de IA que provocó el año pasado con el lanzamiento de V3. La firma considera que, el valor central de V4 radica en impulsar la comercialización de aplicaciones de IA mediante innovaciones en la arquitectura subyacente, en lugar de revolucionar la cadena de valor de la IA existente.
Según evaluaciones, la nueva versión ya iguala en capacidad de manejo de tareas complejas a modelos principales cerrados como Gemini 3 Pro y K2.5. Nomura además señala que se espera que V4 introduzca dos innovaciones tecnológicas, mHC y Engram, que desde el nivel de algoritmos y ingeniería superarán los cuellos de botella en chips de potencia y memoria. Las pruebas internas preliminares muestran que V4 supera en rendimiento a modelos contemporáneos como Anthropic Claude y la serie GPT de OpenAI en tareas de programación.
El lanzamiento tiene un significado clave al reducir aún más los costos de entrenamiento y inferencia, ofreciendo una vía viable para aliviar la presión de gastos de capital en empresas de modelos de lenguaje grande y aplicaciones de IA a nivel mundial.
Arquitectura innovadora optimizada para cuellos de botella de hardware
El informe de Nomura señala que el rendimiento de los chips de potencia y los cuellos de botella en la memoria HBM siguen siendo restricciones duras para la industria de grandes modelos nacionales. Las arquitecturas mHC (superconexión y superconexión de restricción de variedad) y Engram que se introducirán en DeepSeek V4 son precisamente optimizaciones a nivel de sistema desde las dimensiones de entrenamiento e inferencia, dirigidas a superar estos obstáculos.
mHC:
Significa “superconexión de restricción de variedad”. Su objetivo es resolver los cuellos de botella en el flujo de información y la inestabilidad en el entrenamiento de modelos Transformer muy profundos.
En términos simples, permite que la “conversación” entre capas de la red neuronal sea más rica y flexible, mientras que mediante barreras matemáticas estrictas evita la amplificación o destrucción de la información. Las pruebas demuestran que los modelos que usan mHC tienen mejor rendimiento en tareas de razonamiento matemático.
Engram:
Es un módulo de “memoria condicional”. Su diseño desacopla “memoria” y “cálculo”.
El conocimiento estático en el modelo (como entidades o expresiones fijas) se almacena en una tabla de memoria dispersa, que puede estar en DRAM de bajo costo. Cuando se requiere inferir, se realiza una búsqueda rápida. Esto libera la memoria GPU costosa (HBM), permitiendo que se concentre en cálculos dinámicos.
La tecnología mHC, al mejorar la estabilidad del entrenamiento y la eficiencia de la convergencia, ayuda a compensar en cierta medida la brecha generacional en ancho de banda de interconexión y densidad de cálculo de chips nacionales; mientras que la arquitectura Engram busca reconstruir el mecanismo de gestión de memoria, superando las limitaciones de capacidad y ancho de banda de la memoria en un contexto de suministro restringido de HBM, mediante estrategias de acceso más eficientes. Nomura considera que, estas dos innovaciones conforman conjuntamente una solución adaptada al ecosistema de hardware nacional, con un valor claro en la implementación práctica.
El informe también señala que, el impacto comercial más directo del lanzamiento de V4 será una reducción sustancial en los costos de entrenamiento e inferencia. La optimización de costos estimulará la demanda en aplicaciones downstream, impulsando un nuevo ciclo de construcción de infraestructura de IA. En este proceso, los fabricantes chinos de hardware de IA podrían beneficiarse de la expansión de la demanda y de la inversión previa.
Cambio en el panorama del mercado de “monopolio” a “competencia entre múltiples”
El informe de Nomura revisó los cambios en el mercado un año después del lanzamiento de DeepSeek V3/R1. A finales de 2024, los dos modelos de DeepSeek representaban más de la mitad del uso de tokens en modelos de código abierto en OpenRouter.
Pero para la segunda mitad de 2025, con la incorporación de más actores, su cuota de mercado se redujo notablemente. El mercado pasó de ser “una sola dominación” a “competencia entre varias”. El entorno competitivo de V4 es mucho más complejo que hace un año. La gestión de potencia y el aumento de rendimiento de DeepSeek aceleraron el desarrollo de grandes modelos y aplicaciones en China, también cambiaron el panorama global, y promovieron una mayor atención a los modelos de código abierto.
Oportunidad para que las empresas de software aumenten su valor
Nomura opina que, los principales proveedores de servicios en la nube a nivel mundial están persiguiendo activamente la inteligencia artificial general, y la competencia en gastos de capital aún no ha cesado, por lo que se espera que V4 no cause un impacto de la misma magnitud que el año pasado en el mercado global de infraestructura de IA.
Pero los desarrolladores de grandes modelos y aplicaciones enfrentan cargas crecientes en gastos de capital. Si V4 puede mantener un alto rendimiento mientras reduce significativamente los costos de entrenamiento e inferencia, ayudará a estas empresas a convertir más rápidamente la tecnología en ingresos, aliviando la presión de rentabilidad.
En cuanto a aplicaciones, una V4 más potente y eficiente impulsará la creación de agentes de IA más inteligentes. El informe observa que aplicaciones como la APP de Alibaba Tongyi Qianwen ya pueden realizar tareas de múltiples pasos de forma más automatizada, y los agentes de IA están pasando de ser “herramientas de diálogo” a “asistentes de IA” capaces de manejar tareas complejas.
Estos agentes multitarea requieren interactuar con modelos grandes con mayor frecuencia, consumiendo más tokens y elevando la demanda de potencia. Por lo tanto, la mejora en el rendimiento del modelo no solo no “matará el software”, sino que creará valor para las empresas líderes en software. Nomura enfatiza que hay que prestar atención a aquellas empresas que puedan aprovechar primero las capacidades de la nueva generación de modelos grandes para crear aplicaciones o agentes de IA disruptivos. Su potencial de crecimiento podría volver a elevarse gracias a los avances en capacidades de los modelos.
Advertencias de riesgo y exenciones de responsabilidad
El mercado tiene riesgos, invierta con prudencia. Este artículo no constituye asesoramiento de inversión personal ni considera objetivos, situación financiera o necesidades particulares de los usuarios. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí presentados se ajustan a su situación específica. La inversión es bajo su propio riesgo.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿Ha llegado el nuevo modelo de DeepSeek?
DeepSeek está avanzando en las pruebas en modo gris de su nuevo modelo, o quizás en la versión gris definitiva antes del lanzamiento oficial de V4.
El 11 de febrero, algunos usuarios que abrieron la aplicación DeepSeek recibieron una notificación de actualización. Tras actualizar la APP (1.7.4), los usuarios pueden experimentar el modelo más reciente de DeepSeek. Con esta actualización, la longitud del contexto del modelo se ampliará de 128K a 1M, casi un aumento de diez veces; la base de conocimientos se actualizó hasta mayo de 2025, y varias capacidades clave han mejorado sustancialmente.
Los autores realizaron pruebas y descubrieron que, en las respuestas, DeepSeek probablemente no sea la versión V4 actual, sino que muy probablemente sea la forma final evolutiva de la serie V3, o la versión gris definitiva antes del lanzamiento oficial de V4.
Nomura Securities publicó un informe el 10 de febrero que afirma que, se espera que el modelo DeepSeek V4, que se lanzará a mediados de febrero de 2026, no vuelva a generar la misma demanda global de potencia de IA que provocó el año pasado con el lanzamiento de V3. La firma considera que, el valor central de V4 radica en impulsar la comercialización de aplicaciones de IA mediante innovaciones en la arquitectura subyacente, en lugar de revolucionar la cadena de valor de la IA existente.
Según evaluaciones, la nueva versión ya iguala en capacidad de manejo de tareas complejas a modelos principales cerrados como Gemini 3 Pro y K2.5. Nomura además señala que se espera que V4 introduzca dos innovaciones tecnológicas, mHC y Engram, que desde el nivel de algoritmos y ingeniería superarán los cuellos de botella en chips de potencia y memoria. Las pruebas internas preliminares muestran que V4 supera en rendimiento a modelos contemporáneos como Anthropic Claude y la serie GPT de OpenAI en tareas de programación.
El lanzamiento tiene un significado clave al reducir aún más los costos de entrenamiento y inferencia, ofreciendo una vía viable para aliviar la presión de gastos de capital en empresas de modelos de lenguaje grande y aplicaciones de IA a nivel mundial.
Arquitectura innovadora optimizada para cuellos de botella de hardware
El informe de Nomura señala que el rendimiento de los chips de potencia y los cuellos de botella en la memoria HBM siguen siendo restricciones duras para la industria de grandes modelos nacionales. Las arquitecturas mHC (superconexión y superconexión de restricción de variedad) y Engram que se introducirán en DeepSeek V4 son precisamente optimizaciones a nivel de sistema desde las dimensiones de entrenamiento e inferencia, dirigidas a superar estos obstáculos.
La tecnología mHC, al mejorar la estabilidad del entrenamiento y la eficiencia de la convergencia, ayuda a compensar en cierta medida la brecha generacional en ancho de banda de interconexión y densidad de cálculo de chips nacionales; mientras que la arquitectura Engram busca reconstruir el mecanismo de gestión de memoria, superando las limitaciones de capacidad y ancho de banda de la memoria en un contexto de suministro restringido de HBM, mediante estrategias de acceso más eficientes. Nomura considera que, estas dos innovaciones conforman conjuntamente una solución adaptada al ecosistema de hardware nacional, con un valor claro en la implementación práctica.
El informe también señala que, el impacto comercial más directo del lanzamiento de V4 será una reducción sustancial en los costos de entrenamiento e inferencia. La optimización de costos estimulará la demanda en aplicaciones downstream, impulsando un nuevo ciclo de construcción de infraestructura de IA. En este proceso, los fabricantes chinos de hardware de IA podrían beneficiarse de la expansión de la demanda y de la inversión previa.
Cambio en el panorama del mercado de “monopolio” a “competencia entre múltiples”
El informe de Nomura revisó los cambios en el mercado un año después del lanzamiento de DeepSeek V3/R1. A finales de 2024, los dos modelos de DeepSeek representaban más de la mitad del uso de tokens en modelos de código abierto en OpenRouter.
Pero para la segunda mitad de 2025, con la incorporación de más actores, su cuota de mercado se redujo notablemente. El mercado pasó de ser “una sola dominación” a “competencia entre varias”. El entorno competitivo de V4 es mucho más complejo que hace un año. La gestión de potencia y el aumento de rendimiento de DeepSeek aceleraron el desarrollo de grandes modelos y aplicaciones en China, también cambiaron el panorama global, y promovieron una mayor atención a los modelos de código abierto.
Oportunidad para que las empresas de software aumenten su valor
Nomura opina que, los principales proveedores de servicios en la nube a nivel mundial están persiguiendo activamente la inteligencia artificial general, y la competencia en gastos de capital aún no ha cesado, por lo que se espera que V4 no cause un impacto de la misma magnitud que el año pasado en el mercado global de infraestructura de IA.
Pero los desarrolladores de grandes modelos y aplicaciones enfrentan cargas crecientes en gastos de capital. Si V4 puede mantener un alto rendimiento mientras reduce significativamente los costos de entrenamiento e inferencia, ayudará a estas empresas a convertir más rápidamente la tecnología en ingresos, aliviando la presión de rentabilidad.
En cuanto a aplicaciones, una V4 más potente y eficiente impulsará la creación de agentes de IA más inteligentes. El informe observa que aplicaciones como la APP de Alibaba Tongyi Qianwen ya pueden realizar tareas de múltiples pasos de forma más automatizada, y los agentes de IA están pasando de ser “herramientas de diálogo” a “asistentes de IA” capaces de manejar tareas complejas.
Estos agentes multitarea requieren interactuar con modelos grandes con mayor frecuencia, consumiendo más tokens y elevando la demanda de potencia. Por lo tanto, la mejora en el rendimiento del modelo no solo no “matará el software”, sino que creará valor para las empresas líderes en software. Nomura enfatiza que hay que prestar atención a aquellas empresas que puedan aprovechar primero las capacidades de la nueva generación de modelos grandes para crear aplicaciones o agentes de IA disruptivos. Su potencial de crecimiento podría volver a elevarse gracias a los avances en capacidades de los modelos.
Advertencias de riesgo y exenciones de responsabilidad