DeepSeek đang thúc đẩy thử nghiệm phiên bản mô hình mới trong giai đoạn thử nghiệm ngưỡng, hoặc là phiên bản thử nghiệm cuối cùng trước khi ra mắt chính thức V4.
Vào ngày 11 tháng 2, một số người dùng khi mở ứng dụng DeepSeek đã nhận được thông báo cập nhật phiên bản mới. Sau khi cập nhật (phiên bản 1.7.4), người dùng có thể trải nghiệm mô hình mới nhất của DeepSeek. Sau lần nâng cấp này, độ dài ngữ cảnh của mô hình sẽ được mở rộng từ 128K lên 1M, gần như tăng gấp 10 lần; kho kiến thức được cập nhật đến tháng 5 năm 2025, nhiều khả năng năng lực cốt lõi đã được nâng cao đáng kể.
Người thử nghiệm thực tế nhận thấy, trong các câu hỏi và trả lời, DeepSeek hiện tại rất có thể cũng không phải là V4, mà rất có thể là dạng tiến hóa cuối cùng của dòng V3 hoặc là phiên bản thử nghiệm cuối cùng trước khi ra mắt chính thức V4.
Ngày 10 tháng 2, Nomura Securities đã phát hành báo cáo dự đoán, Dự kiến mô hình DeepSeek V4 sẽ ra mắt vào giữa tháng 2 năm 2026, sẽ không gây ra cơn sốt về nhu cầu tính toán AI toàn cầu như khi V3 ra mắt năm ngoái. Ngân hàng này cho rằng, Giá trị cốt lõi của V4 nằm ở việc thúc đẩy ứng dụng AI thương mại hóa thông qua đổi mới kiến trúc nền tảng, chứ không phải là làm đảo lộn chuỗi giá trị AI hiện tại.
Theo đánh giá, phiên bản mới đã đạt mức tương đương với các mô hình chủ đạo đóng nguồn như Gemini 3 Pro và K2.5 về khả năng xử lý các nhiệm vụ phức tạp. Nomura còn chỉ ra rằng, V4 dự kiến sẽ giới thiệu hai công nghệ đổi mới là mHC và Engram, từ đó đột phá giới hạn về chip tính toán và bộ nhớ ở cả cấp độ thuật toán lẫn kỹ thuật. Các thử nghiệm ban đầu cho thấy, V4 đã vượt xa các mô hình cùng thế hệ như Anthropic Claude và dòng GPT của OpenAI trong các nhiệm vụ lập trình.
Ý nghĩa then chốt của việc ra mắt lần này là giảm thiểu chi phí huấn luyện và suy luận, tạo ra con đường khả thi để giảm bớt gánh nặng vốn cho các doanh nghiệp phát triển mô hình ngôn ngữ lớn và ứng dụng AI toàn cầu.
Kiến trúc đổi mới tối ưu hóa cho giới hạn phần cứng
Báo cáo của Nomura chỉ ra rằng, hiệu năng của chip tính toán và giới hạn bộ nhớ HBM luôn là những hạn chế không thể bỏ qua của ngành công nghiệp mô hình lớn nội địa. DeepSeek V4 sắp ra mắt với các công nghệ mHC (siêu liên kết và siêu liên kết hạn chế hình dạng) và kiến trúc Engram chính là các tối ưu hóa hệ thống từ hai cấp độ huấn luyện và suy luận nhằm khắc phục các hạn chế này.
mHC:
Viết tắt của “Siêu liên kết hạn chế hình dạng”. Mục tiêu là giải quyết vấn đề tắc nghẽn luồng thông tin và bất ổn trong huấn luyện của mô hình Transformer khi số lớp quá sâu.
Nói đơn giản, giúp các lớp của mạng thần kinh “giao tiếp” phong phú hơn, linh hoạt hơn, đồng thời sử dụng các “hàng rào” toán học nghiêm ngặt để ngăn chặn thông tin bị phóng đại hoặc phá hủy. Thử nghiệm cho thấy, các mô hình sử dụng mHC thể hiện tốt hơn trong các nhiệm vụ lý luận toán học.
Engram:
Một mô-đun “ghi nhớ có điều kiện”. Thiết kế của nó nhằm tách biệt “ghi nhớ” và “tính toán”.
Kiến thức tĩnh trong mô hình (như thực thể, biểu đạt cố định) được lưu trữ riêng trong một bảng bộ nhớ thưa, có thể đặt trong DRAM giá rẻ. Khi cần suy luận, chỉ cần truy cập nhanh. Điều này giải phóng bộ nhớ GPU đắt tiền (HBM), để tập trung vào tính toán động.
Công nghệ mHC cải thiện độ ổn định huấn luyện và hiệu quả hội tụ, phần nào giúp giảm bớt khoảng cách thế hệ về băng thông liên kết và mật độ tính toán của chip nội địa; trong khi kiến trúc Engram hướng tới tái cấu trúc cơ chế điều phối bộ nhớ, vượt qua giới hạn dung lượng và băng thông của bộ nhớ video (VRAM) trong bối cảnh nguồn cung HBM bị hạn chế. Nomura cho rằng, cặp đôi đổi mới này cùng tạo thành một giải pháp phù hợp cho hệ sinh thái phần cứng nội địa, có giá trị thực tiễn rõ ràng trong kỹ thuật.
Báo cáo còn nhấn mạnh rằng, ảnh hưởng thương mại trực tiếp lớn nhất của V4 là giảm đáng kể chi phí huấn luyện và suy luận. Việc tối ưu hóa chi phí này sẽ kích thích nhu cầu ứng dụng ở các lĩnh vực phía dưới, thúc đẩy chu kỳ xây dựng hạ tầng AI mới. Trong quá trình này, các nhà cung cấp phần cứng AI Trung Quốc có khả năng hưởng lợi từ việc tăng trưởng nhu cầu và đầu tư trước.
Thay đổi cục diện thị trường từ “độc tôn” sang “đa phương tranh chấp”
Báo cáo của Nomura đã xem xét sự thay đổi của thị trường sau một năm kể từ khi ra mắt DeepSeek-V3/R1. Đến cuối năm 2024, hai mô hình của DeepSeek từng chiếm hơn một nửa lượng token sử dụng của các mô hình mã nguồn mở trên OpenRouter.
Tuy nhiên, đến nửa cuối năm 2025, khi nhiều đối thủ tham gia, thị phần của họ đã giảm rõ rệt. Thị trường từ “độc tôn” chuyển sang “nhiều phe tranh chấp”. Môi trường cạnh tranh của V4 phức tạp hơn nhiều so với một năm trước. Việc quản lý tính toán của DeepSeek cộng với việc nâng cao hiệu năng đã thúc đẩy sự phát triển của các mô hình ngôn ngữ lớn và ứng dụng của Trung Quốc, đồng thời thay đổi cục diện cạnh tranh toàn cầu, khiến các mô hình mã nguồn mở ngày càng được chú ý hơn.
Cơ hội nâng cao giá trị cho các công ty phần mềm
Nomura cho rằng, các nhà cung cấp dịch vụ đám mây lớn toàn cầu đang tích cực theo đuổi trí tuệ nhân tạo chung, cuộc đua chi tiêu vốn vẫn chưa hạ nhiệt, do đó dự kiến V4 sẽ không gây ra những tác động lớn như đợt sốc năm ngoái đối với thị trường hạ tầng AI toàn cầu.
Tuy nhiên, các nhà phát triển mô hình lớn và ứng dụng toàn cầu đang gánh chịu gánh nặng chi phí vốn ngày càng lớn. Nếu V4 có thể duy trì hiệu suất cao trong khi giảm đáng kể chi phí huấn luyện và suy luận, sẽ giúp các doanh nghiệp này nhanh chóng chuyển đổi công nghệ thành doanh thu, giảm bớt áp lực lợi nhuận.
Về mặt ứng dụng, V4 mạnh mẽ hơn và hiệu quả hơn sẽ thúc đẩy sự ra đời của các trí tuệ nhân tạo thông minh mạnh mẽ hơn. Báo cáo nhận thấy, các ứng dụng như app Zhiyuan Qianwen của Alibaba đã có thể thực hiện các nhiệm vụ đa bước một cách tự động hơn, các trí tuệ nhân tạo đang chuyển từ “công cụ đối thoại” sang “trợ lý AI” có thể xử lý các nhiệm vụ phức tạp.
Các trí tuệ nhân tạo có thể thực hiện đa nhiệm này cần tương tác nhiều hơn với các mô hình lớn nền tảng, sẽ tiêu thụ nhiều Token hơn, từ đó đẩy cao nhu cầu tính toán. Vì vậy, việc nâng cao hiệu năng mô hình không những không “giết chết phần mềm”, mà còn tạo ra giá trị cho các công ty phần mềm dẫn đầu. Nomura nhấn mạnh, cần chú ý đến các công ty phần mềm có khả năng tận dụng khả năng của các mô hình lớn thế hệ mới để tạo ra các ứng dụng hoặc trí tuệ nhân tạo đột phá, vì tiềm năng tăng trưởng của họ có thể được đẩy cao nhờ bước nhảy của khả năng mô hình.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
DeepSeek đã có mô hình mới chưa?
DeepSeek đang thúc đẩy thử nghiệm phiên bản mô hình mới trong giai đoạn thử nghiệm ngưỡng, hoặc là phiên bản thử nghiệm cuối cùng trước khi ra mắt chính thức V4.
Vào ngày 11 tháng 2, một số người dùng khi mở ứng dụng DeepSeek đã nhận được thông báo cập nhật phiên bản mới. Sau khi cập nhật (phiên bản 1.7.4), người dùng có thể trải nghiệm mô hình mới nhất của DeepSeek. Sau lần nâng cấp này, độ dài ngữ cảnh của mô hình sẽ được mở rộng từ 128K lên 1M, gần như tăng gấp 10 lần; kho kiến thức được cập nhật đến tháng 5 năm 2025, nhiều khả năng năng lực cốt lõi đã được nâng cao đáng kể.
Người thử nghiệm thực tế nhận thấy, trong các câu hỏi và trả lời, DeepSeek hiện tại rất có thể cũng không phải là V4, mà rất có thể là dạng tiến hóa cuối cùng của dòng V3 hoặc là phiên bản thử nghiệm cuối cùng trước khi ra mắt chính thức V4.
Ngày 10 tháng 2, Nomura Securities đã phát hành báo cáo dự đoán, Dự kiến mô hình DeepSeek V4 sẽ ra mắt vào giữa tháng 2 năm 2026, sẽ không gây ra cơn sốt về nhu cầu tính toán AI toàn cầu như khi V3 ra mắt năm ngoái. Ngân hàng này cho rằng, Giá trị cốt lõi của V4 nằm ở việc thúc đẩy ứng dụng AI thương mại hóa thông qua đổi mới kiến trúc nền tảng, chứ không phải là làm đảo lộn chuỗi giá trị AI hiện tại.
Theo đánh giá, phiên bản mới đã đạt mức tương đương với các mô hình chủ đạo đóng nguồn như Gemini 3 Pro và K2.5 về khả năng xử lý các nhiệm vụ phức tạp. Nomura còn chỉ ra rằng, V4 dự kiến sẽ giới thiệu hai công nghệ đổi mới là mHC và Engram, từ đó đột phá giới hạn về chip tính toán và bộ nhớ ở cả cấp độ thuật toán lẫn kỹ thuật. Các thử nghiệm ban đầu cho thấy, V4 đã vượt xa các mô hình cùng thế hệ như Anthropic Claude và dòng GPT của OpenAI trong các nhiệm vụ lập trình.
Ý nghĩa then chốt của việc ra mắt lần này là giảm thiểu chi phí huấn luyện và suy luận, tạo ra con đường khả thi để giảm bớt gánh nặng vốn cho các doanh nghiệp phát triển mô hình ngôn ngữ lớn và ứng dụng AI toàn cầu.
Kiến trúc đổi mới tối ưu hóa cho giới hạn phần cứng
Báo cáo của Nomura chỉ ra rằng, hiệu năng của chip tính toán và giới hạn bộ nhớ HBM luôn là những hạn chế không thể bỏ qua của ngành công nghiệp mô hình lớn nội địa. DeepSeek V4 sắp ra mắt với các công nghệ mHC (siêu liên kết và siêu liên kết hạn chế hình dạng) và kiến trúc Engram chính là các tối ưu hóa hệ thống từ hai cấp độ huấn luyện và suy luận nhằm khắc phục các hạn chế này.
Công nghệ mHC cải thiện độ ổn định huấn luyện và hiệu quả hội tụ, phần nào giúp giảm bớt khoảng cách thế hệ về băng thông liên kết và mật độ tính toán của chip nội địa; trong khi kiến trúc Engram hướng tới tái cấu trúc cơ chế điều phối bộ nhớ, vượt qua giới hạn dung lượng và băng thông của bộ nhớ video (VRAM) trong bối cảnh nguồn cung HBM bị hạn chế. Nomura cho rằng, cặp đôi đổi mới này cùng tạo thành một giải pháp phù hợp cho hệ sinh thái phần cứng nội địa, có giá trị thực tiễn rõ ràng trong kỹ thuật.
Báo cáo còn nhấn mạnh rằng, ảnh hưởng thương mại trực tiếp lớn nhất của V4 là giảm đáng kể chi phí huấn luyện và suy luận. Việc tối ưu hóa chi phí này sẽ kích thích nhu cầu ứng dụng ở các lĩnh vực phía dưới, thúc đẩy chu kỳ xây dựng hạ tầng AI mới. Trong quá trình này, các nhà cung cấp phần cứng AI Trung Quốc có khả năng hưởng lợi từ việc tăng trưởng nhu cầu và đầu tư trước.
Thay đổi cục diện thị trường từ “độc tôn” sang “đa phương tranh chấp”
Báo cáo của Nomura đã xem xét sự thay đổi của thị trường sau một năm kể từ khi ra mắt DeepSeek-V3/R1. Đến cuối năm 2024, hai mô hình của DeepSeek từng chiếm hơn một nửa lượng token sử dụng của các mô hình mã nguồn mở trên OpenRouter.
Tuy nhiên, đến nửa cuối năm 2025, khi nhiều đối thủ tham gia, thị phần của họ đã giảm rõ rệt. Thị trường từ “độc tôn” chuyển sang “nhiều phe tranh chấp”. Môi trường cạnh tranh của V4 phức tạp hơn nhiều so với một năm trước. Việc quản lý tính toán của DeepSeek cộng với việc nâng cao hiệu năng đã thúc đẩy sự phát triển của các mô hình ngôn ngữ lớn và ứng dụng của Trung Quốc, đồng thời thay đổi cục diện cạnh tranh toàn cầu, khiến các mô hình mã nguồn mở ngày càng được chú ý hơn.
Cơ hội nâng cao giá trị cho các công ty phần mềm
Nomura cho rằng, các nhà cung cấp dịch vụ đám mây lớn toàn cầu đang tích cực theo đuổi trí tuệ nhân tạo chung, cuộc đua chi tiêu vốn vẫn chưa hạ nhiệt, do đó dự kiến V4 sẽ không gây ra những tác động lớn như đợt sốc năm ngoái đối với thị trường hạ tầng AI toàn cầu.
Tuy nhiên, các nhà phát triển mô hình lớn và ứng dụng toàn cầu đang gánh chịu gánh nặng chi phí vốn ngày càng lớn. Nếu V4 có thể duy trì hiệu suất cao trong khi giảm đáng kể chi phí huấn luyện và suy luận, sẽ giúp các doanh nghiệp này nhanh chóng chuyển đổi công nghệ thành doanh thu, giảm bớt áp lực lợi nhuận.
Về mặt ứng dụng, V4 mạnh mẽ hơn và hiệu quả hơn sẽ thúc đẩy sự ra đời của các trí tuệ nhân tạo thông minh mạnh mẽ hơn. Báo cáo nhận thấy, các ứng dụng như app Zhiyuan Qianwen của Alibaba đã có thể thực hiện các nhiệm vụ đa bước một cách tự động hơn, các trí tuệ nhân tạo đang chuyển từ “công cụ đối thoại” sang “trợ lý AI” có thể xử lý các nhiệm vụ phức tạp.
Các trí tuệ nhân tạo có thể thực hiện đa nhiệm này cần tương tác nhiều hơn với các mô hình lớn nền tảng, sẽ tiêu thụ nhiều Token hơn, từ đó đẩy cao nhu cầu tính toán. Vì vậy, việc nâng cao hiệu năng mô hình không những không “giết chết phần mềm”, mà còn tạo ra giá trị cho các công ty phần mềm dẫn đầu. Nomura nhấn mạnh, cần chú ý đến các công ty phần mềm có khả năng tận dụng khả năng của các mô hình lớn thế hệ mới để tạo ra các ứng dụng hoặc trí tuệ nhân tạo đột phá, vì tiềm năng tăng trưởng của họ có thể được đẩy cao nhờ bước nhảy của khả năng mô hình.