Ngày 11 tháng 2, Zhipu chính thức ra mắt mô hình flagship thế hệ mới GLM-5, tập trung vào khả năng lập trình và trí tuệ nhân tạo, chính thức đạt hiệu suất tối ưu trong lĩnh vực mã nguồn mở. Đây là một trong những phát hành quan trọng trong mùa xuân của các mô hình AI nội địa sau DeepSeek.
Quy mô tham số của GLM-5 được mở rộng từ 355B của thế hệ trước lên 744B, số lượng tham số kích hoạt từ 32B tăng lên 40B. Phía Zhipu xác nhận rằng mô hình bí ẩn “Pony Alpha” từng đứng đầu bảng xếp hạng hot trên nền tảng dịch vụ mô hình toàn cầu OpenRouter chính là GLM-5.
Đánh giá nội bộ cho thấy, GLM-5 trong các tình huống phát triển lập trình như frontend, backend, nhiệm vụ dài hạn, hiệu suất trung bình tăng hơn 20% so với thế hệ trước, trải nghiệm lập trình thực tế gần như đạt trình độ Claude Opus 4.5. Mô hình này đã chính thức hoạt động trên nền tảng chat.z.ai. Việc ra mắt lần này đánh dấu sự thu hẹp liên tục về mặt kỹ thuật và khả năng của các mô hình lớn nội địa so với trình độ quốc tế dẫn đầu, cung cấp một lựa chọn mã nguồn mở mới cho cộng đồng nhà phát triển.
Quy mô tham số tăng gấp đôi, dữ liệu huấn luyện mở rộng đáng kể
Mô hình flagship thế hệ mới GLM-5 của Zhipu đã có những nâng cấp quan trọng về kiến trúc. Quy mô tham số từ 355B (32B kích hoạt) mở rộng lên 744B (40B kích hoạt), lượng dữ liệu huấn luyện từ 23T tăng lên 28.5T, đầu tư vào sức mạnh tính toán lớn hơn đã thúc đẩy khả năng trí tuệ chung rõ rệt.
Mô hình lần đầu tiên ứng dụng cơ chế chú ý thưa DeepSeek, giữ nguyên hiệu quả xử lý văn bản dài, đồng thời giảm chi phí triển khai và nâng cao hiệu quả sử dụng Token. Tuyến công nghệ này phù hợp với DeepSeek-V3/V3.2.
Về cấu hình kiến trúc, GLM-5 xây dựng 78 lớp ẩn, tích hợp 256 module chuyên gia, mỗi lần kích hoạt 8, tham số kích hoạt khoảng 44B, độ thưa 5.9%, cửa sổ ngữ cảnh tối đa hỗ trợ 202K token.
Khả năng lập trình được nâng cao rõ rệt
Mô hình flagship thế hệ mới GLM-5 thể hiện xuất sắc trong đánh giá tập trung Claude Code nội bộ. Trong các tình huống phát triển lập trình như frontend, backend, nhiệm vụ dài hạn, mô hình này hoàn toàn vượt qua thế hệ trước GLM-4.7, hiệu suất trung bình tăng hơn 20%.
GLM-5 có thể tự chủ hoàn thành các nhiệm vụ phức tạp như lập kế hoạch dài hạn Agentic, tái cấu trúc backend, gỡ lỗi sâu mà ít cần can thiệp của con người. Chính thức cho biết, trải nghiệm lập trình thực tế đã gần như đạt trình độ Claude Opus 4.5.
Zhipu định vị GLM-5 là mô hình đối thoại, lập trình và trí tuệ nhân tạo flagship thế hệ mới nhất, tập trung nâng cao khả năng xử lý các hệ thống phức tạp và nhiệm vụ dài hạn của Agent.
Khả năng trí tuệ nhân tạo đạt hiệu suất tối ưu trong mã nguồn mở
GLM-5 đạt thành tích SOTA trong khả năng Agent mở, đứng đầu nhiều tiêu chuẩn đánh giá mã nguồn mở. Trong ba bài kiểm tra BrowseComp (truy xuất và hiểu thông tin qua mạng), MCP-Atlas (gọi công cụ quy mô lớn end-to-end) và τ2-Bench (lập kế hoạch và thực thi tự động các công cụ代理 trong các tình huống phức tạp), GLM-5 đều thể hiện xuất sắc nhất.
Để đạt được đột phá về khả năng, mô hình đã xây dựng khung huấn luyện mới mang tên “Slime”, hỗ trợ quy mô mô hình lớn hơn và các nhiệm vụ học tăng cường phức tạp hơn, nâng cao rõ rệt hiệu quả quá trình huấn luyện sau khi học.
Ngoài ra, Zhipu đề xuất thuật toán học tăng cường trí tuệ nhân tạo bất đồng bộ, giúp mô hình có khả năng học liên tục từ các tương tác dài hạn, kích thích tiềm năng sâu của mô hình đã được huấn luyện trước. Cơ chế này đã trở thành một trong những đặc trưng công nghệ cốt lõi của GLM-5.
Phát hành dày đặc các mô hình lớn nội địa trong mùa xuân
Việc Zhipu Qingyan GLM-5 ra mắt trở thành một trong những điểm nhấn trong cuộc đua sôi động của các mô hình AI lớn nội địa mùa xuân. Cùng ngày, Minimax cũng ra mắt Minimax 2.5, chỉ sau hơn một tháng kể từ phiên bản 2.2 trước đó.
Xu hướng phát hành lần này đã ngày càng sôi động hơn. Trước đó, DeepSeek đã giới thiệu mô hình mới, Alibaba Qwen 3.5, ByteDance SeeDance 2.0 cùng nhiều sản phẩm khác cũng lần lượt ra mắt gần đây. Nhiều nhà cung cấp đồng loạt chọn thời điểm Tết Nguyên Đán để tập trung ra mắt sản phẩm mới, phản ánh cuộc cạnh tranh trong lĩnh vực mô hình lớn nội địa đang bước vào giai đoạn quyết liệt.
Hiện tại, các tài liệu kỹ thuật chi tiết của GLM-5 và Minimax 2.5 vẫn chưa được công bố đầy đủ, hiệu suất thực tế còn cần cộng đồng nhà phát triển và các tổ chức chuyên nghiệp tiếp tục xác nhận.
Lưu ý rủi ro và điều khoản miễn trừ trách nhiệm
Thị trường có rủi ro, đầu tư cần thận trọng. Bài viết này không phải là khuyến nghị đầu tư cá nhân, cũng không xem xét các mục tiêu, tình hình tài chính hoặc nhu cầu đặc thù của từng người dùng. Người dùng cần cân nhắc xem các ý kiến, quan điểm hoặc kết luận trong bài có phù hợp với tình hình của mình hay không. Đầu tư theo đó, chịu trách nhiệm về quyết định của chính mình.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
智谱 phát hành thế hệ mới của mô hình flagship GLM-5, tập trung nâng cao khả năng lập trình và trí tuệ nhân tạo
Ngày 11 tháng 2, Zhipu chính thức ra mắt mô hình flagship thế hệ mới GLM-5, tập trung vào khả năng lập trình và trí tuệ nhân tạo, chính thức đạt hiệu suất tối ưu trong lĩnh vực mã nguồn mở. Đây là một trong những phát hành quan trọng trong mùa xuân của các mô hình AI nội địa sau DeepSeek.
Quy mô tham số của GLM-5 được mở rộng từ 355B của thế hệ trước lên 744B, số lượng tham số kích hoạt từ 32B tăng lên 40B. Phía Zhipu xác nhận rằng mô hình bí ẩn “Pony Alpha” từng đứng đầu bảng xếp hạng hot trên nền tảng dịch vụ mô hình toàn cầu OpenRouter chính là GLM-5.
Đánh giá nội bộ cho thấy, GLM-5 trong các tình huống phát triển lập trình như frontend, backend, nhiệm vụ dài hạn, hiệu suất trung bình tăng hơn 20% so với thế hệ trước, trải nghiệm lập trình thực tế gần như đạt trình độ Claude Opus 4.5. Mô hình này đã chính thức hoạt động trên nền tảng chat.z.ai. Việc ra mắt lần này đánh dấu sự thu hẹp liên tục về mặt kỹ thuật và khả năng của các mô hình lớn nội địa so với trình độ quốc tế dẫn đầu, cung cấp một lựa chọn mã nguồn mở mới cho cộng đồng nhà phát triển.
Quy mô tham số tăng gấp đôi, dữ liệu huấn luyện mở rộng đáng kể
Mô hình flagship thế hệ mới GLM-5 của Zhipu đã có những nâng cấp quan trọng về kiến trúc. Quy mô tham số từ 355B (32B kích hoạt) mở rộng lên 744B (40B kích hoạt), lượng dữ liệu huấn luyện từ 23T tăng lên 28.5T, đầu tư vào sức mạnh tính toán lớn hơn đã thúc đẩy khả năng trí tuệ chung rõ rệt.
Mô hình lần đầu tiên ứng dụng cơ chế chú ý thưa DeepSeek, giữ nguyên hiệu quả xử lý văn bản dài, đồng thời giảm chi phí triển khai và nâng cao hiệu quả sử dụng Token. Tuyến công nghệ này phù hợp với DeepSeek-V3/V3.2.
Về cấu hình kiến trúc, GLM-5 xây dựng 78 lớp ẩn, tích hợp 256 module chuyên gia, mỗi lần kích hoạt 8, tham số kích hoạt khoảng 44B, độ thưa 5.9%, cửa sổ ngữ cảnh tối đa hỗ trợ 202K token.
Khả năng lập trình được nâng cao rõ rệt
Mô hình flagship thế hệ mới GLM-5 thể hiện xuất sắc trong đánh giá tập trung Claude Code nội bộ. Trong các tình huống phát triển lập trình như frontend, backend, nhiệm vụ dài hạn, mô hình này hoàn toàn vượt qua thế hệ trước GLM-4.7, hiệu suất trung bình tăng hơn 20%.
GLM-5 có thể tự chủ hoàn thành các nhiệm vụ phức tạp như lập kế hoạch dài hạn Agentic, tái cấu trúc backend, gỡ lỗi sâu mà ít cần can thiệp của con người. Chính thức cho biết, trải nghiệm lập trình thực tế đã gần như đạt trình độ Claude Opus 4.5.
Zhipu định vị GLM-5 là mô hình đối thoại, lập trình và trí tuệ nhân tạo flagship thế hệ mới nhất, tập trung nâng cao khả năng xử lý các hệ thống phức tạp và nhiệm vụ dài hạn của Agent.
Khả năng trí tuệ nhân tạo đạt hiệu suất tối ưu trong mã nguồn mở
GLM-5 đạt thành tích SOTA trong khả năng Agent mở, đứng đầu nhiều tiêu chuẩn đánh giá mã nguồn mở. Trong ba bài kiểm tra BrowseComp (truy xuất và hiểu thông tin qua mạng), MCP-Atlas (gọi công cụ quy mô lớn end-to-end) và τ2-Bench (lập kế hoạch và thực thi tự động các công cụ代理 trong các tình huống phức tạp), GLM-5 đều thể hiện xuất sắc nhất.
Để đạt được đột phá về khả năng, mô hình đã xây dựng khung huấn luyện mới mang tên “Slime”, hỗ trợ quy mô mô hình lớn hơn và các nhiệm vụ học tăng cường phức tạp hơn, nâng cao rõ rệt hiệu quả quá trình huấn luyện sau khi học.
Ngoài ra, Zhipu đề xuất thuật toán học tăng cường trí tuệ nhân tạo bất đồng bộ, giúp mô hình có khả năng học liên tục từ các tương tác dài hạn, kích thích tiềm năng sâu của mô hình đã được huấn luyện trước. Cơ chế này đã trở thành một trong những đặc trưng công nghệ cốt lõi của GLM-5.
Phát hành dày đặc các mô hình lớn nội địa trong mùa xuân
Việc Zhipu Qingyan GLM-5 ra mắt trở thành một trong những điểm nhấn trong cuộc đua sôi động của các mô hình AI lớn nội địa mùa xuân. Cùng ngày, Minimax cũng ra mắt Minimax 2.5, chỉ sau hơn một tháng kể từ phiên bản 2.2 trước đó.
Xu hướng phát hành lần này đã ngày càng sôi động hơn. Trước đó, DeepSeek đã giới thiệu mô hình mới, Alibaba Qwen 3.5, ByteDance SeeDance 2.0 cùng nhiều sản phẩm khác cũng lần lượt ra mắt gần đây. Nhiều nhà cung cấp đồng loạt chọn thời điểm Tết Nguyên Đán để tập trung ra mắt sản phẩm mới, phản ánh cuộc cạnh tranh trong lĩnh vực mô hình lớn nội địa đang bước vào giai đoạn quyết liệt.
Hiện tại, các tài liệu kỹ thuật chi tiết của GLM-5 và Minimax 2.5 vẫn chưa được công bố đầy đủ, hiệu suất thực tế còn cần cộng đồng nhà phát triển và các tổ chức chuyên nghiệp tiếp tục xác nhận.
Lưu ý rủi ro và điều khoản miễn trừ trách nhiệm
Thị trường có rủi ro, đầu tư cần thận trọng. Bài viết này không phải là khuyến nghị đầu tư cá nhân, cũng không xem xét các mục tiêu, tình hình tài chính hoặc nhu cầu đặc thù của từng người dùng. Người dùng cần cân nhắc xem các ý kiến, quan điểm hoặc kết luận trong bài có phù hợp với tình hình của mình hay không. Đầu tư theo đó, chịu trách nhiệm về quyết định của chính mình.