Zhipu merilis model flagship generasi baru GLM-5, dengan fokus meningkatkan kemampuan pemrograman dan agen cerdas

robot
Pembuatan abstrak sedang berlangsung

11 Februari, Zhipu secara resmi meluncurkan model flagship generasi baru GLM-5, yang fokus pada kemampuan pemrograman dan agen cerdas, dan diklaim telah mencapai performa terbaik di bidang open source. Ini adalah rilis penting kedua setelah DeepSeek dalam musim liburan Tahun Baru Imlek untuk model AI buatan dalam negeri.

Skala parameter GLM-5 diperbesar dari generasi sebelumnya yang 355B menjadi 744B, dengan parameter aktif meningkat dari 32B menjadi 40B. Pihak Zhipu mengonfirmasi bahwa model misterius “Pony Alpha” yang sebelumnya menduduki puncak popularitas di platform layanan model global OpenRouter adalah GLM-5.

Evaluasi internal menunjukkan bahwa GLM-5 dalam skenario pengembangan pemrograman seperti frontend, backend, dan tugas jarak jauh, mengalami peningkatan performa rata-rata lebih dari 20% dibanding generasi sebelumnya, dengan pengalaman pemrograman nyata mendekati level Claude Opus 4.5. Model ini sudah tersedia di platform chat.z.ai. Peluncuran ini menandai bahwa model besar buatan dalam negeri terus menyempurnakan jarak dengan standar internasional dari segi jalur teknologi dan kemampuan, serta menyediakan pilihan open source baru bagi komunitas pengembang.

Skala parameter dua kali lipat, data pra-pelatihan diperbesar secara signifikan

Model flagship generasi baru Zhipu, GLM-5, melakukan peningkatan penting pada arsitektur model. Skala parameter dari 355B (aktivasi 32B) menjadi 744B (aktivasi 40B), volume data pra-pelatihan dari 23T menjadi 28.5T, dengan investasi komputasi yang lebih besar secara signifikan meningkatkan kemampuan kecerdasan umum.

Model ini pertama kali memperkenalkan mekanisme perhatian jarang DeepSeek, yang menjaga efektivitas pengolahan teks panjang sekaligus secara efektif mengurangi biaya deployment dan meningkatkan efisiensi penggunaan Token. Jalur teknologi ini konsisten dengan DeepSeek-V3/V3.2.

Dalam hal konfigurasi arsitektur, GLM-5 dibangun dengan 78 lapis tersembunyi, mengintegrasikan 256 modul ahli, mengaktifkan 8 modul sekaligus, dengan parameter aktif sekitar 44B, tingkat sparsity 5.9%, dan jendela konteks hingga 202K token.

Kemampuan pemrograman meningkat secara signifikan

Model flagship generasi baru GLM-5 menunjukkan performa menonjol dalam evaluasi Claude Code internal. Dalam skenario pengembangan pemrograman seperti frontend, backend, dan tugas jarak jauh, model ini secara menyeluruh melampaui GLM-4.7, dengan peningkatan performa rata-rata lebih dari 20%.

GLM-5 mampu menyelesaikan tugas sistem kompleks seperti perencanaan dan eksekusi jangka panjang agen, refaktor backend, dan debugging mendalam secara mandiri dengan sedikit intervensi manusia. Pihak resmi menyatakan, pengalaman penggunaan dalam lingkungan pemrograman nyata sudah mendekati level Claude Opus 4.5.

Zhipu menempatkan GLM-5 sebagai model dialog, pemrograman, dan agen cerdas generasi terbaru, dengan fokus memperkuat kemampuan penanganan dalam sistem kompleks dan tugas agen jangka panjang.

Kemampuan agen cerdas mencapai performa open source terbaik

GLM-5 mencapai SOTA terbuka dalam kemampuan agen, menempati posisi pertama di banyak benchmark open source. Dalam tiga pengujian utama yaitu BrowseComp (penelusuran dan pemahaman informasi online), MCP-Atlas (pemanggilan alat end-to-end skala besar), dan τ2-Bench (perencanaan dan eksekusi otomatis alat dalam skenario kompleks), GLM-5 menunjukkan performa terbaik.

Untuk mencapai terobosan kemampuan ini, model ini membangun kerangka pelatihan baru bernama “Slime,” yang mendukung arsitektur model berskala besar dan tugas reinforcement learning yang lebih kompleks, secara signifikan meningkatkan efisiensi proses pelatihan ulang reinforcement learning.

Selain itu, Zhipu mengusulkan algoritma reinforcement learning agen cerdas asinkron, yang memungkinkan model belajar secara berkelanjutan dari interaksi jangka panjang, secara efektif memanfaatkan potensi mendalam dari model pra-pelatihan. Mekanisme ini telah menjadi salah satu fitur inti dari GLM-5.

Peluncuran model besar dalam negeri selama musim liburan Imlek secara intensif

Peluncuran GLM-5 oleh Zhipu menjadi penanda terbaru dari kompetisi ketat model AI besar buatan dalam negeri selama musim liburan Imlek. Malam harinya, Minimax juga meluncurkan Minimax 2.5, hanya lebih dari sebulan setelah versi sebelumnya 2.2 dirilis.

Gelombang peluncuran ini semakin memanas. Sebelumnya, DeepSeek telah memperkenalkan model baru, produk seperti Qwen 3.5 dari Alibaba, SeeDance 2.0 dari ByteDance juga muncul secara berturut-turut. Banyak perusahaan secara serempak memilih untuk meluncurkan produk baru selama periode liburan Imlek, mencerminkan bahwa kompetisi di jalur model besar buatan dalam negeri semakin memanas.

Saat ini, dokumen teknis lengkap tentang GLM-5 dan Minimax 2.5 belum sepenuhnya dipublikasikan, dan performa nyata mereka masih menunggu verifikasi dari komunitas pengembang dan lembaga profesional.

Peringatan risiko dan ketentuan penyangkalan

Pasar memiliki risiko, investasi harus dilakukan dengan hati-hati. Artikel ini tidak merupakan saran investasi pribadi, dan tidak mempertimbangkan tujuan investasi, kondisi keuangan, atau kebutuhan pengguna secara khusus. Pengguna harus menilai apakah pendapat, pandangan, atau kesimpulan dalam artikel ini sesuai dengan kondisi mereka. Investasi berdasarkan penilaian sendiri, tanggung jawab sepenuhnya di tangan pengguna.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)