Berita besar tentang model AI besar China terus bermunculan.
Pada malam hari tanggal 11 Februari, secara resmi Zhipu mengonfirmasi bahwa model misterius “Pony Alpha” yang sebelumnya menduduki puncak daftar popularitas di platform layanan model global OpenRouter adalah model baru Zhipu, GLM-5. Saat ini, model baru tersebut sudah tersedia di platform chat.z.ai.
Pada tanggal 6 Februari, platform layanan model global OpenRouter secara diam-diam meluncurkan model anonim dengan kode nama “Pony Alpha”. Karena kemampuan pengkodean yang cukup kuat, jendela konteks yang sangat panjang, dan optimasi mendalam untuk alur kerja agen cerdas, model ini dengan cepat menarik perhatian komunitas pengembang dan dengan cepat naik daun di komunitas internasional.
OpenRouter mendeskripsikan Pony Alpha sebagai “model dasar terdepan”, menunjukkan performa yang kuat dalam pemrograman, alur kerja agen cerdas, penalaran, dan peran bermain, dengan penekanan khusus pada “akurasi panggilan alat yang sangat tinggi”. Fitur ini memberikan keunggulan signifikan dalam aplikasi AI Agent, memungkinkan pengembang menggunakan alat seperti Claude Code untuk memanggil model ini dan mengembangkan proyek kompleks selama berjam-jam.
Pada tanggal 8 Januari, Zhipu secara resmi terdaftar di Bursa Efek Hong Kong. Pada hari pencatatan, Kepala Ilmuwan perusahaan dan profesor dari Departemen Ilmu Komputer Universitas Tsinghua, Tang Jie, mengirim surat internal kepada seluruh staf, mengonfirmasi bahwa model basis generasi baru GLM-5 “akan segera dirilis”, dan mengumumkan bahwa mulai tahun 2026 akan “mengembalikan fokus secara penuh ke penelitian model dasar”. Selain itu, mereka juga mendirikan departemen inovasi terdepan X-Lab yang akan fokus pada tiga bidang utama: arsitektur, paradigma pembelajaran, dan evolusi berkelanjutan.
Selain itu, DeepSeek juga melakukan pembaruan model. Dilaporkan bahwa beberapa pengguna telah memberikan umpan balik bahwa DeepSeek telah melakukan pembaruan versi di platform web dan aplikasi, mendukung panjang konteks hingga 1 juta token. Tahun lalu, pada bulan Agustus, DeepSeekV3.1 yang memperluas panjang konteks hingga 128K telah dirilis.
Saat ini, model yang mampu memperpanjang konteks hingga jutaan token sangat sedikit, dengan seri Gemini dari Google dan Claude Opus 4.6 dari Anthropic sebagai contoh yang sudah lebih dulu mewujudkan.
Model seri V dari DeepSeek ditujukan sebagai model dasar dengan performa komprehensif yang ekstrem. Model dasar V3 yang dirilis pada Desember 2024 menjadi tonggak penting bagi DeepSeek, dengan arsitektur MoE yang efisien dan kokoh sebagai fondasi performa yang kuat. Setelah itu, DeepSeek melakukan iterasi cepat berdasarkan V3, merilis V3.1 yang memperkuat kemampuan penalaran dan agen, dan pada Desember 2025 meluncurkan versi resmi terbaru V3.2. Selain itu, mereka juga merilis versi khusus V3.2-Speciale yang fokus mengatasi masalah matematika dan akademik yang sulit.
Media teknologi The Information sebelumnya melaporkan bahwa DeepSeek akan meluncurkan model AI flagship generasi terbaru, DeepSeek V4, selama pertengahan bulan Februari saat Tahun Baru Imlek, yang akan memiliki kemampuan penulisan kode yang lebih kuat.
Pada awal tahun ini, tim DeepSeek menerbitkan dua makalah yang memaparkan dua inovasi arsitektur: mHC (manifold constrained hyperconnection) untuk mengoptimalkan aliran informasi transformer yang dalam, membuat pelatihan model lebih stabil dan mudah diperluas tanpa menambah beban komputasi, serta meningkatkan performa; dan Engram (modul memori kondisional) yang memisahkan pengetahuan statis dan perhitungan dinamis, menyimpan pengetahuan nyata di memori DRAM yang murah, sehingga mengurangi biaya penalaran panjang yang mahal di HBM.
Pada hari yang sama, MiniMax juga mengumumkan bahwa model M2.5 akan segera resmi diluncurkan. Saat ini, model MiniMax M2.5 telah menjalani uji coba internal pada produk MiniMax Agent di luar negeri.
(Sumber: Daily Economic News)
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Deepseek、智谱、MiniMax secara kolektif mengumumkan peluncuran terbaru
Berita besar tentang model AI besar China terus bermunculan.
Pada malam hari tanggal 11 Februari, secara resmi Zhipu mengonfirmasi bahwa model misterius “Pony Alpha” yang sebelumnya menduduki puncak daftar popularitas di platform layanan model global OpenRouter adalah model baru Zhipu, GLM-5. Saat ini, model baru tersebut sudah tersedia di platform chat.z.ai.
Pada tanggal 6 Februari, platform layanan model global OpenRouter secara diam-diam meluncurkan model anonim dengan kode nama “Pony Alpha”. Karena kemampuan pengkodean yang cukup kuat, jendela konteks yang sangat panjang, dan optimasi mendalam untuk alur kerja agen cerdas, model ini dengan cepat menarik perhatian komunitas pengembang dan dengan cepat naik daun di komunitas internasional.
OpenRouter mendeskripsikan Pony Alpha sebagai “model dasar terdepan”, menunjukkan performa yang kuat dalam pemrograman, alur kerja agen cerdas, penalaran, dan peran bermain, dengan penekanan khusus pada “akurasi panggilan alat yang sangat tinggi”. Fitur ini memberikan keunggulan signifikan dalam aplikasi AI Agent, memungkinkan pengembang menggunakan alat seperti Claude Code untuk memanggil model ini dan mengembangkan proyek kompleks selama berjam-jam.
Pada tanggal 8 Januari, Zhipu secara resmi terdaftar di Bursa Efek Hong Kong. Pada hari pencatatan, Kepala Ilmuwan perusahaan dan profesor dari Departemen Ilmu Komputer Universitas Tsinghua, Tang Jie, mengirim surat internal kepada seluruh staf, mengonfirmasi bahwa model basis generasi baru GLM-5 “akan segera dirilis”, dan mengumumkan bahwa mulai tahun 2026 akan “mengembalikan fokus secara penuh ke penelitian model dasar”. Selain itu, mereka juga mendirikan departemen inovasi terdepan X-Lab yang akan fokus pada tiga bidang utama: arsitektur, paradigma pembelajaran, dan evolusi berkelanjutan.
Selain itu, DeepSeek juga melakukan pembaruan model. Dilaporkan bahwa beberapa pengguna telah memberikan umpan balik bahwa DeepSeek telah melakukan pembaruan versi di platform web dan aplikasi, mendukung panjang konteks hingga 1 juta token. Tahun lalu, pada bulan Agustus, DeepSeekV3.1 yang memperluas panjang konteks hingga 128K telah dirilis.
Saat ini, model yang mampu memperpanjang konteks hingga jutaan token sangat sedikit, dengan seri Gemini dari Google dan Claude Opus 4.6 dari Anthropic sebagai contoh yang sudah lebih dulu mewujudkan.
Model seri V dari DeepSeek ditujukan sebagai model dasar dengan performa komprehensif yang ekstrem. Model dasar V3 yang dirilis pada Desember 2024 menjadi tonggak penting bagi DeepSeek, dengan arsitektur MoE yang efisien dan kokoh sebagai fondasi performa yang kuat. Setelah itu, DeepSeek melakukan iterasi cepat berdasarkan V3, merilis V3.1 yang memperkuat kemampuan penalaran dan agen, dan pada Desember 2025 meluncurkan versi resmi terbaru V3.2. Selain itu, mereka juga merilis versi khusus V3.2-Speciale yang fokus mengatasi masalah matematika dan akademik yang sulit.
Media teknologi The Information sebelumnya melaporkan bahwa DeepSeek akan meluncurkan model AI flagship generasi terbaru, DeepSeek V4, selama pertengahan bulan Februari saat Tahun Baru Imlek, yang akan memiliki kemampuan penulisan kode yang lebih kuat.
Pada awal tahun ini, tim DeepSeek menerbitkan dua makalah yang memaparkan dua inovasi arsitektur: mHC (manifold constrained hyperconnection) untuk mengoptimalkan aliran informasi transformer yang dalam, membuat pelatihan model lebih stabil dan mudah diperluas tanpa menambah beban komputasi, serta meningkatkan performa; dan Engram (modul memori kondisional) yang memisahkan pengetahuan statis dan perhitungan dinamis, menyimpan pengetahuan nyata di memori DRAM yang murah, sehingga mengurangi biaya penalaran panjang yang mahal di HBM.
Pada hari yang sama, MiniMax juga mengumumkan bahwa model M2.5 akan segera resmi diluncurkan. Saat ini, model MiniMax M2.5 telah menjalani uji coba internal pada produk MiniMax Agent di luar negeri.
(Sumber: Daily Economic News)