Apakah model baru DeepSeek sudah hadir?

robot
Pembuatan abstrak sedang berlangsung

DeepSeek sedang mendorong pengujian model versi baru secara grayscale, atau versi grayscale terakhir sebelum peluncuran resmi V4.

Pada 11 Februari, sebagian pengguna yang membuka DeepSeek App menerima notifikasi pembaruan versi. Setelah pembaruan aplikasi (1.7.4), pengguna dapat merasakan model terbaru dari DeepSeek. Setelah peningkatan ini, panjang konteks model akan diperluas dari 128K menjadi 1M, hampir meningkat 10 kali lipat; basis pengetahuan diperbarui hingga Mei 2025, dan beberapa kemampuan inti mengalami peningkatan substantif.

Pengujian oleh penulis menunjukkan bahwa, dalam tanya jawab, DeepSeek menyatakan bahwa versi saat ini kemungkinan besar bukan V4, kemungkinan besar adalah bentuk evolusi akhir dari seri V3, atau versi grayscale terakhir sebelum peluncuran resmi V4.

Nomura Securities merilis laporan pada 10 Februari yang menyatakan bahwa, diperkirakan model DeepSeek V4 yang akan dirilis pertengahan Februari 2026 tidak akan memicu kepanikan permintaan daya komputasi AI global seperti yang terjadi saat peluncuran V3 tahun lalu. Bank ini berpendapat bahwa, nilai inti V4 terletak pada inovasi arsitektur dasar yang mendorong komersialisasi aplikasi AI, bukan untuk merombak rantai nilai AI yang ada.

Menurut evaluasi, versi baru ini telah menyamai kemampuan penanganan tugas kompleks dari model tertutup utama seperti Gemini 3 Pro dan K2.5. Nomura selanjutnya menunjukkan bahwa V4 diperkirakan akan memperkenalkan dua inovasi teknologi, mHC dan Engram, yang akan menembus batasan chip daya dan memori dari segi algoritma dan rekayasa. Pengujian awal internal menunjukkan bahwa V4 telah melampaui performa model sekelas Anthropic Claude dan seri GPT OpenAI dalam tugas pemrograman.

Peluncuran ini memiliki arti penting dalam mengurangi biaya pelatihan dan inferensi secara lebih lanjut, memberikan jalur yang layak bagi perusahaan model bahasa besar dan aplikasi AI di seluruh dunia untuk mengurangi beban biaya modal.

Arsitektur inovatif dioptimalkan untuk batasan perangkat keras

Laporan Nomura Securities menunjukkan bahwa performa chip daya dan bottleneck memori HBM selalu menjadi kendala keras yang tidak bisa dihindari oleh industri model besar domestik. DeepSeek V4 yang akan dirilis memperkenalkan mHC (super-connection dan manifold-constrained super-connection) dan arsitektur Engram, yang merupakan optimisasi sistem tingkat tinggi dari dua dimensi, pelatihan dan inferensi, untuk mengatasi kekurangan tersebut.

mHC

  • Singkatan dari “Super-connection terbatas manifold”. Dirancang untuk mengatasi bottleneck aliran informasi dan ketidakstabilan pelatihan saat Transformer memiliki kedalaman lapisan yang sangat dalam.

  • Secara sederhana, membuat “dialog” antar lapisan neural network menjadi lebih kaya dan fleksibel, sekaligus mencegah informasi diperbesar atau rusak melalui “pagar” matematis yang ketat. Eksperimen menunjukkan, model yang menggunakan mHC menunjukkan performa lebih baik dalam tugas penalaran matematis.

Engram

  • Sebuah modul “memori kondisi”. Dirancang untuk memisahkan “memori” dan “perhitungan”.

  • Pengetahuan statis dalam model (seperti entitas, ekspresi tetap) disimpan secara khusus dalam tabel memori jarang (sparse), yang dapat ditempatkan di DRAM yang murah. Saat melakukan inferensi, tabel ini dapat diakses dengan cepat. Ini membebaskan memori GPU (HBM) yang mahal, sehingga fokus pada perhitungan dinamis.

Teknologi mHC melalui peningkatan stabilitas pelatihan dan efisiensi konvergensi, secara tertentu mengimbangi kesenjangan generasi chip domestik dalam bandwidth koneksi dan densitas komputasi; sementara arsitektur Engram berusaha merekonstruksi mekanisme penjadwalan memori, mengatasi keterbatasan kapasitas dan bandwidth memori video dengan strategi akses yang lebih efisien di tengah pasokan HBM yang terbatas. Nomura berpendapat bahwa, kedua inovasi ini bersama-sama membentuk solusi adaptasi untuk ekosistem perangkat keras domestik, memiliki nilai implementasi yang jelas secara rekayasa.

Laporan tersebut juga menekankan bahwa, pengaruh bisnis paling langsung dari peluncuran V4 adalah penurunan biaya pelatihan dan inferensi secara substansial. Pengoptimalan biaya ini akan secara efektif merangsang permintaan aplikasi hilir, dan mendorong siklus pembangunan infrastruktur AI baru. Dalam proses ini, produsen perangkat keras AI di China diharapkan akan mendapatkan manfaat dari peningkatan permintaan dan dorongan investasi yang didorong oleh volume permintaan.

Perubahan pola pasar dari “penguasa tunggal” ke “persaingan banyak”

Laporan Nomura meninjau perubahan pola pasar satu tahun setelah peluncuran DeepSeek-V3/R1. Pada akhir 2024, dua model DeepSeek pernah menguasai lebih dari setengah penggunaan token model open-source di OpenRouter.

Namun, hingga paruh kedua 2025, seiring semakin banyak pemain yang bergabung, pangsa pasar mereka telah menurun secara signifikan. Pasar beralih dari “penguasa tunggal” ke “persaingan banyak”. Lingkungan kompetisi V4 jauh lebih kompleks dibandingkan setahun lalu. Efisiensi pengelolaan daya komputasi DeepSeek yang meningkat dan peningkatan performa mempercepat perkembangan model bahasa besar dan aplikasi di China, serta mengubah pola kompetisi global, sekaligus meningkatkan perhatian terhadap model open-source.

Perusahaan perangkat lunak menghadapi peluang peningkatan nilai

Nomura berpendapat bahwa, penyedia layanan cloud utama di seluruh dunia sedang berlomba mengejar kecerdasan buatan umum, dan perlombaan pengeluaran modal belum berakhir, sehingga V4 diperkirakan tidak akan menyebabkan gelombang kejutan sebesar yang terjadi tahun lalu di pasar infrastruktur AI global.

Namun, pengembang model besar dan aplikasi global menghadapi beban biaya modal yang semakin berat. Jika V4 mampu mempertahankan performa tinggi sekaligus secara signifikan menurunkan biaya pelatihan dan inferensi, ini akan membantu perusahaan-perusahaan tersebut lebih cepat mengubah teknologi menjadi pendapatan, dan mengurangi tekanan profitabilitas.

Di sisi aplikasi, V4 yang lebih kuat dan efisien akan melahirkan agen AI yang lebih cerdas. Laporan mencatat bahwa, seperti aplikasi Tongyi Qianwen dari Alibaba, sudah mampu menjalankan tugas multi-langkah secara otomatis, dan agen AI sedang bertransformasi dari “alat dialog” menjadi “asisten AI” yang mampu menangani tugas kompleks.

Agen yang mampu melakukan banyak tugas ini membutuhkan interaksi yang lebih sering dengan model besar dasar, yang akan mengkonsumsi lebih banyak Token, dan meningkatkan kebutuhan daya komputasi. Oleh karena itu, peningkatan efisiensi model tidak akan “menghancurkan perangkat lunak”, malah menciptakan nilai bagi perusahaan perangkat lunak terdepan. Nomura menegaskan bahwa, penting untuk memperhatikan perusahaan-perusahaan yang mampu memanfaatkan kemampuan generasi baru dari model besar untuk menciptakan aplikasi AI asli atau agen cerdas yang revolusioner. Pertumbuhan mereka mungkin akan kembali didorong oleh lonjakan kemampuan model.

Peringatan risiko dan ketentuan penyangkalan

        Pasar berisiko, investasi harus dilakukan dengan hati-hati. Artikel ini tidak merupakan saran investasi pribadi, dan tidak mempertimbangkan tujuan investasi, kondisi keuangan, atau kebutuhan pengguna secara khusus. Pengguna harus menilai apakah pendapat, pandangan, atau kesimpulan dalam artikel ini sesuai dengan kondisi mereka. Investasi berdasarkan penilaian sendiri, tanggung jawab sepenuhnya di tangan pengguna.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)