OpenAI bantah klaim pengawas bahwa mereka melanggar undang-undang keamanan AI baru California dengan rilis model terbaru

OpenAI mungkin telah melanggar undang-undang baru tentang keamanan AI di California dengan peluncuran model pengkodean terbaru mereka, menurut tuduhan dari sebuah kelompok pengawas AI.

Pelanggaraan tersebut berpotensi membuat perusahaan menghadapi denda jutaan dolar, dan kasus ini dapat menjadi ujian pertama yang menetapkan preseden dari ketentuan undang-undang baru tersebut.

Video Rekomendasi


Juru bicara OpenAI membantah posisi kelompok pengawas tersebut, mengatakan kepada Fortune bahwa perusahaan “percaya diri dalam kepatuhan kami terhadap undang-undang keamanan frontier, termasuk SB 53.”

Kontroversi ini berpusat pada GPT-5.3-Codex, model pengkodean terbaru dari OpenAI, yang dirilis minggu lalu. Model ini merupakan bagian dari upaya OpenAI untuk merebut kembali posisi terdepan dalam pengkodean berbasis AI dan, menurut data benchmark yang dirilis OpenAI, menunjukkan performa yang jauh lebih tinggi dalam tugas pengkodean dibandingkan versi model sebelumnya dari OpenAI maupun pesaing seperti Anthropic. Namun, model ini juga menimbulkan kekhawatiran keamanan siber yang belum pernah terjadi sebelumnya.

CEO Sam Altman mengatakan bahwa model ini adalah yang pertama masuk ke kategori risiko “tinggi” untuk keamanan siber berdasarkan Kerangka Kesiapsiagaan perusahaan, sebuah sistem klasifikasi risiko internal yang digunakan OpenAI untuk peluncuran model. Ini berarti OpenAI secara esensial mengklasifikasikan model sebagai cukup mampu dalam pengkodean sehingga berpotensi memfasilitasi kerusakan siber yang signifikan, terutama jika dilakukan secara otomatis atau digunakan dalam skala besar.

Kelompok pengawas AI, Midas Project, mengklaim bahwa OpenAI gagal mematuhi komitmen keselamatan mereka sendiri—yang kini menjadi mengikat secara hukum di bawah hukum California—dengan peluncuran model risiko tinggi yang baru ini.

SB 53 California, yang mulai berlaku pada Januari, mewajibkan perusahaan AI besar untuk mempublikasikan dan mematuhi kerangka keselamatan mereka sendiri, yang merinci bagaimana mereka akan mencegah risiko bencana—didefinisikan sebagai insiden yang menyebabkan lebih dari 50 kematian atau kerusakan properti lebih dari $1 miliar—dari model mereka. Selain itu, undang-undang ini melarang perusahaan-perusahaan tersebut membuat pernyataan menyesatkan tentang kepatuhan.

Kerangka keselamatan OpenAI memerlukan perlindungan khusus untuk model dengan risiko keamanan siber tinggi yang dirancang untuk mencegah AI menjadi liar dan melakukan hal-hal seperti bertindak menipu, merusak penelitian keselamatan, atau menyembunyikan kemampuan sebenarnya. Namun, Midas Project mengatakan bahwa meskipun model memicu ambang risiko keamanan siber “tinggi,” OpenAI tampaknya tidak menerapkan perlindungan ketidaksesuaian tertentu sebelum peluncuran.

OpenAI menyatakan bahwa interpretasi Midas Project terhadap kata-kata dalam Kerangka Kesiapsiagaan mereka salah, meskipun mereka juga mengatakan bahwa kata-kata dalam kerangka tersebut “ambiguous” dan mereka berusaha memperjelas maksud dari kata-kata tersebut melalui pernyataan dalam laporan keselamatan yang dirilis bersamaan dengan GPT-5.3-Codex. Dalam laporan keselamatan tersebut, OpenAI menyatakan bahwa perlindungan tambahan hanya diperlukan ketika risiko siber tinggi terjadi “bersamaan dengan” otonomi jangka panjang—kemampuan untuk beroperasi secara independen dalam jangka waktu yang diperpanjang. Karena perusahaan percaya bahwa GPT-5.3-Codex tidak memiliki otonomi tersebut, mereka mengatakan perlindungan tersebut tidak diperlukan.

“GPT-5.3-Codex telah menyelesaikan seluruh proses pengujian dan tata kelola kami, sebagaimana dijelaskan dalam kartu sistem yang dirilis secara publik, dan tidak menunjukkan kemampuan otonomi jangka panjang berdasarkan evaluasi proxy dan dikonfirmasi oleh penilaian ahli internal, termasuk dari Grup Penasihat Keamanan kami,” kata juru bicara tersebut. Perusahaan juga menyatakan bahwa mereka tidak memiliki cara pasti untuk menilai otonomi jangka panjang sebuah model dan bergantung pada pengujian yang mereka percaya dapat bertindak sebagai proxy untuk metrik ini sambil berupaya mengembangkan metode evaluasi yang lebih baik.

Namun, beberapa peneliti keselamatan menentang interpretasi OpenAI. Nathan Calvin, wakil presiden urusan negara bagian dan penasihat umum di Encode, mengatakan dalam sebuah posting di X: “Alih-alih mengakui bahwa mereka tidak mengikuti rencana mereka atau memperbaruinya sebelum peluncuran, tampaknya OpenAI mengatakan bahwa kriteria tersebut ambigu. Dari membaca dokumen terkait… itu tidak tampak ambigu bagi saya.”

Midas Project juga mengklaim bahwa OpenAI tidak dapat membuktikan secara definitif bahwa model tersebut tidak memiliki otonomi yang diperlukan untuk langkah-langkah tambahan tersebut, karena model sebelumnya yang kurang canggih dari perusahaan sudah menempati peringkat tertinggi secara global dalam penyelesaian tugas otomatis. Kelompok ini berpendapat bahwa meskipun aturan tersebut tidak jelas, OpenAI seharusnya memperjelasnya sebelum merilis model.

Tyler Johnston, pendiri Midas Project, menyebut pelanggaran potensial ini “terlalu memalukan mengingat batas minimal yang ditetapkan SB 53: cukup dengan mengadopsi rencana keselamatan sukarela pilihan Anda dan berkomunikasi secara jujur tentangnya, mengubahnya sesuai kebutuhan, tetapi tidak melanggar atau berbohong tentangnya.”

Jika penyelidikan dibuka dan tuduhan terbukti benar, SB 53 memungkinkan pemberian sanksi yang besar atas pelanggaran, yang berpotensi mencapai jutaan dolar tergantung pada tingkat keparahan dan durasi ketidakpatuhan. Seorang perwakilan dari Kantor Jaksa Agung California mengatakan kepada Fortune bahwa departemen tersebut “berkomitmen menegakkan hukum negara bagian kami, termasuk yang diberlakukan untuk meningkatkan transparansi dan keamanan di ruang AI yang sedang berkembang.” Namun, mereka menyatakan bahwa departemen tersebut tidak dapat berkomentar, bahkan untuk mengonfirmasi atau membantah, tentang penyelidikan potensial atau yang sedang berlangsung.

Diperbarui, 10 Februari: Cerita ini telah diperbarui untuk menempatkan pernyataan OpenAI bahwa mereka yakin sedang mematuhi undang-undang AI California lebih tinggi dalam cerita. Judul juga telah diubah untuk menegaskan bahwa OpenAI membantah tuduhan dari kelompok pengawas. Selain itu, cerita ini diperbarui untuk menjelaskan bahwa pernyataan OpenAI dalam laporan keselamatan GPT-5.3-Codex dimaksudkan untuk memperjelas apa yang dikatakan perusahaan sebagai bahasa yang ambigu dalam Kerangka Kesiapsiagaan mereka.

Bergabunglah dengan kami di Fortune Workplace Innovation Summit 19–20 Mei 2026, di Atlanta. Era inovasi tempat kerja berikutnya telah tiba—dan buku panduan lama sedang ditulis ulang. Dalam acara eksklusif yang penuh energi ini, para pemimpin paling inovatif di dunia akan berkumpul untuk menjelajahi bagaimana AI, manusia, dan strategi bersatu kembali untuk mendefinisikan masa depan pekerjaan. Daftar sekarang.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)