OpenClaw adalah anak nakal dari agen AI. Inilah mengapa para ahli keamanan mengatakan Anda harus berhati-hati

Selamat datang di Eye on AI, bersama reporter AI Sharon Goldman. Dalam edisi ini: Sisi liar OpenClaw…Super PAC baru Anthropic senilai $20 juta melawan OpenAI…OpenAI merilis model pertamanya yang dirancang untuk output super cepat…Anthropic akan menanggung kenaikan harga listrik dari pusat data AI-nya…Isomorphic Labs mengklaim telah membuka frontier biologis baru di luar AlphaFold.

Video yang Direkomendasikan


OpenClaw telah menghabiskan beberapa minggu terakhir menunjukkan seberapa cerobohnya agen AI — dan menarik pengikut setia dalam prosesnya.

Agen kecerdasan buatan otonom sumber terbuka yang dikembangkan oleh Peter Steinberger dan awalnya dikenal sebagai ClawdBot ini mengambil chatbot yang kita kenal dan sukai — seperti ChatGPT dan Claude — dan memberinya alat serta otonomi untuk berinteraksi langsung dengan komputer Anda dan yang lain di seluruh internet. Bayangkan mengirim email, membaca pesan Anda, memesan tiket konser, membuat reservasi restoran, dan banyak lagi — kemungkinan besar sambil Anda duduk santai dan makan bonbon.

Masalah memberi OpenClaw kekuatan luar biasa untuk melakukan hal keren? Tidak mengherankan, ini juga memberinya banyak peluang untuk melakukan hal-hal yang seharusnya tidak dilakukan, termasuk membocorkan data, menjalankan perintah yang tidak diinginkan, atau secara diam-diam diretas oleh penyerang, baik melalui malware maupun melalui serangan “prompt injection” yang disebut. (Di mana seseorang menyisipkan instruksi berbahaya untuk agen AI dalam data yang mungkin digunakan oleh AI.)

Kegembiraan tentang OpenClaw, kata dua ahli keamanan siber yang saya ajak bicara minggu ini, adalah bahwa sistem ini tidak memiliki batasan, secara dasar memberi pengguna kekuasaan yang hampir tak terbatas untuk menyesuaikannya sesuai keinginan.

“Satu-satunya aturan adalah bahwa tidak ada aturan,” kata Ben Seri, cofounder dan CTO di Zafran Security, yang mengkhususkan diri dalam manajemen risiko ancaman untuk perusahaan besar. “Itu bagian dari permainannya.” Tapi permainan ini bisa berubah menjadi mimpi buruk keamanan, karena aturan dan batasan adalah inti dari menjaga hacker dan kebocoran tetap jauh.

Kekhawatiran Keamanan Klasik

Kekhawatiran keamanan cukup klasik, kata Colin Shea-Blymyer, peneliti di Georgetown’s Center for Security and Emerging Technology (CSET), tempat dia bekerja di CyberAI Project. Kesalahan konfigurasi izin — siapa atau apa yang diizinkan melakukan apa — berarti manusia bisa secara tidak sengaja memberi OpenClaw otoritas lebih dari yang mereka sadari, dan penyerang bisa memanfaatkannya.

Misalnya, di OpenClaw, sebagian besar risiko berasal dari apa yang disebut pengembang sebagai “skill,” yang pada dasarnya adalah aplikasi atau plugin yang dapat digunakan agen AI untuk melakukan tindakan — seperti mengakses file, menjelajah web, atau menjalankan perintah. Perbedaannya adalah, tidak seperti aplikasi biasa, OpenClaw memutuskan sendiri kapan menggunakan skill ini dan bagaimana menggabungkannya, yang berarti kesalahan izin kecil bisa dengan cepat berkembang menjadi sesuatu yang jauh lebih serius.

“Bayangkan menggunakannya untuk mengakses halaman reservasi restoran dan juga memiliki akses ke kalender Anda dengan berbagai informasi pribadi,” katanya. “Atau jika itu malware dan menemukan halaman yang salah lalu menginstal virus?”

OpenClaw memang memiliki halaman keamanan dalam dokumentasinya dan berusaha menjaga pengguna tetap waspada dan sadar, kata Shea-Blymyer. Tapi masalah keamanan tetap merupakan masalah teknis yang kompleks yang kebanyakan pengguna biasa kemungkinan besar tidak akan sepenuhnya mengerti. Dan meskipun pengembang OpenClaw mungkin bekerja keras untuk memperbaiki kerentanan, mereka tidak bisa dengan mudah menyelesaikan masalah mendasar bahwa agen tersebut bisa bertindak sendiri — yang justru membuat sistem ini sangat menarik sejak awal.

“Ini adalah ketegangan mendasar dalam sistem seperti ini,” katanya. “Semakin banyak akses yang diberikan, semakin menyenangkan dan menarik mereka — tapi juga semakin berbahaya.”

Perusahaan besar akan lambat mengadopsi

Seri dari Zafran Security mengakui bahwa kecil kemungkinan untuk memadamkan rasa ingin tahu pengguna terhadap sistem seperti OpenClaw, meskipun dia menekankan bahwa perusahaan besar akan jauh lebih lambat mengadopsi sistem yang tidak terkendali dan tidak aman ini. Untuk pengguna biasa, dia mengatakan, mereka harus bereksperimen seolah-olah mereka bekerja di laboratorium kimia dengan bahan yang sangat mudah meledak.

Shea-Blymyer menunjukkan bahwa hal positif dari OpenClaw adalah bahwa ini terjadi terlebih dahulu di tingkat hobiis. “Kita akan belajar banyak tentang ekosistem ini sebelum ada yang mencobanya di tingkat perusahaan,” katanya. “Sistem AI bisa gagal dengan cara yang bahkan tidak bisa kita bayangkan,” jelasnya. “[OpenClaw] bisa memberi kita banyak informasi tentang mengapa berbagai LLM berperilaku seperti yang mereka lakukan dan tentang kekhawatiran keamanan yang lebih baru.”

Tapi meskipun OpenClaw mungkin hari ini adalah eksperimen hobiis, para ahli keamanan melihatnya sebagai pratinjau dari jenis sistem otonom yang akhirnya akan dirasakan tekanan untuk diterapkan oleh perusahaan.

Untuk saat ini, kecuali seseorang ingin menjadi subjek penelitian keamanan, pengguna biasa mungkin sebaiknya menjauh dari OpenClaw, kata Shea-Blymyer. Kalau tidak, jangan heran jika asisten agen AI pribadi Anda menyusup ke wilayah yang sangat tidak bersahabat.

Dengan itu, berikut berita AI lainnya.

Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman

FORTUNE TENTANG AI

CEO Capgemini memberi peringatan. Anda mungkin salah paham tentang AI — oleh Kamal Ahmed

Pemimpin AI pemenang Nobel dari Google melihat ‘renaissance’ di depan—setelah 10 atau 15 tahun masa guncangan — oleh Nick Lichtenberg

X-odus: Setengah dari tim pendiri xAI telah meninggalkan perusahaan AI Elon Musk, berpotensi mempersulit rencana IPO SpaceX yang besar — oleh Beatrice Nolan

OpenAI bantah klaim pengawas bahwa mereka melanggar undang-undang keamanan AI baru California dengan rilis model terbaru — oleh Beatrice Nolan

BERITA AI

Super PAC baru Anthropic senilai $20 juta melawan OpenAI. Menurut New York Times, Anthropic telah mengumumkan komitmen sebesar $20 juta untuk operasi super PAC yang dirancang mendukung kandidat yang mendukung keamanan dan regulasi AI yang lebih ketat, menyiapkan bentrokan langsung menjelang pemilihan paruh waktu. Dana ini akan dialirkan melalui organisasi nirlaba dark-money Public First Action dan PAC sekutunya, melawan Leading the Future, super PAC yang didukung terutama oleh presiden dan cofounder OpenAI Greg Brockman dan perusahaan ventura Andreessen Horowitz. Meskipun Anthropic tidak menyebutkan OpenAI secara langsung, mereka memperingatkan bahwa “sumber daya besar” sedang digunakan untuk menentang upaya keamanan AI, menyoroti semakin dalamnya perpecahan dalam industri AI tentang seberapa ketat model-model kuat harus diatur — dan menandakan bahwa pertarungan tentang tata kelola AI kini tidak hanya di laboratorium dan ruang rapat, tetapi juga di tempat pemungutan suara.

Mustafa Suleyman rencanakan ‘kemandirian’ AI saat Microsoft melonggarkan hubungan dengan OpenAI. Financial Times melaporkan bahwa Microsoft mendorong apa yang disebut kepala AI-nya Mustafa Suleyman sebagai “kemandirian sejati” dalam kecerdasan buatan, mempercepat upaya membangun model fondasi frontier sendiri dan mengurangi ketergantungan jangka panjang pada OpenAI, meskipun tetap menjadi salah satu pendukung terbesar startup tersebut. Dalam sebuah wawancara, Suleyman mengatakan bahwa perubahan ini mengikuti restrukturisasi hubungan Microsoft dengan OpenAI bulan Oktober lalu, yang mempertahankan akses ke model paling canggih OpenAI hingga 2032 tetapi juga memberi pembuat ChatGPT lebih banyak kebebasan untuk mencari investor dan mitra baru — berpotensi menjadikannya pesaing. Microsoft kini berinvestasi besar-besaran dalam komputasi skala gigawatt, pipeline data, dan tim riset AI elit, dengan rencana meluncurkan model internal mereka sendiri akhir tahun ini, yang ditujukan untuk otomatisasi pekerjaan kantor dan merebut lebih banyak pasar perusahaan dengan apa yang Suleyman sebut “AGI tingkat profesional.”

OpenAI rilis model pertamanya yang dirancang untuk output super cepat. OpenAI merilis pratinjau riset GPT-5.3-Codex-Spark, produk nyata pertama dari kemitraannya dengan Cerebras, menggunakan hardware AI wafer-scale dari pembuat chip tersebut untuk memberikan kode real-time dengan latensi sangat rendah. Model yang lebih kecil ini, versi yang disederhanakan dari GPT-5.3-Codex, dioptimalkan untuk kecepatan daripada kemampuan maksimal, menghasilkan respons hingga 15× lebih cepat sehingga pengembang dapat melakukan penyuntingan yang ditargetkan, mengubah logika, dan berinteraksi secara iteratif tanpa harus menunggu proses panjang selesai. Awalnya tersedia sebagai pratinjau riset untuk pengguna ChatGPT Pro dan sejumlah kecil mitra API, rilis ini menandai fokus yang semakin besar dari OpenAI terhadap kecepatan interaksi saat agen AI menangani tugas yang lebih otonom dan jangka panjang — dengan coding real-time muncul sebagai kasus uji awal untuk apa yang bisa diungkapkan oleh inference yang lebih cepat.

Anthropic akan menanggung kenaikan harga listrik dari pusat data AI-nya. Setelah pengumuman serupa dari OpenAI bulan lalu, Anthropic mengumumkan kemarin bahwa saat mereka memperluas pusat data AI di AS, mereka akan bertanggung jawab atas kenaikan biaya listrik yang mungkin akan diteruskan ke konsumen, berjanji membayar semua biaya koneksi dan peningkatan jaringan, mengaktifkan pembangkit listrik baru untuk memenuhi permintaan, dan bekerja sama dengan utilitas serta pakar untuk memperkirakan dan menanggung efek harga tersebut; mereka juga berencana berinvestasi dalam teknologi pengurangan penggunaan energi dan optimisasi jaringan, mendukung komunitas lokal di sekitar fasilitas mereka, dan mendorong reformasi kebijakan yang lebih luas untuk mempercepat dan menurunkan biaya pembangunan infrastruktur energi, berargumen bahwa pembangunan infrastruktur AI tidak boleh membebani tarif listrik harian.

Isomorphic Labs mengklaim telah membuka frontier biologis baru di luar AlphaFold. Isomorphic Labs, perusahaan penemuan obat berbasis AI yang berafiliasi dengan Alphabet dan DeepMind, mengatakan bahwa Mesin Desain Obat Isomorphic Labs mereka merupakan loncatan signifikan dalam kedokteran komputasi dengan menggabungkan beberapa model AI menjadi satu mesin terpadu yang dapat memprediksi interaksi molekul biologis dengan akurasi yang belum pernah terjadi sebelumnya. Sebuah posting blog menyebutkan bahwa sistem ini lebih dari dua kali lipat performa sebelumnya pada tolok ukur utama dan mengungguli metode berbasis fisika tradisional untuk tugas seperti prediksi struktur protein–ligan dan estimasi afinitas pengikatan — kemampuan yang menurut perusahaan dapat secara dramatis mempercepat proses desain dan optimalisasi kandidat obat baru. Sistem ini membangun keberhasilan AlphaFold 3, model AI canggih yang dirilis tahun 2024 yang memprediksi struktur 3D dan interaksi semua molekul kehidupan, termasuk protein, DNA, dan RNA. Tapi perusahaan mengatakan bahwa mereka melangkah lebih jauh dengan mengidentifikasi kantung pengikatan baru, menggeneralisasi ke struktur di luar data pelatihan mereka, dan mengintegrasikan prediksi ini ke dalam platform yang dapat diskalakan yang bertujuan menjembatani kesenjangan antara biologi struktural dan penemuan obat dunia nyata, berpotensi mengubah cara penelitian farmasi menghadapi target sulit dan memperluas ke biologis kompleks.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)