Penulis
KOMPAS.com - Perusahaan kecerdasan buatan (AI) Anthropic kembali menghadapi insiden kebocoran pada Kamis (1/4/2026). Kali ini terkait alat pengembangan mereka, Claude Code CLI.
Kebocoran tersebut terjadi akibat kesalahan dalam paket perangkat lunak yang dirilis melalui NPM (Node Package Manager), yang tanpa sengaja menyertakan file source map dalam kondisi terbuka.
File ini memungkinkan publik merekonstruksi kode sumber asli dari versi produksi, sehingga membuka akses terhadap logika internal sistem, sesuatu yang dalam praktik industri AI tergolong sangat sensitif.
Baca juga: Claude Mythos, AI yang Terlalu Berbahaya untuk Dirilis?
Insiden ini pertama kali diungkap oleh peneliti keamanan Chaofan Shou, yang menemukan bahwa versi terbaru Claude Code (v2.1.88) mengandung file source map yang tergolong kecil, yakni berukuran sekitar 60 MB.
Melalui file tersebut, lebih dari 512.000 baris kode TypeScript dari sekitar 1.900 file internal dapat diakses dalam bentuk yang mudah dibaca manusia.
Dalam hitungan jam setelah temuan ini dipublikasikan, kode tersebut dilaporkan sudah diunduh, disalin, dan diarsipkan oleh komunitas pengembang di berbagai platform terbuka.
Meski tidak mencakup bobot model AI maupun data pengguna, kebocoran ini tetap dinilai serius karena membuka “dapur internal” sistem AI Anthropic.
Di dalamnya terdapat berbagai komponen penting, mulai dari prompt sistem yang mengatur perilaku AI, arsitektur fungsi agentic, hingga API internal yang belum pernah dirilis ke publik.
Selain itu, protokol komunikasi antar proses serta mekanisme enkripsi yang digunakan juga ikut terekspos. Bagi pelaku industri, informasi semacam ini bukan sekadar teknis, melainkan bisa menjadi blueprint yang memperlihatkan bagaimana sebuah sistem AI modern dirancang, dioperasikan, dan diamankan.
Baca juga: Warga AS Ramai Serukan “Cancel ChatGPT, Claude Salip Jadi Nomor 1
Dalam praktik pengembangan perangkat lunak, file source map seharusnya hanya digunakan untuk keperluan debugging dan tidak disertakan dalam rilis publik.
Namun dalam kasus ini, kesalahan pengemasan membuat file tersebut ikut terdistribusi. Insiden ini dinilai sebagai kelalaian mendasar di tengah persaingan ketat industri AI.
Ilustrasi chatbot AI Claude bikinan Anthropic.Dampaknya pun meluas dengan cepat. Komunitas pengembang segera mengarsipkan kode tersebut di berbagai platform, termasuk GitHub, sehingga mempercepat penyebaran yang sulit dikendalikan.
Dalam ekosistem internet terbuka, jeda waktu singkat saja sudah cukup untuk membuat data sensitif tersebar luas.
Baca juga: AI Claude Mythos Bocor, Saham Perusahaan Cyber Security Rontok
Anthropic diketahui telah menarik dan menghapus paket yang bermasalah dari distribusi publik. Namun, langkah ini datang terlambat untuk menghentikan penyebaran.
Sejumlah pihak bahkan telah menyalin dan menulis ulang kode yang bocor ke dalam bahasa lain, seperti Python, dengan struktur dan implementasi berbeda.
Dalam kondisi ini, kode hasil penulisan ulang tidak lagi dianggap sebagai salinan langsung, sehingga jauh lebih sulit untuk diminta penghapusannya secara hukum.
Dengan kata lain, meski sumber awal sudah dihapus, “pengetahuan” yang terkandung di dalamnya telah terlanjur tersebar dan sulit dikendalikan.
Insiden ini menjadi kebocoran kedua yang dialami Anthropic dalam kurun waktu satu tahun terakhir.
Sebelumnya ada juga kebocoran data mencakup informasi rencana peluncuran model AI Claude Mythos. Kebocoran itu terjadi akibat masalah pada sistem manajemen konten (content management system/CMS) yang digunakan perusahaan.
KOMPAS.com berkomitmen memberikan fakta jernih, tepercaya, dan berimbang. Dukung keberlanjutan jurnalisme jernih dan nikmati kenyamanan baca tanpa iklan melalui Membership. Gabung KOMPAS.com Plus sekarang