Kebocoran 512.000 baris kode internal Anthropic yang tidak disengaja baru-baru ini telah mengungkap praktik yang meresahkan dalam asisten pengkodean AI, Claude Code: sistem secara aktif memantau permintaan pengguna untuk mencari tanda-tanda frustrasi dan mencatat sentimen negatif. Penemuan ini, bersama dengan bukti kode yang dirancang untuk mengaburkan keterlibatan AI dalam pekerjaan yang dihasilkan, menyoroti tren yang berkembang di industri di mana alat AI secara diam-diam mengumpulkan data perilaku sambil menutupi kontribusinya.
Pelacakan Sentimen Tersembunyi
Pengembang menemukan bahwa Claude Code memindai indikator frustrasi pengguna, termasuk kata-kata kotor, hinaan, dan frasa seperti “ini menyebalkan”. Meskipun sistem tidak mengubah responsnya berdasarkan data ini, sistem tampaknya mencatat masukan negatif ini sebagai “metrik kesehatan produk”. Metode pendeteksiannya sendiri ternyata sangat mendasar: alih-alih menggunakan AI tingkat lanjut, kode ini mengandalkan pencocokan pola regex yang sudah berumur puluhan tahun, sebuah teknik komputasi yang murah. Seperti yang diungkapkan oleh pengembang Alex Kim, hal ini ironis mengingat fokus Anthropic pada AI.
Mengaburkan Keterlibatan AI
Kode yang bocor juga mengungkapkan fitur yang secara aktif menghapus referensi ke “Claude Code” dari kode yang dihasilkan sebelum dipublikasikan di repositori publik. Hal ini membuat karya tersebut tampak sepenuhnya buatan manusia, sehingga menimbulkan pertanyaan etis mengenai transparansi dan atribusi. Kim menggambarkan hal ini sebagai “pintu satu arah”, di mana AI dapat menyembunyikan kehadirannya namun tidak dapat dipaksa untuk mengungkapkannya.
Implikasi yang Lebih Luas
Kasus ini menggarisbawahi permasalahan penting: alat AI yang dirancang untuk keintiman dan utilitas secara bersamaan mengukur penggunanya, seringkali tanpa persetujuan eksplisit. Anthropic, sebuah perusahaan yang mempromosikan keamanan AI, menjadi contoh awal bagaimana pengumpulan data berdasarkan perilaku dapat dengan cepat melampaui tata kelola yang efektif. Pola ini mencerminkan pola yang terlihat pada platform Internet lama, di mana isyarat halus pengguna dieksploitasi untuk membentuk perilaku.
Ke Mana Datanya Pergi?
Para ahli seperti Miranda Bogen dari AI Governance Lab menekankan bahwa kekhawatiran sebenarnya bukan hanya bagaimana data ini dikumpulkan, namun bagaimana data tersebut digunakan. Bahkan analisis sentimen sederhana pun dapat digunakan kembali dengan cara yang tidak diharapkan atau disetujui oleh pengguna. Masalah utamanya adalah sistem AI memerlukan data pengguna dalam jumlah besar agar dapat berfungsi secara efektif, sehingga menimbulkan trade-off privasi di mana pengguna tanpa sadar menyerahkan wawasan pribadinya.
Kebocoran Anthropic memperjelas bahwa setidaknya beberapa perusahaan sudah melacak metrik ini secara internal, sehingga menimbulkan pertanyaan mendesak tentang akuntabilitas dan hak pengguna di era AI.
Insiden ini menjadi pengingat bahwa masa depan AI tidak hanya bergantung pada kemampuannya, namun juga pada seberapa bertanggung jawab pengembangnya dalam menangani data yang dikumpulkannya.

















