KOMPAS.com - Perusahaan rintisan kecerdasan buatan (AI) Anthropic memperkenalkan fitur baru pada chatbot Claude Opus 4 dan 4.1.
Fitur ini memungkinkan chatbot menghentikan percakapan yang dianggap berpotensi mengganggu atau berbahaya.
Anthropic menjelaskan, Claude kini dirancang untuk menolak tugas-tugas yang bisa membahayakan penggunanya.
Misalnya, menyediakan konten seksual terkait anak di bawah umur, hingga informasi yang memungkinkan terjadinya kekerasan atau terorisme skala besar.
“Claude dapat memilih untuk mengakhiri interaksi jika dianggap berisiko bagi pengguna maupun dirinya,” demikian pernyataan Anthropic, dikutip dari laman resminya, Jumat (15/8/2025).
Langkah ini didukung Elon Musk yang berencana memberikan fitur serupa pada chatbot Grok.
Baca juga: Pengacara Australia Minta Maaf Setelah Serahkan Dokumen Palsu Hasil AI dalam Kasus Pembunuhan
Keputusan Anthropic muncul di tengah perdebatan panjang soal status moral kecerdasan buatan.
Ahli bahasa dan kritikus industri AI, Emily Bender, menilai LLM (large language model) hanyalah “mesin pembuat teks sintetis” yang bekerja berdasarkan data besar tanpa niat maupun kesadaran.
Menurut dia, wacana menutup percakapan demi “kesejahteraan AI” justru menimbulkan pertanyaan baru.
Berbeda dengan Bender, peneliti AI Robert Long berpendapat bahwa model AI bisa mengembangkan status moral.
Pasalnya, AI kini dapat membedakan pertanyaan yang baik dan buruk, sehingga pengembang perlu menggali lebih jauh pengalaman serta preferensi AI.
Sementara itu, peneliti Columbia University Chad DeChant mengingatkan risiko ketika AI dilengkapi memori jangka panjang.
Menurut dia, data yang disimpan bisa digunakan dengan cara yang sulit diprediksi dan berpotensi tidak diinginkan.
Anthropic menyebut, dalam uji coba, Claude Opus 4 menunjukkan kecenderungan kuat untuk menolak permintaan berbahaya.
Chatbot ini dengan senang hati menulis puisi atau merancang sistem penyaringan air untuk daerah bencana.