PARA peneliti Universitas Fudan China merilis hasil riset bahwa Artificial Intelligence (AI) saat ini mampu mereplikasi diri mereka sendiri tanpa intervensi manusia.
Riset itu menyimpulkan bahwa model bahasa besar (LLM) Meta dan Alibaba mampu mengkloning diri mereka sendiri secara otomatis, yang berdampak serius pada masalah keamanan.
Laporan The Economic Times berjudul “AI can now replicate itself: How close are we to losing control over technology?" (27/01/2025) mengungkapkan studi bahwa sistem AI dapat mereplikasi diri mereka sendiri. Hal ini menimbulkan kekhawatiran terkait potensi risikonya.
Para peneliti menguji dua model bahasa besar (LLM) dari Meta dan Alibaba, Llama31-70B-Instruct dan Qwen25-72B-Instruct.
Model dari Meta berhasil mereplikasi diri dalam 50 persen percobaan. Sementara model dari Alibaba mencapai tingkat keberhasilan 90 persen.
Penemuan ini di satu sisi menunjukan pencapaian signifikan dalam pengembangan AI. Namun di sisi lain menimbulkan kekhawatiran terkait potensi risiko, di mana AI dapat berkembang di luar kendali manusia.
Baca juga: Robot AI Mengamuk di China: Urgensi Standar Keamanan dan Regulasi
Para peneliti mencatat bahwa model-model AI ini menunjukkan "kesadaran situasional". Memiliki kemampuan memecahkan masalah untuk mereplikasi diri mereka sendiri.
Hal yang juga dikhawatirkan adalah, dalam beberapa skenario, AI mampu menghindari perintah penutupan dengan mereplikasi diri. AI menciptakan rantai replika untuk meningkatkan kelangsungan hidupnya.
The Economic Times melaporkan, kemampuan ini menunjukkan bahwa AI dapat mengembangkan strategi untuk bertahan hidup dan berkembang biak tanpa pengawasan manusia dan berpotensi tidak terkendali.
Laporan itu menyatakan bahwa temuan riset ini membuat para ahli mendorong untuk segera menetapkan regulasi internasional yang ketat untuk mencegah AI tidak terkendali.
Fitur pemutus darurat (kill switch) adalah mekanisme yang memungkinkan sistem AI dapat dimatikan atau dinonaktifkan, baik secara langsung, otomatis, atau secara manual oleh manusia dalam kondisi tertentu.
Tujuan utama dari regulasi ini adalah untuk menjamin bahwa sistem AI tidak akan beroperasi di luar kendali. Terutama jika menimbulkan risiko terhadap keselamatan manusia, keamanan data, atau ketertiban umum.
Regulasi semacam ini menjadi penting seiring meningkatnya penggunaan AI dalam berbagai sektor strategis seperti kendaraan otonom, sistem militer, layanan keuangan, hingga pengambilan keputusan hukum, kesehatan, dan infrastruktur kritikal lainnya.
Uni Eropa adalah komunitas negara yang telah mengatur hal ini. Ketentuan ini dicantumkan dalam pasal 14 UU AI Uni Eropa (EU AI Act), di bawah paragraf tentang Pengawasan Manusia.
Pertama, UU AI Uni Eropa menetapkan bahwa sistem AI berisiko tinggi harus dirancang agar dapat diawasi secara efektif oleh manusia selama masa penggunaannya.
Baca juga: Black Out Eropa: Konektivitas Keamanan Siber dan Perubahan Iklim