KOMPAS.com - Di Melbourne, Australia, seorang pengacara senior meminta maaf kepada hakim karena menyerahkan dokumen dalam sebuah kasus pembunuhan yang berisi kutipan palsu dan putusan kasus fiktif yang dibuat dengan bantuan kecerdasan buatan (AI).
Kesalahan ini terjadi di Mahkamah Agung Victoria pada Rabu (13/8/2025). Pengacara pembela, Rishi Nathwani, yang memiliki gelar bergengsi King’s Counsel, mengaku bertanggung jawab penuh atas informasi yang salah tersebut.
Nathwani diketahui sedang mengurus kasus seorang remaja yang didakwa melakukan pembunuhan. Ia menyampaikan permintaan maafnya kepada Hakim James Elliott pada Rabu, mewakili tim pembela.
"Kami sangat menyesal dan malu atas apa yang terjadi,” kata Nathwani.
Kesalahan yang dihasilkan AI ini menyebabkan penundaan 24 jam dalam penyelesaian kasus, yang semula diharapkan selesai pada Rabu.
Baca juga: AI sebagai Pencerita Karya Jurnalistik
Dikutip dari ABC News, Jumat (15/8/2025), dokumen yang salah tersebut diketahui memuat kutipan palsu dari pidato di legislatif negara bagian.
Selain itu, terdapat juga referensi kasus dari Mahkamah Agung yang sebenarnya tidak ada.
Kesalahan tersebut ditemukan oleh staf Elliott, yang tidak dapat menemukan kasus-kasus yang dikutip dan kemudian meminta pengacara pembela untuk menyediakan salinannya.
Berdasarkan dokumen pengadilan, para pengacara mengakui bahwa sitasi tersebut sebetulnya tidak ada dan bahwa dokumen yang mereka ajukan berisi fictitious quotes.
Mereka menjelaskan bahwa mereka telah memeriksa sitasi awal dan menganggap sitasi yang lain juga benar.
Baca juga: Pengacara Agung Sedayu Sebut Pagar Laut Tangerang untuk Lindungi Lahan dari Abrasi
Dokumen pengajuan itu juga dikirimkan kepada Jaksa Daniel Porceddu, yang tidak memeriksa keakuratannya.
Hakim mencatat bahwa Mahkamah Agung telah mengeluarkan pedoman tahun lalu mengenai cara pengacara menggunakan AI.
“Tidak dapat diterima jika kecerdasan buatan digunakan kecuali hasil dari penggunaannya diverifikasi secara independen dan menyeluruh," tegas Eliott.
Dokumen pengadilan diketahui tidak menyebutkan sistem kecerdasan buatan generatif jenis apa yang digunakan oleh para pengacara.
Baca juga: Jadi Korban Pemerasan Menggunakan Foto Editan AI, Apa yang Harus Dilakukan?
Kasus-kasus mengenai AI dalam dunia peradilan pernah terjadi sebelumnya.
Pada 2023, di Amerika Serikat, dua pengacara dan sebuah firma hukum mendapat denda sebesar 5.000 dollar AS (sekitar Rp 80 juta) dari hakim federal karena mereka menyerahkan dokumen hukum yang berisi informasi palsu dari ChatGPT.
ChatGPT tersebut diketahui membuat penelitian hukum, dan AI tersebut menghasilkan data atau referensi yang tidak benar.
Beberapa bulan kemudian, kasus serupa juga terjadi. Pengacara Michael Cohen, mantan pengacara pribadi Presiden AS Donald Trump, mengutip putusan pengadilan palsu yang dibuat oleh AI dalam dokumen hukumnya.
Cohen mengaku bertanggung jawab dan menjelaskan bahwa ia tidak menyadari alat Google yang digunakannya untuk penelitian hukum juga bisa menghasilkan apa yang disebut “halusinasi AI".
Baca juga: Kurir di India Manfaatkan AI untuk Layani Pelanggan Berbahasa Inggris
Di saat situasi tidak menentu, Kompas.com tetap berkomitmen memberikan fakta jernih dari lapangan. Ikuti terus update terkini dan notifikasi penting di Aplikasi Kompas.com. Download di sini