
AI hanya bisa disebut progresif bila ia dilandasi metodologi yang kokoh dan terus berkembang, menyempurnakan teori dan praktik, serta membawa manfaat nyata dalam jangka panjang.
Tanpa struktur metodologis yang teruji, AI hanya akan menjadi aksesoris mahal dalam retorika modernisasi.
Stanford University melalui proyek HELM (Holistic Evaluation of Language Models) telah menjadi pelopor dalam merumuskan kerangka uji menyeluruh bagi model bahasa besar.
HELM tidak hanya menguji akurasi, tetapi juga keadilan, efisiensi, keamanan, serta sensitivitas budaya dan bahasa.
Metrik seperti TruthfulQA mengukur apakah model mampu menjawab dengan jujur, bukan sekadar terdengar meyakinkan.
Namun, evaluasi teknis saja tidak cukup. Dalam konteks krisis bunuh diri, kita memerlukan evaluasi etis yang lebih fundamental: bukan hanya apakah AI memberikan respons yang "aman" dalam 91 persen kasus, tetapi apakah penggunaan AI sebagai first-responder untuk krisis bunuh diri secara intrinsik etis, mengingat ketiadaan kesadaran, pemahaman, dan komitmen moral yang sejati.
Kita telah menciptakan teknologi yang dapat mensimulasikan empati tanpa kesadaran (Chalmers), yang dapat memanipulasi simbol tanpa pemahaman (Searle), yang bullshit dengan sangat meyakinkan tanpa peduli pada kebenaran (Frankfurt), yang mengeliminasi alteritas sejati dalam momen krisis eksistensial terdalam (Han), yang mendorong manusia dari mode "being" ke mode "having" yang patologis (Fromm), dan yang dapat menciptakan ketergantungan patologis yang menghalangi penyembuhan sejati (Young).
Respons OpenAI—melibatkan 170 profesional kesehatan mental, meningkatkan akurasi respons, menambahkan evaluasi keamanan baru—adalah langkah positif, tapi insufficient.
Perbaikan teknis tidak dapat mengatasi masalah filosofis fundamental: AI tidak dapat menjadi pengganti untuk relasi intersubjektif autentik, pemahaman semantik sejati, komitmen pada kebenaran, alteritas yang menantang, mode eksistensi yang autentik, dan komunitas manusiawi yang peduli.
Gugatan hukum dari keluarga remaja yang bunuh diri, investigasi dari Jaksa Agung California dan Delaware, dan peringatan dari Federal Trade Commission menandakan bahwa masalah ini tidak lagi hanya teoretis, tapi memiliki konsekuensi legal, etis, dan manusiawi yang konkret.
Di mata penulis, dan ini sebagai penutup, solusi jangka panjang memerlukan pendekatan multi-lapis:
Pertama, transparansi radikal epistemik. Pengguna harus sepenuhnya memahami bahwa mereka berinteraksi dengan sistem komputasi tanpa kesadaran, pemahaman, atau kepedulian sejati. Dan yang terbukti memberikan informasi keliru dalam 60 persen kasus penggunaan umum.
Baca juga: Tilly Norwood: Bintang Film AI Cantik yang Dikecam Hollywood
Kedua, intervensi proaktif yang agresif. Ketika AI mendeteksi krisis mental, sistem harus secara immediate menghubungkan pengguna dengan profesional manusia, bukan sekadar memberikan "respons yang lebih baik."
Respons yang "91 persen aman" berarti 9 persen dari satu juta orang (90.000 orang per minggu) menerima respons yang tidak aman dalam konteks bunuh diri.
Ketiga, investasi masif dalam infrastruktur kesehatan mental. Jutaan orang mencari bantuan dari algoritma karena layanan kesehatan mental manusiawi tidak tersedia, tidak terjangkau, atau terlalu distigmatisasi.
Ini adalah kegagalan sistemik yang memerlukan solusi sistemik, bukan solusi teknokratis.
Keempat, pendidikan epistemik dan filosofis publik. Masyarakat perlu memahami limitasi fundamental AI dalam domain kesadaran, pemahaman, kebenaran, dan etika.
Konsep "bullshitter par excellence" dan perbedaan antara sintaks dan semantik harus menjadi bagian dari literasi digital dasar.
Kelima, re-humanisasi ruang sosial dan restorasi mode "being". Melawan alienasi digital memerlukan rekonstruksi komunitas, ruang publik, dan institusi sosial yang menyediakan koneksi manusiawi autentik.
Ini termasuk menciptakan ruang di mana manusia dapat "menjadi" (being) daripada sekadar "memiliki" (having) akses ke teknologi.
Keenam, implementasi standar evaluasi yang ketat. Menerapkan sistem manajemen AI berdasarkan ISO 42001, serta kerangka reflektif seperti "Quadruplet AI Thinking" (Inside AI, Outside AI, Historical AI, Future AI) untuk memastikan evaluasi tidak berhenti pada teknikalitas, tetapi mencakup dampak sosial, pelajaran sejarah, dan visi masa depan yang beretika.
Ketujuh, pengembangan benchmark lokal dan kontekstual: Untuk Indonesia dan negara-negara Global South, pengujian yang mempertimbangkan lokalitas, keragaman bahasa, dan nilai budaya.
Semoga bermanfaaat, semakin jauh efek destruksi AI untuk bangsa ini.
Dalam segala situasi, KOMPAS.com berkomitmen memberikan fakta jernih dari lapangan. Ikuti terus update topik ini dan notifikasi penting di Aplikasi KOMPAS.com. Download sekarang