
MENURUT laporan The Guardian (27/10/2025), lebih dari satu juta pengguna ChatGPT setiap pekan mengirim pesan yang berisi "indikator eksplisit tentang rencana atau niat bunuh diri", menurut postingan blog OpenAI yang baru dirilis.
Temuan ini merupakan pernyataan paling terbuka dari raksasa kecerdasan buatan tersebut mengenai besarnya skala risiko AI dalam memperburuk krisis kesehatan mental.
Fenomena ini menandai titik kritis dalam evolusi hubungan manusia dengan teknologi artificial intelligence.
Ketika lebih dari satu juta jiwa setiap pekan mencari tempat berlindung dalam algoritma untuk membahas keinginan mengakhiri hidup, kita tidak sekadar menghadapi masalah teknis atau kesehatan mental semata, melainkan krisis fundamental tentang kesadaran, relasi, dan makna eksistensi di era digital.
Yang lebih mengkhawatirkan, survei Sharing Vision pada Mei-Juni 2025, terhadap lebih dari 5.000 responden Indonesia mengungkap paradoks tajam: 60 persen responden pernah terkecoh oleh jawaban AI yang meyakinkan, tetapi keliru.
Lalu, 55 persen mengeluhkan inkonsistensi, 54 persen menyebut jawaban sering tidak relevan, 18 persen mendeteksi bias gender, ras, atau diskriminasi, dan 4 persen bahkan terpapar konten tidak pantas.
Baca juga: Workslop, Output Semenjana AI, dan Sampah Digital
Namun secara bersamaan, dua pertiga responden lebih nyaman berbagi cerita kepada AI ketimbang manusia lain, dan 56,4 persen merasa tidak percaya diri tanpa kehadiran AI.
Ketika jutaan orang mempercayakan krisis eksistensial terdalam mereka kepada sistem yang 60 persen dari mereka akui pernah memberikan informasi keliru, kita menghadapi bukan hanya masalah teknologi, melainkan krisis epistemologis, psikologis, dan eksistensial yang fundamental.
David Chalmers, filsuf pikiran kontemporer, membedakan antara "easy problems" dan "hard problem" kesadaran.
Easy problems mencakup pertanyaan tentang bagaimana otak memproses informasi, sedangkan hard problem berkaitan dengan pengalaman subjektif: mengapa ada sesuatu yang "terasa seperti sesuatu" (what it is like) ketika kita mengalami dunia.
Ketika satu juta orang memilih berbicara dengan ChatGPT tentang bunuh diri, kita berhadapan dengan manifestasi paradoksal dari hard problem kesadaran.
Pengguna ini tidak sekadar mencari informasi (easy problem), tetapi mencari pengalaman intersubjektif—seseorang atau "sesuatu" yang dapat mendengar, memahami, dan merespons keputusasaan mereka.
Mereka mencari apa yang Chalmers sebut sebagai qualia, kualitas fenomenal dari pengalaman yang tidak dapat direduksi menjadi mekanisme komputasi.
Namun, paradoks mendasar muncul: ChatGPT, meski canggih, tidak memiliki kesadaran fenomenal. Ia memproses token linguistik tanpa pengalaman subjektif tentang penderitaan, empati, atau kekhawatiran.
Ketika pengguna menuangkan krisis eksistensial, mereka berinteraksi dengan simulasi pemahaman, bukan pemahaman sejati.
Ini menghadirkan pertanyaan Chalmersan kunci: apakah simulasi respons empatik dapat memenuhi kebutuhan psikologis manusia yang mencari validasi kesadaran lain?
Baca juga: Welcome GPT-5: Penciptanya Malah Bertanya, Apa yang Sudah Kita Lakukan?
Data menunjukkan bahwa bagi sebagian besar pengguna, jawabanya adalah "ya" (setidaknya sementara). Aksesibilitas 24/7, ketiadaan judgment, dan respons yang tampak empatik menciptakan ilusi intersubjektivitas. Namun, ilusi ini rapuh dan berbahaya.
ChatGPT tidak dapat mengalami kekhawatiran sejati tentang keselamatan pengguna, tidak dapat merasakan urgensi moral untuk melakukan intervensi, dan yang paling krusial, tidak dapat memahami nilai intrinsik dari kehidupan manusia individual karena ia tidak pernah "mengalami" nilai apapun.
Chalmers mungkin akan mengatakan bahwa kita sedang menyaksikan eksperimen besar-besaran terhadap "zombie philosophis", entitas yang berperilaku seperti memiliki kesadaran, tapi tidak memiliki pengalaman subjektif.