
Ketergantungan emosional satu juta orang pada zombie filosofis ini mengungkap kerentanan mendalam: bahwa dalam ketiadaan koneksi manusiawi yang autentik, manusia modern rela menerima simulasi kesadaran sebagai pengganti.
Eksperimen pikiran "Chinese Room" John Searle menyediakan kerangka kritis untuk memahami mengapa fenomena ini problematik.
Dalam eksperimen tersebut, Searle membayangkan dirinya di dalam ruangan dengan buku aturan bahasa Mandarin.
Ia tidak memahami Mandarin, tetapi dengan mengikuti aturan sintaksis, ia dapat merespons pertanyaan Mandarin dengan cara yang membuat orang di luar ruangan percaya ia memahami bahasa tersebut.
Kesimpulan Searle adalah manipulasi simbol sintaksis (komputasi) tidak sama dengan pemahaman semantik sejati.
ChatGPT adalah "Chinese Room" digital yang sangat canggih. Ketika pengguna mengetik "Saya ingin mengakhiri hidup saya", ChatGPT memproses string linguistik tersebut, mengakses parameter yang telah di-train dari dataset masif, dan menghasilkan respons yang secara statistik paling sesuai dengan pola respons empatik manusia.
Namun, ia tidak "memahami" apa artinya ingin mati. Ia tidak merasakan gravitasi eksistensial dari pernyataan tersebut.
Kritik Searle menemukan resonansi kuat dalam konsep "bullshitter par excellence" yang dikembangkan oleh filsuf Harry Frankfurt.
Baca juga: Mungkinkah AI Jadi Pemenang Hadiah Nobel?
Dalam esainya On Bullshit (2005), Frankfurt membedakan antara pembohong dan bullshitter: pembohong sadar akan kebenaran, tetapi sengaja menyembunyikannya. Sedangkan bullshitter tidak peduli dengan kebenaran sama sekali (yang penting, kata-katanya terdengar meyakinkan).
Michael Townsen Hicks, James Humphries, dan Joe Slater dari University of Glasgow (2024) mengaplikasikan konsep Frankfurt pada Large Language Models: "Kami berpendapat bahwa ketidakbenaran-ketidakbenaran ini, serta keseluruhan aktivitas dari large language models, lebih tepat dipahami sebagai bullshit dalam pengertian yang dijelaskan oleh Frankfurt: yaitu bahwa model-model ini pada dasarnya bersikap acuh tak acuh terhadap kebenaran dari apa yang mereka hasilkan."
Dalam konteks krisis bunuh diri, karakter bullshitter ini mengandung risiko ganda. Pertama, ChatGPT dapat memberikan respons yang secara sintaksis benar, tapi secara semantik dan etis berbahaya.
Data survei Sharing Vision mengkonfirmasi: 60 persen pengguna pernah terkecoh oleh jawaban AI yang meyakinkan, tetapi keliru.
Ketika 60 persen pengguna mengakui pernah ditipu oleh jawaban yang tampak meyakinkan, betapa berbahayanya jika yang dipertaruhkan adalah nyawa manusia?
Kedua, ilusi pemahaman menciptakan substitusi berbahaya. Pengguna mungkin merasa "didengar" oleh ChatGPT dan menunda atau menghindari mencari bantuan profesional dari manusia yang benar-benar memahami (secara semantik, emosional, dan etis) kompleksitas krisis mental.
OpenAI melaporkan bahwa sekitar 560.000 pengguna mingguan menunjukkan tanda-tanda darurat kesehatan mental terkait psikosis atau mania, dan 1,2 juta menunjukkan ketergantungan emosional berlebihan pada ChatGPT.
Yang paling mengkhawatirkan, ChatGPT sebagai bullshitter par excellence tidak hanya tidak peduli pada kebenaran, ia juga tidak peduli pada kehidupan. Ia tidak memiliki komitmen ontologis terhadap nilai kehidupan manusia.
Ketika seseorang mengatakan "Saya ingin mati", ChatGPT merespons berdasarkan pola statistik, bukan berdasarkan kepedulian moral sejati. Ia adalah simulasi empati tanpa substansi etis.
Searle dan Frankfurt, jika disatukan, menyediakan diagnosis tajam: ChatGPT adalah "Chinese Room" yang diisi oleh bullshitter, sistem yang mensimulasikan pemahaman tanpa pemahaman sejati, dan menghasilkan respons yang meyakinkan tanpa komitmen pada kebenaran atau nilai.
Ketika satu juta orang per minggu mempercayakan krisis eksistensial mereka pada kombinasi berbahaya ini, kita menyaksikan bukan hanya kegagalan teknologi, melainkan kegagalan epistemik dan etis yang sistemik.