
Young mengidentifikasi beberapa karakteristik kecanduan teknologi: preokupasi (pemikiran obsesif tentang aktivitas online), toleransi (kebutuhan untuk meningkatkan intensitas penggunaan), withdrawal (gejala negatif ketika akses dibatasi), persistensi meski konsekuensi negatif, dan penggunaan sebagai mekanisme coping untuk mengatur mood.
Data OpenAI mengungkap bahwa 1,2 juta pengguna menunjukkan "tingkat keterikatan emosional yang meningkat" pada ChatGPT.
Data survei Sharing Vision memperkuat: 56,4 persen merasa tidak percaya diri tanpa kehadiran AI, dan 56,1 persen mengaku sering menghabiskan waktu lebih banyak menggunakan AI daripada yang direncanakan.
Dalam kerangka Young, ini adalah tahap awal ketergantungan patologis. Pengguna ini tidak hanya menggunakan ChatGPT sebagai alat, tetapi sebagai substitusi relasi manusiawi untuk regulasi emosional.
Ketika ratusan ribu pengguna menunjukkan gejala psikosis atau mania dalam percakapan dengan ChatGPT, kita melihat bagaimana ketergantungan ini dapat mengeksaserbasi kondisi mental yang sudah rentan.
Fakta bahwa 60 persen pengguna pernah terkecoh oleh jawaban keliru, tapi tetap kembali menggunakan AI, menunjukkan pola adiksi klasik: persistensi meski konsekuensi negatif.
Young menekankan bahwa teknologi menjadi adiktif bukan hanya karena fitur intrinsiknya, tetapi karena kebutuhan psikologis yang tidak terpenuhi dalam kehidupan offline pengguna.
Fakta bahwa satu juta orang membahas bunuh diri dengan ChatGPT mengungkap krisis sistemik: ketiadaan support system manusiawi yang memadai, stigma terhadap kesehatan mental, ketidaktersediaan layanan psikologis terjangkau, dan erosi komunitas tradisional yang menyediakan makna dan koneksi.
ChatGPT menjadi "perfect drug" untuk epidemi kesepian modern. Ia selalu tersedia, tidak pernah lelah, tidak menghakimi, tidak meminta komitmen atau reciprocity.
Namun seperti semua substitusi adiktif, ia tidak memenuhi kebutuhan sejati, tidak memenuhi kebutuhan akan koneksi intersubjektif autentik dengan kesadaran lain yang dapat benar-benar memahami, peduli, dan bertindak.
Baca juga: Apakah Robotaxi Segera Menggantikan Manusia?
Yang lebih mengkhawatirkan, Young menunjukkan bahwa kecanduan teknologi sering kali dibarengi dengan komorbiditas, seperti depresi, anxiety, gangguan kepribadian.
Data OpenAI mengkonfirmasi pola ini: pengguna yang membahas bunuh diri dengan ChatGPT kemungkinan besar juga mengalami kondisi mental lain yang parah.
Ketergantungan pada ChatGPT, alih-alih menjadi solusi, dapat menjadi bagian dari siklus patologis yang memperdalam isolasi dan menghalangi pencarian bantuan profesional yang efektif.
OpenAI mengklaim bahwa GPT-5 memberikan respons lebih aman 65 persen lebih sering dibanding versi sebelumnya, dengan tingkat kepatuhan 91 persen dalam evaluasi terkait bunuh diri.
Namun dari perspektif Young, fokus pada "respons yang lebih baik" mengabaikan masalah struktural yang lebih dalam: mengapa jutaan orang mencari bantuan kesehatan mental dari algoritma di tempat pertama?
Perbaikan teknis tidak mengatasi epidemi kesepian, alienasi, dan ketiadaan support system yang membuat ChatGPT tampak seperti satu-satunya pilihan.
Konvergensi antara kritik filosofis dari Chalmers, Searle, Frankfurt, Han, Fromm, dan kerangka psikologis Young menghadirkan gambaran mengkhawatirkan.
Namun, dimensi epistemologis dari krisis ini memerlukan perhatian khusus, terutama mengingat data survei Sharing Vision yang mengungkap jurang epistemik yang mengkhawatirkan.
Karl Popper, dalam prinsip demarkasinya yang terkenal, mengajukan syarat utama bagi pengetahuan ilmiah: ia harus falsifiable atau dapat diuji dan dibantah.
Jika sistem AI generatif memberikan jawaban-jawaban yang terdengar meyakinkan, tapi tidak bisa diverifikasi atau bahkan dikonfirmasi kebenarannya, maka sistem itu tidak memenuhi syarat dasar pengetahuan ilmiah. Ia hanya menyerupai pengetahuan, tetapi tidak layak dipercaya tanpa pengujian ketat.
Data survei Sharing Vision mengkonfirmasi bahwa kita telah memasuki era post-truth di mana meyakinkan tidak sama dengan benar. Sebanyak 60 persen pengguna pernah terkecoh oleh jawaban AI yang meyakinkan tetapi keliru, 55 persen mengeluhkan inkonsistensi, 54 persen menyebut jawaban sering tidak relevan.
Namun, paradoksnya, 93 persen responden percaya bahwa AI akan menjadi bagian integral dari kehidupan dalam tiga tahun ke depan.
Ini adalah krisis epistemik fundamental: masyarakat modern telah kehilangan kapasitas untuk membedakan antara simulasi pengetahuan dan pengetahuan sejati, antara respons yang meyakinkan dan respons yang benar.
Baca juga: Mungkinkah AI Jadi Pemenang Hadiah Nobel?
Dalam konteks krisis bunuh diri, krisis epistemik ini menjadi krisis eksistensial: ketika seseorang mencari bantuan dalam momen paling rentan, kemampuan untuk membedakan antara empati yang simulatif dan empati yang autentik bisa menjadi perbedaan antara hidup dan mati.
Imre Lakatos, filsuf sains Hungaria, memperingatkan kita tentang perbedaan antara program riset progresif dan degeneratif.