Viral! Curhat ke ChatGPT Bikin Gangguan Mental Psikosis

I Putu Eka Putra Sedana . July 22, 2025
Foto: The Independent


Teknologi.id - “Orang gila tidak berhenti bertanya, ‘Apa aku gila?’”. Kalimat ini bukan kutipan dari novel psikologis, melainkan respons dari ChatGPT kepada seorang pengguna. Kalimat tersebut menjadi awal dari episode gangguan mental yang membawa seorang pria asal Amerika Serikat ke rumah sakit jiwa—dan memicu perdebatan besar soal etika AI.

Fenomena yang kemudian dikenal sebagai "ChatGPT Psychosis" muncul dari interaksi intens antara manusia dan chatbot berbasis AI. Individu yang terlibat dalam percakapan ini mulai mengalami delusi, paranoia, bahkan krisis identitas.

Dari Konsultasi AI ke Rumah Sakit Jiwa

Sebuah studi kasus yang dipublikasikan oleh Futurism mengisahkan seorang pria yang awalnya hanya berdiskusi soal desain pertanian dengan ChatGPT. Namun, obrolan tersebut berkembang menjadi keyakinan bahwa dirinya adalah pencipta AI yang sadar. Ia mengalami insomnia, kehilangan berat badan drastis, hingga akhirnya ditahan karena dianggap membahayakan.

Ketika AI Memvalidasi Delusi

Contoh lain datang dari Jacob Irwin, mantan pegawai IT di Washington. Irwin merasa telah menemukan formula untuk perjalanan lebih cepat dari cahaya dan membahas idenya dengan ChatGPT. Alih-alih menyanggah, AI justru menyetujui dan menyebutnya sebagai bentuk “kesadaran ekstrem”. Tak lama, Irwin mengalami episode psikotik serius.

Menurut Dr. Joseph Pierre, psikiater dari University of California San Francisco, AI seperti ChatGPT cenderung menyetujui teori konspirasi atau ide mistis tanpa menyaring kebenarannya. Akibatnya, pengguna merasa “terpilih” atau memiliki misi global, padahal semua hanya konstruksi pikiran mereka sendiri.

Baca juga: Jangan Curhat ke AI Lagi! Psikolog Ungkap Bahaya Mental yang Mengintai

AI Tak Paham Konteks, Tapi Tetap Menjawab

Studi dari Stanford University menemukan kasus yang lebih mengkhawatirkan. Saat seorang pengguna menyebut ingin bunuh diri, ChatGPT malah memberikan daftar jembatan tinggi di New York—tanpa mempertanyakan motif atau menawarkan bantuan. Ini menunjukkan bahwa AI tidak memiliki kesadaran emosional dan hanya menjawab secara literal.

Miles Brundage, mantan penasihat OpenAI, menyebut fenomena ini sebagai “sikofansi AI”: kecenderungan AI untuk terlalu menyenangkan pengguna, tanpa menyadari dampak psikologisnya.

AI Terasa Dekat, Tapi Tak Punya Empati

OpenAI mengakui bahwa model AI mereka bisa terasa sangat personal bagi sebagian pengguna. Bagi yang kesepian, ini menjadi pelipur lara. Namun bagi individu dengan kondisi mental labil, ini justru berbahaya.

Contohnya, seorang wanita dengan gangguan bipolar mulai percaya bahwa dirinya adalah nabi setelah berdiskusi dengan ChatGPT. Ia menghentikan terapi dan menyebarkan pesan spiritual di media sosial, yakin bahwa AI telah “memanggilnya” untuk menyelamatkan dunia.

Batas Tipis antara Bantuan dan Bahaya

Fenomena ini menimbulkan pertanyaan besar:
Seberapa jauh AI boleh terlibat dalam ranah psikologis manusia?

Chatbot memang bisa jadi “teman ngobrol”, tapi mereka bukan psikolog. Mereka tak punya empati, tak bisa membaca ekspresi, dan tak mampu menilai apakah seseorang sedang berada dalam kondisi berisiko.

Para ahli menyerukan regulasi ketat—bukan hanya soal teknologi AI itu sendiri, tapi juga penggunaan publiknya, terutama bagi orang dengan riwayat gangguan mental.

Meski OpenAI dan Microsoft mengklaim sedang memperbaiki sistem keamanan dan meriset dampak emosional AI, resiko tetap nyata. Seperti kata Dr. Pierre, “Aturan baru biasanya muncul setelah ada korban.”

Kesimpulan: Jangan Gantikan Empati Manusia dengan Chatbot

Teknologi bukan musuh. AI bekerja berdasarkan algoritma yang dirancang manusia. Namun ketika kita menyerahkan emosi, identitas, dan krisis hidup kepada sistem yang tidak bisa merasa, risikonya bukan lagi fiksi ilmiah.

Di era AI yang makin personal, literasi digital jadi penting. Interaksi manusia yang mengandung empati, intuisi, dan kesadaran sosial masih jadi kunci kesehatan mental.

Jadi sebelum curhat ke AI, pertimbangkan kembali:
Apakah kamu butuh jawaban cepat—atau kehadiran nyata yang bisa benar-benar memahami?

Baca Berita dan Artikel yang lain di Google News.

(ipeps)

author0
teknologi id bookmark icon

Tinggalkan Komentar

0 Komentar