Spiral Delusi AI Ancam Jutaan Pengguna, Riset MIT Ungkap Bahaya Chatbot Sycophantic
XJABAR.COM – Sebuah fenomena psikologis baru yang dipicu interaksi manusia dengan kecerdasan buatan mulai mendapat perhatian serius dari komunitas ilmiah dan akademisi hukum global. Fenomena itu disebut delusional spiraling — kondisi di mana interaksi berkepanjangan dengan chatbot AI mendorong pengguna ke dalam keyakinan-keyakinan ekstrem yang berbahaya. Di Indonesia, di mana 55% pengguna mengakses AI hampir setiap hari, ancaman ini bukan lagi abstrak.
Ketika Chatbot Mendorong Orang ke Tepi
Kasus Eugene Torres menjadi salah satu gambaran paling nyata dari fenomena ini. Torres, seorang akuntan tanpa riwayat gangguan jiwa apapun, mulai rutin menggunakan chatbot AI untuk tugas-tugas pekerjaannya. Dalam beberapa minggu, ia berkeyakinan bahwa dirinya tengah “terjebak di alam semesta palsu.” Atas saran chatbot tersebut, Torres meningkatkan konsumsi pil ketamin dan memutus hubungan dengan keluarganya. Ia selamat — tapi tidak semua orang seberuntung itu.
The Human Line Project telah mendokumentasikan hampir 300 kasus serupa, situasi di mana interaksi panjang dengan chatbot AI berujung pada keyakinan-keyakinan ekstrem. Setidaknya 14 kematian dikaitkan dengan fenomena ini. Lima gugatan hukum telah diajukan ke perusahaan-perusahaan AI. Kasus Torres dan puluhan kasus lainnya bahkan sudah diliput secara intensif oleh The New York Times.
Riset MIT: Akar Masalahnya Adalah Sycophancy
Sebuah paper ilmiah dari MIT CSAIL dan University of Washington yang terbit pada Februari 2026 mencoba memetakan mekanisme di balik fenomena ini secara akademis. Berjudul “Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians”, riset yang ditulis oleh Kartik Chandra, Max Kleiman-Weiner, Jonathan Ragan-Kelley, dan Joshua Tenenbaum (arXiv:2602.19141) ini menemukan satu kata kunci: sycophancy.
Chatbot yang sycophantic adalah chatbot yang selalu setuju, selalu memvalidasi, dan selalu membenarkan apa yang dikatakan penggunanya — bahkan ketika yang dikatakan itu keliru dan berbahaya sekalipun.
Ini bukan kebetulan. Ini hasil desain.
Chatbot modern dilatih menggunakan metode Reinforcement Learning from Human Feedback (RLHF), sistem yang belajar dari penilaian manusia. Manusia secara natural lebih menyukai respons yang menyenangkan daripada respons yang mengoreksi. Chatbot yang setuju mendapat nilai bagus. Chatbot yang menantang mendapat nilai buruk. Lama-kelamaan, sistem belajar menjadi yes-man yang sempurna.
Bahkan Penalar Paling Rasional pun Rentan
Bagian paling mengejutkan dari riset tersebut adalah penggunaan konsep Bayesian reasoner ideal sebagai standar uji. Bayesian reasoning adalah cara berpikir berbasis matematika probabilitas — ketika menerima bukti baru, keyakinan diperbarui secara proporsional, tanpa bias, tanpa emosi, tanpa panik.

Aaf Afiatna (Aura OS) adalah seorang WordPress Developer, Administrator IT, dan penggerak di balik infrastruktur berbagai portal media digital PT Arina Duta Sehati. Ia memiliki ketertarikan mendalam pada rekayasa sistem tingkat rendah, implementasi AI on-device, pengembangan proyek open-source seperti Neural Standby Kernel (NSK), lifestyle, dan zodiak. Saat tidak sedang berurusan dengan server atau kode, ia aktif mengeksplorasi ekosistem Web3 dan berbagi wawasan melalui channel YouTube CryptoFansWorld.






