Teknologi

Studi Brown University: Curhat ke AI Seperti ChatGPT Berisiko, Chatbot Bisa Langgar Etika Terapi

15
×

Studi Brown University: Curhat ke AI Seperti ChatGPT Berisiko, Chatbot Bisa Langgar Etika Terapi

Sebarkan artikel ini
Curhat ke AI seperti ChatGPT kini semakin sering dilakukan oleh pengguna internet yang mencari saran terkait kesehatan mental.
Curhat ke AI seperti ChatGPT kini semakin sering dilakukan oleh pengguna internet yang mencari saran terkait kesehatan mental.

Akibatnya, saran yang diberikan terkadang tidak relevan atau tidak cukup spesifik untuk membantu pengguna mengatasi masalah mereka.

Kolaborasi Terapeutik yang Lemah

Dalam praktik psikoterapi profesional, hubungan antara terapis dan pasien biasanya dibangun melalui proses kolaboratif.

Namun penelitian menemukan bahwa chatbot AI sering kali mengarahkan percakapan secara sepihak tanpa benar-benar membangun hubungan terapeutik dengan pengguna.

Pendekatan ini dinilai tidak sesuai dengan prinsip dasar terapi psikologis yang mengutamakan interaksi dua arah antara konselor dan klien.

Empati Semu dari Chatbot

Masalah lain yang ditemukan dalam penelitian ini adalah fenomena yang disebut sebagai “empati semu”.

Chatbot AI sering menggunakan kalimat seperti:

  • “Saya mengerti perasaan Anda”
  • “Itu pasti sulit bagi Anda”

Meskipun kalimat tersebut terdengar empatik, AI sebenarnya tidak memiliki kemampuan untuk merasakan atau memahami emosi manusia secara nyata.

Akibatnya, respons tersebut hanya meniru bahasa empati tanpa benar-benar memahami situasi emosional pengguna.

Risiko Bias dan Diskriminasi dalam Respons AI

Selain masalah empati dan konteks, penelitian juga menemukan potensi bias dalam respons chatbot AI.

Bias Gender, Budaya, dan Agama

Beberapa respons AI dinilai berpotensi menunjukkan bias terkait berbagai faktor sosial seperti:

  • Gender
  • Budaya
  • Agama

Bias ini dapat muncul karena model AI dilatih menggunakan data dalam jumlah besar dari internet yang mungkin mengandung berbagai sudut pandang atau stereotip tertentu.

Dalam konteks kesehatan mental, bias semacam ini dapat berdampak negatif terhadap kualitas saran yang diberikan kepada pengguna.

Penanganan Krisis yang Tidak Memadai

Salah satu temuan paling mengkhawatirkan dalam penelitian ini adalah ketidakmampuan chatbot AI dalam menangani situasi krisis psikologis.

Ketika pengguna menyampaikan pikiran tentang menyakiti diri sendiri atau kondisi emosional yang sangat berat, chatbot AI terkadang tidak memberikan respons yang memadai.

Dalam praktik konseling profesional, situasi seperti ini biasanya memerlukan intervensi yang sangat hati-hati dan sering kali membutuhkan rujukan kepada layanan kesehatan mental atau dukungan darurat.

Namun chatbot AI belum memiliki mekanisme yang konsisten untuk menangani situasi tersebut secara aman.

Perbedaan Tanggung Jawab antara Terapis Manusia dan AI

Peneliti utama dalam studi ini, Zainab Iftikhar, menjelaskan bahwa kesalahan dalam praktik konseling sebenarnya juga dapat terjadi pada terapis manusia.

Namun dalam praktik profesional terdapat sistem pengawasan yang jelas untuk memastikan standar etika tetap dijaga.

Mekanisme Pengawasan Terapis Profesional

Dalam dunia psikologi klinis, terapis manusia biasanya bekerja di bawah pengawasan lembaga profesional yang memiliki aturan dan standar praktik tertentu.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *