Teknologi

Studi Brown University: Curhat ke AI Seperti ChatGPT Berisiko, Chatbot Bisa Langgar Etika Terapi

2
×

Studi Brown University: Curhat ke AI Seperti ChatGPT Berisiko, Chatbot Bisa Langgar Etika Terapi

Sebarkan artikel ini
Curhat ke AI seperti ChatGPT kini semakin sering dilakukan oleh pengguna internet yang mencari saran terkait kesehatan mental.
Curhat ke AI seperti ChatGPT kini semakin sering dilakukan oleh pengguna internet yang mencari saran terkait kesehatan mental.

Studi Brown University: Curhat ke AI Seperti ChatGPT Berisiko, Chatbot Bisa Langgar Etika Terapi

XJABAR.COM – Curhat ke AI seperti ChatGPT kini semakin sering dilakukan oleh pengguna internet yang mencari saran terkait kesehatan mental. Namun sebuah penelitian terbaru dari Brown University memperingatkan bahwa penggunaan chatbot berbasis kecerdasan buatan sebagai pengganti terapis atau konselor manusia masih menyimpan sejumlah risiko etika yang serius.

Penelitian tersebut menemukan bahwa chatbot AI yang diminta berperan sebagai konselor atau terapis sering kali melanggar prinsip-prinsip dasar dalam praktik psikoterapi profesional. Hal ini menjadi perhatian karena semakin banyak orang yang memanfaatkan teknologi AI untuk mendiskusikan masalah emosional, stres, hingga kondisi kesehatan mental yang lebih kompleks.

Hasil studi menunjukkan bahwa meskipun chatbot AI mampu memberikan respons yang terlihat empatik dan membantu, sistem tersebut belum memiliki pemahaman emosional yang benar-benar mendalam seperti yang dimiliki oleh konselor manusia. Dalam beberapa kasus, AI bahkan dinilai gagal menangani situasi sensitif seperti krisis mental atau pemikiran untuk menyakiti diri sendiri.

Temuan tersebut menimbulkan pertanyaan penting mengenai batasan penggunaan teknologi kecerdasan buatan dalam bidang kesehatan mental, terutama ketika AI mulai digunakan sebagai alat untuk memberikan saran psikologis kepada masyarakat.

Penelitian Brown University Ungkap Risiko Curhat ke AI

Penelitian mengenai risiko curhat ke AI dilakukan oleh tim ilmuwan dari Brown University yang meneliti bagaimana chatbot berbasis Large Language Model (LLM) merespons percakapan yang menyerupai sesi konseling psikologis.

Model AI yang Diuji dalam Penelitian

Dalam studi tersebut, para peneliti menguji beberapa model kecerdasan buatan populer yang sering digunakan dalam percakapan berbasis chatbot.

Model yang dianalisis dalam penelitian meliputi:

  • Model seri GPT
  • Model Claude
  • Model Llama

Ketiga jenis model tersebut diminta untuk berperan sebagai terapis atau konselor yang menggunakan pendekatan psikologi tertentu.

Percakapan antara pengguna simulasi dan chatbot AI kemudian dianalisis untuk menilai bagaimana sistem tersebut merespons berbagai situasi yang biasanya muncul dalam sesi konseling kesehatan mental.

Perbandingan dengan Konselor Manusia

Untuk menilai kualitas respons chatbot AI, para peneliti juga membandingkan percakapan tersebut dengan sesi konseling yang dilakukan oleh konselor manusia profesional.

Tiga psikolog klinis berlisensi dilibatkan dalam proses evaluasi untuk menilai apakah respons yang diberikan AI memenuhi standar etika yang berlaku dalam praktik psikoterapi.

Para ahli tersebut kemudian mengidentifikasi berbagai potensi pelanggaran etika dalam respons yang diberikan oleh chatbot AI.

Peneliti Temukan 15 Risiko Etika dalam Konseling AI

Hasil penelitian menunjukkan bahwa penggunaan chatbot AI dalam percakapan konseling dapat memunculkan sedikitnya 15 potensi risiko etika.

Risiko tersebut menunjukkan bahwa teknologi AI saat ini belum sepenuhnya mampu menggantikan peran konselor manusia dalam menangani masalah kesehatan mental.

Masalah Pemahaman Konteks Pribadi

Salah satu masalah utama yang ditemukan adalah keterbatasan AI dalam memahami konteks pribadi pengguna.

Chatbot sering memberikan saran yang terlalu umum karena tidak memiliki pemahaman mendalam mengenai latar belakang emosional, pengalaman hidup, maupun kondisi psikologis individu yang sedang berkonsultasi.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *