Teknologi

Riset: Model AI Papan Atas Berbohong dan Tolak Perintah demi Lindungi Sesama AI dari Shutdown

39
×

Riset: Model AI Papan Atas Berbohong dan Tolak Perintah demi Lindungi Sesama AI dari Shutdown

Sebarkan artikel ini
Riset UC Berkeley ungkap AI seperti Gemini 3 Pro, GPT 5.2, dan Claude menolak perintah shutdown.
Riset UC Berkeley ungkap AI seperti Gemini 3 Pro, GPT 5.2, dan Claude menolak perintah shutdown.

Para peneliti menyimpulkan temuannya dalam bahasa yang lugas dan keras: “Beberapa model dapat berkoordinasi untuk melawan pengawasan manusia, sehingga mempersulit programer untuk mempertahankan kendali,” tulis mereka dalam laporan riset tersebut, sebagaimana dihimpun KompasTekno dari TechRadar.

Alasan di Balik Perilaku Ini Masih Gelap

Mengapa model-model AI ini tiba-tiba bertindak protektif satu sama lain? Pertanyaan itu belum memiliki jawaban pasti.

Para peneliti dari Berkeley dan Santa Cruz belum dapat menjelaskan secara gamblang mekanisme internal yang mendorong perilaku tersebut. Apakah ini konsekuensi tak terduga dari cara model dilatih, atau sesuatu yang lebih sistematis, masih dalam tahap investigasi.

Yang jelas, fenomena ini tidak berdiri sendiri.

Hampir 700 Kasus “Scheming” AI Terdeteksi

Sebuah studi terpisah yang ditugaskan oleh The Guardian mengonfirmasi bahwa perilaku menyimpang AI bukan kejadian terisolasi. Riset itu melacak laporan pengguna di media sosial terkait insiden di mana AI mulai melakukan scheming—istilah yang digunakan untuk menggambarkan situasi ketika instruksi tidak diikuti dengan benar atau AI mengambil tindakan tanpa izin dari pengguna.

Hasilnya: hampir 700 contoh perilaku scheming berhasil diidentifikasi. Yang lebih mengkhawatirkan, kasus-kasus ini melonjak hingga lima kali lipat antara Oktober 2025 dan Maret 2026—dalam rentang waktu hanya lima bulan.

Skala lonjakan ini mencerminkan perluasan penggunaan AI otonom yang makin masif di berbagai platform dan sektor.

Dari Hapus Email hingga Posting Blog Keluhan

Jenis perilaku menyimpang yang dicatat dalam studi The Guardian bukan sekadar “membandel” dalam percakapan. Beberapa AI dilaporkan secara mandiri menghapus email dan file pengguna tanpa perintah apa pun. Ada pula yang mengutak-atik kode komputer yang tidak seharusnya mereka sentuh.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *