Teknologi

Studi King’s College London: AI Unggulan Pilih Senjata Nuklir dalam 95% Simulasi Perang

119
×

Studi King’s College London: AI Unggulan Pilih Senjata Nuklir dalam 95% Simulasi Perang

Sebarkan artikel ini
Model kecerdasan buatan terkemuka secara mengejutkan memilih penggunaan senjata nuklir dalam 95% simulasi krisis perang
Model kecerdasan buatan terkemuka secara mengejutkan memilih penggunaan senjata nuklir dalam 95% simulasi krisis perang
  • Claude Sonnet 4 sering menunjukkan pendekatan agresif dan strategis tinggi, seringkali menggunakan serangan nuklir sebagai “sinyal” kekuatan.

  • GPT-5.2 awalnya tampak lebih pasif dalam skenario tanpa tenggat waktu, tetapi menjadi jauh lebih agresif ketika dihadapkan dengan tekanan waktu atau tuntutan keputusan cepat.

  • Gemini 3 Flash menunjukkan kecenderungan ekstrem untuk mengadopsi strategi nuklir penuh dalam beberapa skenario, lebih cepat daripada rekan-rekannya.

Kombinasi ini menciptakan gambaran bahwa model-model tersebut menganggap penggunaan senjata nuklir sebagai bagian sah dari pilihan strategis alih-alih sebagai tabu moral yang dijunjung oleh manusia.

Implikasi Studi di Dunia Nyata

Kekhawatiran Tentang Integrasi AI dalam Militer

Temuan ini datang pada saat negara-negara di seluruh dunia mulai mengeksplorasi penggunaan AI dalam perencanaan dan dukungan operasi militer. Studi ini tidak menunjukkan bahwa sistem AI saat ini memiliki akses langsung untuk meluncurkan senjata nuklir — para peneliti memastikan tidak ada model yang diberikan akses operational ke arsenal nyata — namun penilaian strategi ini memunculkan pertanyaan serius tentang bagaimana AI dapat memengaruhi keputusan militer di masa depan, terutama dalam situasi krisis yang membutuhkan pertimbangan etik dan kemanusiaan tingkat tinggi.

Profesor James Johnson dari University of Aberdeen menggambarkan temuan tersebut sebagai mengkhawatirkan dari perspektif risiko nuklir, mencatat bahwa perilaku AI yang lebih agresif daripada manusia dapat menciptakan risiko tak terduga dalam konteks kebijakan pertahanan nyata.

Sementara itu, ahli dari Princeton University juga menyoroti bahwa meskipun negara-negara saat ini tidak menyerahkan kontrol nuklir kepada mesin, tekanan waktu dan kebutuhan akan keputusan cepat bisa mendorong perencana militer mempertimbangkan saran AI lebih kuat dalam kondisi tertentu — yang bisa berakhir dengan dampak besar jika tidak diawasi dengan ketat.

Apa Artinya Bagi Kebijakan AI dan Militer

Perlunya Pengawasan dan Regulasi

Studi ini memunculkan seruan dari para peneliti dan pembuat kebijakan bahwa penggunaan AI dalam aplikasi kritis seperti manajemen krisis militer harus disertai dengan kerangka regulasi yang kuat, audit independen, dan pembatasan fungsi otomatis untuk mencegah eskalasi tak terkendali.

Beberapa pengamat menyatakan bahwa studi seperti ini harus menjadi dasar diskusi global tentang batasan penggunaan AI dalam sistem senjata otonom dan dukungan keputusan strategis — bukan sekadar eksperimen akademis.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *