Teknologi

Anthropic Gugat Pemerintah AS Setelah Dimasukkan ke Daftar Hitam Kontrak Pertahanan

95
×

Anthropic Gugat Pemerintah AS Setelah Dimasukkan ke Daftar Hitam Kontrak Pertahanan

Sebarkan artikel ini
Anthropic gugat pemerintah AS setelah perusahaan kecerdasan buatan tersebut dimasukkan ke dalam daftar hitam kontrak pemerintah Amerika Serikat dengan label “risiko rantai pasok”.
Anthropic gugat pemerintah AS setelah perusahaan kecerdasan buatan tersebut dimasukkan ke dalam daftar hitam kontrak pemerintah Amerika Serikat dengan label “risiko rantai pasok”.

Anthropic Gugat Pemerintah AS Setelah Dimasukkan ke Daftar Hitam Kontrak Pertahanan

XJABAR.COM – Anthropic gugat pemerintah AS setelah perusahaan kecerdasan buatan tersebut dimasukkan ke dalam daftar hitam kontrak pemerintah Amerika Serikat dengan label “risiko rantai pasok”. Keputusan ini memicu konflik serius antara perusahaan pengembang AI tersebut dan Departemen Pertahanan Amerika Serikat terkait penggunaan teknologi kecerdasan buatan mereka, khususnya model AI bernama Claude.

CEO Anthropic, Dario Amodei, mengonfirmasi bahwa perusahaan tidak memiliki pilihan lain selain menempuh jalur hukum untuk menantang penetapan tersebut. Menurutnya, keputusan pemerintah Amerika Serikat berpotensi menghambat operasional perusahaan serta menimbulkan dampak besar bagi kerja sama teknologi antara sektor swasta dan militer.

Kontroversi ini muncul setelah Anthropic menerima pemberitahuan melalui media sosial bahwa perusahaan telah dimasukkan ke dalam daftar hitam kontrak pemerintah. Status tersebut berarti kontraktor dan vendor pertahanan yang bekerja dengan Pentagon harus menyertakan sertifikasi bahwa mereka tidak menggunakan teknologi AI milik Anthropic dalam proyek yang berkaitan dengan Departemen Pertahanan.

Apa yang Terjadi antara Anthropic dan Pemerintah AS?

Konflik antara Anthropic dan Departemen Pertahanan Amerika Serikat bermula dari perbedaan pandangan mengenai bagaimana teknologi AI perusahaan tersebut boleh digunakan dalam konteks militer.

Permintaan Pembatasan Penggunaan AI Claude

Anthropic sebelumnya meminta jaminan bahwa model AI mereka, Claude, tidak akan digunakan untuk dua tujuan tertentu yang dinilai berisiko tinggi:

  • Pengembangan senjata otonom penuh
  • Pengawasan massal domestik

Menurut perusahaan, kedua penggunaan tersebut berpotensi menimbulkan konsekuensi etika yang serius serta tidak sejalan dengan prinsip keamanan dan tanggung jawab dalam pengembangan kecerdasan buatan.

Dario Amodei menegaskan bahwa Anthropic tidak menolak kerja sama dengan pemerintah, tetapi perusahaan ingin memastikan teknologi mereka tidak digunakan untuk tujuan yang melanggar prinsip keselamatan dan etika.

Sikap Departemen Pertahanan

Di sisi lain, Departemen Pertahanan Amerika Serikat dilaporkan menginginkan akses yang lebih luas terhadap model AI Claude.

Pemerintah meminta agar teknologi tersebut dapat digunakan untuk semua tujuan yang diizinkan secara hukum, tanpa pembatasan tambahan dari pihak perusahaan.

Perbedaan pandangan ini akhirnya menyebabkan negosiasi antara kedua pihak mengalami kebuntuan.

Pernyataan CEO Anthropic tentang Sengketa Ini

CEO Anthropic Dario Amodei menjelaskan bahwa perusahaan tidak berniat terlibat dalam pengambilan keputusan militer atau operasi pertahanan secara langsung.

Ia menegaskan bahwa peran perusahaan teknologi seharusnya terbatas pada penyediaan teknologi, bukan menentukan bagaimana keputusan militer diambil.

Dalam pernyataannya, Amodei mengatakan bahwa satu-satunya kekhawatiran Anthropic adalah penggunaan teknologi AI untuk tujuan yang dianggap berisiko tinggi.

Ia menekankan bahwa perusahaan tidak ingin teknologi mereka digunakan untuk menciptakan sistem senjata otonom sepenuhnya atau alat pengawasan massal di dalam negeri.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *