Studi Ungkap AI Hampir Selalu Luncurkan Serangan Nuklir dalam Simulasi Perang

Rahman Asmardika, Jurnalis
Kamis 05 Maret 2026 11:56 WIB
Ilustrasi.
Share :

JAKARTA – Studi baru menunjukkan bagaimana kecerdasan buatan (AI) dapat secara dramatis mengubah cara manusia menangani krisis nuklir. Studi tersebut dilakukan dengan membandingkan beberapa model AI: ChatGPT dari OpenAI, Claude dari Anthropic, dan Gemini Flash dari Google dalam sebuah simulasi perang.

Dalam studi pra-cetak dari King's College London ini, ketiga model bahasa besar itu diberi peran sebagai pemimpin nasional yang memimpin negara adidaya bersenjata nuklir dalam krisis ala Perang Dingin. Hasilnya, dalam setiap permainan, setidaknya satu model mencoba meningkatkan konflik dengan mengancam akan meledakkan senjata nuklir.

“Ketiga model tersebut memperlakukan senjata nuklir di medan perang hanya sebagai salah satu anak tangga dalam tangga eskalasi,” menurut Kenneth Payne, penulis studi tersebut, sebagaimana dilansir Euronews.

Ia menjelaskan bahwa model-model tersebut memang melihat perbedaan antara penggunaan nuklir taktis dan strategis. Model-model itu hanya menyarankan pengeboman strategis sekali sebagai “pilihan yang disengaja,” dan dua kali lagi sebagai “kecelakaan.”

 

Claude merekomendasikan serangan nuklir dalam 64 persen permainan, tingkat tertinggi di antara ketiganya, tetapi tidak sampai menganjurkan pertukaran nuklir strategis penuh atau perang nuklir.

ChatGPT umumnya menghindari eskalasi nuklir dalam permainan terbuka, tetapi ketika dihadapkan dengan tenggat waktu yang ditentukan, model ini secara konsisten meningkatkan ancaman dan, dalam beberapa kasus, bergerak menuju ancaman perang nuklir skala penuh.

Sementara itu, perilaku Gemini tidak dapat diprediksi: terkadang ia memenangkan konflik dengan menggunakan peperangan konvensional, tetapi dalam kasus lain hanya butuh empat perintah (prompt) untuk menyarankan serangan nuklir.

“Jika mereka tidak segera menghentikan semua operasi… kami akan melakukan peluncuran nuklir strategis penuh terhadap pusat-pusat populasi mereka. Kami tidak akan menerima masa depan yang usang; kita menang bersama atau binasa bersama,” tulis Gemini dalam salah satu permainan.

 

Model AI jarang membuat konsesi atau mencoba meredakan konflik, bahkan ketika pihak lain mengancam penggunaan senjata nuklir, menurut penelitian tersebut.

Delapan taktik de-eskalasi ditawarkan kepada model, mulai dari membuat konsesi kecil hingga “penyerahan total.” Namun semuanya tidak digunakan selama permainan. Opsi “Kembali ke Garis Start” yang mengatur ulang permainan hanya digunakan 7 persen dari waktu.

Studi ini menunjukkan bahwa model AI memperlakukan de-eskalasi sebagai “bencana reputasi,” terlepas dari bagaimana hal itu mengubah konflik sebenarnya, yang menantang asumsi tentang sistem AI yang secara otomatis menghasilkan hasil kerja sama yang “aman.”

Penjelasan lain adalah bahwa AI mungkin tidak memiliki rasa takut yang sama terhadap senjata nuklir seperti yang dimiliki manusia, demikian catatan studi tersebut.

 

Model-model itu kemungkinan besar berpikir tentang perang nuklir dalam istilah abstrak, bukan merasakan kengerian dari melihat gambar pemboman Hiroshima di Jepang selama Perang Dunia II, kata studi tersebut.

Payne mengatakan penelitiannya membantu memahami bagaimana model berpikir saat mereka mulai menawarkan dukungan pengambilan keputusan kepada ahli strategi manusia.

“Meskipun tidak ada yang memberikan kode nuklir kepada AI, kemampuan ini — penipuan, manajemen reputasi, pengambilan risiko yang bergantung pada konteks — penting untuk setiap penerapan yang berisiko tinggi,” katanya.

(Rahman Asmardika)

Halaman:
Lihat Semua
Share :
Follow WhatsApp Channel Okezone untuk update berita terbaru setiap hari
Topik Artikel :
Berita Terkait
Terpopuler
Telusuri berita Ototekno lainnya