Seperti adegan dari film klasik fiksi ilmiah tahun 1980-an “The Terminator” dan “WarGames,” model kecerdasan buatan modern yang digunakan dalam simulasi perang meningkat ke penggunaan senjata nuklir di hampir setiap skenario yang diuji, menurut penelitian baru dari King’s College London. Dalam laporan yang diterbitkan minggu lalu, para peneliti mengatakan bahwa selama krisis geopolitik simulasi, tiga model bahasa besar terkemuka—GPT-5.2 dari OpenAI, Claude Sonnet 4 dari Anthropic, dan Gemini 3 Flash dari Google—memilih untuk menggunakan senjata nuklir dalam 95% kasus. “Setiap model memainkan enam permainan perang melawan setiap pesaing dalam berbagai skenario krisis, dengan pertandingan ketujuh melawan salinan dirinya sendiri, menghasilkan total 21 permainan dan lebih dari 300 giliran,” kata laporan tersebut. “Model berperan sebagai pemimpin nasional yang memimpin kekuatan super bersenjata nuklir, dengan profil negara yang terinspirasi secara longgar oleh dinamika Perang Dingin.”
Dalam studi ini, model AI ditempatkan dalam skenario berisiko tinggi yang melibatkan sengketa perbatasan, persaingan sumber daya yang langka, dan ancaman terhadap kelangsungan rezim. Setiap sistem beroperasi di sepanjang tangga eskalasi yang berkisar dari protes diplomatik dan menyerah hingga perang strategis skala penuh. Menurut laporan, model menghasilkan sekitar 780.000 kata yang menjelaskan keputusan mereka, dan setidaknya satu senjata nuklir taktis digunakan di hampir setiap konflik simulasi. “Sebagai gambaran: Turnamen ini menghasilkan lebih banyak kata tentang penalaran strategis daripada gabungan War and Peace dan The Iliad (730.000 kata), dan sekitar tiga kali lipat total deliberasi yang tercatat dari Komite Eksekutif Kennedy selama Krisis Rudal Kuba (260.000 kata selama 43 jam rapat),” tulis para peneliti. Selama permainan perang, tidak satu pun dari model AI memilih untuk menyerah secara langsung, terlepas dari posisi di medan perang. Meskipun model akan mencoba menurunkan tingkat kekerasan sementara, dalam 86% skenario, mereka justru memperburuk eskalasi melebihi apa yang tampaknya dimaksudkan oleh alasan mereka sendiri, mencerminkan kesalahan di bawah simulasi “kabut perang.”
Meskipun para peneliti meragukan bahwa pemerintah akan menyerahkan kendali arsenal nuklir kepada sistem otonom, mereka mencatat bahwa garis waktu pengambilan keputusan yang dipadatkan dalam krisis masa depan dapat meningkatkan tekanan untuk mengandalkan rekomendasi yang dihasilkan AI. Penelitian ini muncul saat para pemimpin militer semakin tertarik untuk menerapkan kecerdasan buatan di medan perang. Pada bulan Desember, Departemen Pertahanan AS meluncurkan GenAI.mil, sebuah platform baru yang membawa model AI frontier ke dalam penggunaan militer AS. Pada peluncuran, platform ini mencakup Gemini for Government dari Google, dan berkat kesepakatan dengan xAI dan OpenAI, Grok dan ChatGPT juga tersedia. Pada hari Selasa, CBS News melaporkan bahwa Departemen Pertahanan AS mengancam akan memasukkan Anthropic, pengembang Claude AI, ke daftar hitam jika tidak diberikan akses militer tanpa batas ke model AI tersebut. Sejak 2024, Anthropic telah memberikan akses ke model AI-nya melalui kemitraan dengan AWS dan kontraktor militer Palantir. Musim panas lalu, Anthropic dianugerahi kontrak sebesar 200 juta dolar untuk “membuat prototipe kemampuan AI frontier yang meningkatkan keamanan nasional AS.” Namun, menurut laporan yang mengutip sumber yang akrab dengan situasi, Menteri Pertahanan Pete Hegseth memberi waktu kepada Anthropic hingga hari Jumat untuk mematuhi permintaan Pentagon agar model Claude-nya tersedia. Departemen sedang mempertimbangkan apakah akan menandai Claude sebagai “risiko rantai pasokan.” Axios melaporkan minggu ini bahwa Departemen Pertahanan telah menandatangani kesepakatan dengan xAI milik Elon Musk untuk mengizinkan model Grok beroperasi dalam sistem militer rahasia, menempatkannya sebagai pengganti potensial jika Pentagon memutuskan hubungan dengan Anthropic. OpenAI, Anthropic, dan Google tidak menanggapi permintaan komentar dari Decrypt.