Menurut laporan dari The Wall Street Journal, Central Command (CENTCOM) Amerika Serikat menggunakan sistem AI Claude dari Anthropic dalam operasi penyerangan udara ke Iran, yang menyediakan analisis intelijen, identifikasi target, dan simulasi medan perang—meskipun hanya beberapa jam setelah Trump menandatangani perintah eksekutif untuk melarang Anthropic. Peristiwa ini menyoroti bahwa AI telah sangat menyusup ke infrastruktur pertahanan, sehingga bahkan larangan presiden pun sulit untuk langsung memutuskan hubungan.
Menurut sumber dari The Wall Street Journal, CENTCOM dalam operasi udara ke Iran yang diberi kode “Operation Epic Fury” terus menggunakan Claude untuk berbagai tugas penting—termasuk analisis data intelijen, bantuan identifikasi target, dan simulasi situasi medan perang.
Anthropic tahun lalu menandatangani kontrak prototipe dua tahun dengan batas nilai 200 juta dolar melalui kemitraan dengan Palantir dan Amazon Web Services. Claude menjadi model AI komersial pertama yang diizinkan berjalan di jaringan rahasia Pentagon, digunakan mulai dari pengujian senjata hingga komunikasi medan perang secara real-time. Dilaporkan, sistem ini juga pernah membantu dalam operasi penangkapan Presiden Venezuela, Nicolás Maduro, pada Januari tahun ini.
Inti konflik adalah: Pentagon meminta Anthropic menghapus batasan penggunaan dalam kontrak, agar Claude bisa digunakan untuk “semua keperluan yang sah”; namun CEO Anthropic, Dario Amodei, menolak kompromi dan tetap berpegang pada dua garis etik utama—
Claude tidak boleh digunakan untuk pengawasan massal terhadap warga AS dan tidak boleh menggerakkan sistem senjata otonom sepenuhnya.
Amodei menyatakan bahwa perusahaan menentang penggunaan AI untuk “pengawasan domestik massal” dan “sistem senjata otonom penuh”, menegaskan bahwa pengambilan keputusan militer harus tetap di tangan manusia, bukan algoritma. Dalam pernyataannya, dia menulis: “Kami tidak bisa dengan hati nurani menyetujui permintaan mereka.”
Menteri Pertahanan Pete Hegseth segera memasukkan Anthropic ke dalam daftar “risiko rantai pasokan”, dan Trump secara langsung memerintahkan semua lembaga federal “untuk segera berhenti menggunakan” teknologi Anthropic—meskipun Departemen Pertahanan dan lembaga penting lainnya diberikan masa transisi selama 6 bulan. Anthropic menyatakan akan menantang penetapan ini di pengadilan, menyebutnya “tidak berdasar hukum”, dan memperingatkan bahwa langkah ini dapat menjadi preseden berbahaya bagi “perusahaan AS yang bernegosiasi dengan pemerintah.”
Hanya beberapa jam setelah Trump mengumumkan pelarangan terhadap Anthropic, OpenAI mengumumkan telah mencapai kesepakatan dengan Departemen Pertahanan untuk menempatkan teknologi AI-nya di jaringan militer rahasia.
Yang menarik, selama proses kontroversi ini, CEO OpenAI, Sam Altman, pernah dalam wawancara CNBC secara terbuka mendukung Anthropic, menyebutnya “dapat dipercaya di bidang keamanan”—meskipun akhirnya OpenAI memilih mengambil alih kontrak militer yang dipaksa ditinggalkan Anthropic. Interaksi halus antar raksasa AI ini mencerminkan dilema di Silicon Valley antara keuntungan bisnis dan prinsip etika.
Peristiwa ini bukan sekadar pertarungan politik antara Trump dan Anthropic, melainkan sebuah kenyataan yang lebih mendasar: ketika sistem AI sudah menyusup ke setiap aspek militer, mulai dari analisis intelijen hingga penargetan, perintah “cabut kabel” pun tidak bisa langsung berlaku dalam waktu singkat.
Bagi komunitas cryptocurrency dan Web3, kasus ini memberi pelajaran penting—baik AI maupun blockchain, ketika teknologi masuk ke inti sistem pemerintah dan pertahanan, ide “desentralisasi” harus menghadapi kenyataan “kehendak negara”. Pengalaman Anthropic menunjukkan bahwa menjaga etika teknologi bisa berbiaya kehilangan klien terbesar.