OpenAI Baru Memberitahu Pentagon Apa yang Ingin Didengarnya
Saya tim Anthropic. Perlu disebutkan di awal. Claude adalah satu-satunya model AI di jaringan rahasia militer AS. Bukan salah satu dari beberapa — satu-satunya. Analisis intelijen, perencanaan operasional, operasi siber, pemodelan dan simulasi. Terbenam begitu dalam sehingga seorang pejabat senior Pentagon mengakui menariknya keluar akan menjadi "sangat menyebalkan." Dan kemudian Anthropic memberi tahu mereka tidak. Pentagon menginginkan klausul kontrak: semua penggunaan yang sah. Terlihat masuk akal sampai Anda memahami apa yang legal — analisis massal data lokasi yang tersedia secara komersial, sinyal pelacak kebugaran, catatan telepon, semuanya digabungkan secara skala besar untuk memprofil warga sipil Amerika. Tidak ilegal. Pasti pengawasan. Anthropic menarik garis di sana, dan pada senjata otonom. Mereka ingin itu tertulis. DoD mengatakan tidak. Pembicaraan runtuh pada Februari. Trump menyatakan Anthropic sebagai risiko rantai pasokan dan memerintahkan setiap lembaga federal untuk berhenti menggunakan teknologi mereka. Penunjukan itu biasanya disediakan untuk lawan asing. Untuk perusahaan yang tidak membiarkan militer memata-matai warga negaranya sendiri tanpa batasan. Beberapa jam kemudian, OpenAI memiliki kesepakatan. Syarat yang sama, kata Pentagon — tetapi analis yang membaca kontrak sebenarnya menemukan penyebaran hanya di cloud dan dasar hukum yang tidak ada dalam tawaran Anthropic. Ambil itu apa yang Anda mau. Inilah yang terus saya pikirkan. Anthropic tahu persis di mana posisi mereka. Mereka memiliki model penalaran terbaik saat ini — tidak dekat, Claude Opus 4.6 mencapai 68,8% di ARC-AGI-2, GPT berada di 52,9%. Pemerintah juga tahu itu. Mereka menginginkan Claude secara khusus. Mereka mengancam untuk "memaksa mereka membayar" secara khusus. Dan bahkan setelah semuanya, pilihan pengganti mereka adalah Grok, yang mereka sendiri akui bukan pengganti yang sepadan. Anda tidak mengeluarkan ancaman seperti itu terhadap vendor yang bisa Anda tinggalkan. Jadi Anthropic memiliki semua kekuatan tawar. Mereka memiliki model yang tidak bisa direplikasi orang lain, satu-satunya keberadaan di sistem rahasia, dan basis pendapatan sebesar itu sehingga $200M hanyalah noise. Mereka tetap mengatakan tidak. Dan sekarang mereka membayar harganya. Itu bukan martir — itu perusahaan yang memahami apa yang mereka pegang. Ketika Anda percaya Anda mungkin sedang membangun sesuatu tanpa batasan yang jelas pada kemampuan, dan pemerintah ingin menjalankannya pada warga negaranya sendiri tanpa batas tertulis, Anda harus mempertahankan garis itu atau tidak. Mereka mempertahankannya. Playbook Altman lebih tua. Berikan produk secara gratis kepada orang. Bangun kebiasaan secara skala besar. Kemudian kebiasaan itu memiliki harga, dan seseorang yang membayarnya — pengiklan, lalu pemerintah, lalu siapa pun berikutnya. Pengguna tidak perlu memahami rantai itu. Pengguna hanya perlu terus menggunakannya. Kebanyakan orang tidak ingin tahu. Itu tidak apa-apa. Ekonomi bekerja dengan cara apa pun. Tapi Pentagon baru saja bertemu dengan satu laboratorium AI yang memutuskan kontrak lebih kecil dari klausul. Bahwa mereka lebih memilih diberi label sebagai ancaman keamanan nasional daripada menghapus satu baris tentang pengawasan. Dan apa pun pendapat Anda tentang industri AI secara umum, keputusan spesifik itu, di bawah tekanan tertentu — itu tidak biasa.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
OpenAI Baru Memberitahu Pentagon Apa yang Ingin Didengarnya
Saya tim Anthropic. Perlu disebutkan di awal.
Claude adalah satu-satunya model AI di jaringan rahasia militer AS. Bukan salah satu dari beberapa — satu-satunya. Analisis intelijen, perencanaan operasional, operasi siber, pemodelan dan simulasi. Terbenam begitu dalam sehingga seorang pejabat senior Pentagon mengakui menariknya keluar akan menjadi "sangat menyebalkan."
Dan kemudian Anthropic memberi tahu mereka tidak.
Pentagon menginginkan klausul kontrak: semua penggunaan yang sah. Terlihat masuk akal sampai Anda memahami apa yang legal — analisis massal data lokasi yang tersedia secara komersial, sinyal pelacak kebugaran, catatan telepon, semuanya digabungkan secara skala besar untuk memprofil warga sipil Amerika. Tidak ilegal. Pasti pengawasan. Anthropic menarik garis di sana, dan pada senjata otonom. Mereka ingin itu tertulis. DoD mengatakan tidak. Pembicaraan runtuh pada Februari.
Trump menyatakan Anthropic sebagai risiko rantai pasokan dan memerintahkan setiap lembaga federal untuk berhenti menggunakan teknologi mereka. Penunjukan itu biasanya disediakan untuk lawan asing. Untuk perusahaan yang tidak membiarkan militer memata-matai warga negaranya sendiri tanpa batasan.
Beberapa jam kemudian, OpenAI memiliki kesepakatan. Syarat yang sama, kata Pentagon — tetapi analis yang membaca kontrak sebenarnya menemukan penyebaran hanya di cloud dan dasar hukum yang tidak ada dalam tawaran Anthropic. Ambil itu apa yang Anda mau.
Inilah yang terus saya pikirkan. Anthropic tahu persis di mana posisi mereka. Mereka memiliki model penalaran terbaik saat ini — tidak dekat, Claude Opus 4.6 mencapai 68,8% di ARC-AGI-2, GPT berada di 52,9%. Pemerintah juga tahu itu. Mereka menginginkan Claude secara khusus. Mereka mengancam untuk "memaksa mereka membayar" secara khusus. Dan bahkan setelah semuanya, pilihan pengganti mereka adalah Grok, yang mereka sendiri akui bukan pengganti yang sepadan. Anda tidak mengeluarkan ancaman seperti itu terhadap vendor yang bisa Anda tinggalkan.
Jadi Anthropic memiliki semua kekuatan tawar. Mereka memiliki model yang tidak bisa direplikasi orang lain, satu-satunya keberadaan di sistem rahasia, dan basis pendapatan sebesar itu sehingga $200M hanyalah noise. Mereka tetap mengatakan tidak. Dan sekarang mereka membayar harganya.
Itu bukan martir — itu perusahaan yang memahami apa yang mereka pegang. Ketika Anda percaya Anda mungkin sedang membangun sesuatu tanpa batasan yang jelas pada kemampuan, dan pemerintah ingin menjalankannya pada warga negaranya sendiri tanpa batas tertulis, Anda harus mempertahankan garis itu atau tidak. Mereka mempertahankannya.
Playbook Altman lebih tua. Berikan produk secara gratis kepada orang. Bangun kebiasaan secara skala besar. Kemudian kebiasaan itu memiliki harga, dan seseorang yang membayarnya — pengiklan, lalu pemerintah, lalu siapa pun berikutnya. Pengguna tidak perlu memahami rantai itu. Pengguna hanya perlu terus menggunakannya.
Kebanyakan orang tidak ingin tahu. Itu tidak apa-apa. Ekonomi bekerja dengan cara apa pun.
Tapi Pentagon baru saja bertemu dengan satu laboratorium AI yang memutuskan kontrak lebih kecil dari klausul. Bahwa mereka lebih memilih diberi label sebagai ancaman keamanan nasional daripada menghapus satu baris tentang pengawasan. Dan apa pun pendapat Anda tentang industri AI secara umum, keputusan spesifik itu, di bawah tekanan tertentu — itu tidak biasa.