Chief Executive Officer Anthropic, Amodei, bocor internal memo yang secara tegas menyatakan bahwa pernyataan CEO OpenAI, Altman, adalah “bohong sepenuhnya”, dan kedua raksasa AI ini sedang berhadapan langsung terkait kontrak militer.
(Prakata: Sam Altman dianggap kejam? Setelah mendukung penutupan Anthropic oleh Pentagon, mereka berbalik dan menuntut OpenAI mendapatkan kontrak dari Departemen Pertahanan AS)
(Latar belakang tambahan: Laporan dari Wall Street Journal mengungkapkan: Trump menargetkan Iran dan Hamedani dengan Claude AI, dan OpenAI mengambil alih sistem Pentagon secara menyeluruh)
Daftar Isi Artikel
Toggle
Satu
Sebuah memo internal dari CEO Anthropic, Dario Amodei, yang ditulis untuk karyawan, bocor ke publik. Dalam memo tersebut, dia secara tegas menyatakan bahwa pernyataan CEO OpenAI, Sam Altman, adalah “bohong sepenuhnya”, dan menyebut transaksi terbaru mereka dengan Pentagon sebagai “panggung keamanan palsu”.
Dua perusahaan AI terbesar di dunia ini, dalam satu isu yang bisa menentukan arah AI selama dekade berikutnya, benar-benar saling berhadapan.
Pemicu konflik ini bermula dari kontrak militer senilai 200 juta dolar yang dimiliki Anthropic. Melalui kerjasama dengan Palantir, Claude AI milik Anthropic sudah diterapkan di jaringan militer rahasia.
Namun, situasi berubah drastis pada akhir Februari, ketika Pentagon mengirim ultimatum terakhir kepada Anthropic: Hapus semua batasan penggunaan AI, dan izinkan akses tanpa batas untuk “setiap penggunaan yang sah”, jika tidak, kontrak akan dihentikan sebelum 27 Februari dan perusahaan akan masuk daftar hitam.
CEO Amodei segera menolak secara terbuka, menyatakan bahwa mereka “tidak bisa menutup mata dan hati” menerima syarat tersebut, dan menegaskan dua garis merah yang tidak boleh dilanggar:
Baca juga: Trump ingin sepenuhnya menutup Anthropic! Menolak modifikasi Claude “pembatasan pembunuhan”
Balasan pun datang dengan cepat dan keras. Beberapa jam setelah penolakan Anthropic, pemerintahan Trump memasukkan perusahaan ini ke dalam daftar “risiko rantai pasokan” (biasanya digunakan untuk kekuatan asing yang bermusuhan), secara efektif memblokir semua kontrak federal dan menyebut perusahaan sebagai “radikal kiri, bangkitnya kesadaran, dan risiko keamanan nasional.”
Pada 28 Februari, hanya beberapa jam setelah Anthropic diblokir, Altman mengumumkan bahwa OpenAI telah mencapai kesepakatan dengan Departemen Pertahanan. Dalam pernyataan resmi di blog, OpenAI menyatakan bahwa kontrak tersebut mencakup perlindungan “garis merah” yang sama seperti Anthropic: larangan terhadap sistem senjata otonom, pengawasan domestik skala besar, dan pengambilan keputusan otomatis penting.
Namun, rahasia tersembunyi di balik detailnya. Kontrak OpenAI mengizinkan “setiap penggunaan yang sah”, berbeda dengan Anthropic yang secara tegas melarangnya secara tertulis. OpenAI menjelaskan: “Dalam interaksi kami, Departemen Pertahanan secara tegas menyatakan bahwa pengawasan domestik skala besar adalah ilegal, dan mereka tidak memiliki rencana tersebut.”
Para kritikus segera menunjukkan masalahnya: hukum itu bisa berubah. Apa yang hari ini dianggap ilegal, bisa jadi di masa depan diizinkan. Ini membuat perlindungan kontrak berdasarkan “penggunaan yang sah” secara esensial rapuh.
Dalam memo yang bocor, Amodei menilai perang opini ini secara jujur:
Saya rasa upaya mengendalikan opini publik ini tidak efektif. Kebanyakan orang menganggap transaksi OpenAI dengan Departemen Pertahanan mencurigakan, dan kami adalah pahlawan.
Dia bahkan lebih keras menuduh motivasi Altman:
Alasan utama mereka menerima dan kami menolak, adalah karena mereka peduli untuk menenangkan karyawan, sementara kami benar-benar peduli mencegah penyalahgunaan.
Menurut laporan dari TechCrunch, Amodei dalam memo juga menuduh Altman “menyamar sebagai pembawa perdamaian dan ahli transaksi”. Menanggapi kritik yang membanjiri, Altman mengakui dalam rapat seluruh staf OpenAI bahwa keputusan ini membawa konsekuensi merek yang sangat sulit, tetapi dia membela bahwa ini adalah keputusan yang kompleks namun benar demi keamanan nasional.
Seiring berjalannya waktu, pengguna pun mulai bertindak nyata sebagai bentuk voting. Baru-baru ini, jumlah pengguna ChatGPT yang dihapus dari platform meningkat pesat; sementara itu, jumlah unduhan Claude dari Anthropic melonjak secara signifikan.
Anthropic memilih untuk menolak dan menanggung konsekuensinya, yaitu kehilangan kontrak federal dan hubungan pemerintah; OpenAI memilih untuk bekerja sama tetapi dengan batasan, sehingga kehilangan kepercayaan pengguna dan reputasi merek. Kedua pilihan memiliki logika, tetapi juga konsekuensi.
Yang benar-benar mengkhawatirkan adalah, perdebatan ini mengungkapkan masalah yang lebih dalam: di era militarisasi AI yang cepat, jarak antara “legal” dan “benar” semakin melebar.