72 jam, tiga krisis: jiwa Anthropic sedang diperebutkan

PANews
XAI0,68%
GROK5,61%

Penulisan: Ada, Deep潮 TechFlow

Selasa, 24 Februari. Washington, Pentagon.

CEO Anthropic Dario Amodei duduk berhadapan dengan Menteri Pertahanan Pete Hegseth. Menurut beberapa media seperti NPR dan CNN yang mengutip sumber terpercaya, suasana pertemuan itu “sopan”, tetapi isinya sama sekali tidak ramah.

Hegseth memberi ultimatum terakhir: sebelum Jumat pukul 17:01, hentikan pembatasan penggunaan militer Claude, izinkan Pentagon menggunakannya untuk “semua keperluan sah”, termasuk penargetan senjata otonom dan pengawasan massal domestik.

Jika tidak, kontrak senilai 200 juta dolar akan dibatalkan. Mengaktifkan Undang-Undang Produksi Pertahanan, melakukan pengambilalihan paksa. Menempatkan Anthropic sebagai “risiko rantai pasokan”, yang sama artinya dengan memasukkannya ke daftar hitam entitas musuh dari Rusia dan China.

Pada hari yang sama, Anthropic merilis “Kebijakan Perluasan Bertanggung Jawab” versi 3.0 (RSP 3.0), diam-diam menghapus salah satu janji inti sejak pendirian perusahaan: jika tidak dapat menjamin langkah-langkah keamanan, tidak akan melatih model yang lebih kuat.

Pada hari yang sama pula, Elon Musk memposting di X: “Anthropic melakukan pencurian data pelatihan secara massal, ini fakta.” Bersamaan dengan itu, catatan komunitas X menambahkan laporan bahwa Anthropic membayar 1,5 miliar dolar sebagai penyelesaian karena menggunakan buku bajakan untuk melatih Claude.

Dalam waktu 72 jam, perusahaan AI yang menyebut dirinya “berjiwa” ini memainkan tiga peran sekaligus: martir keamanan, pencuri kekayaan intelektual, dan pengkhianat Pentagon.

Yang mana yang sebenarnya?

Mungkin semuanya.

Pentagon: “Taat atau Pergi”

Lapisan pertama ceritanya sangat sederhana.

Anthropic adalah perusahaan AI pertama yang mendapatkan akses tingkat rahasia dari Departemen Pertahanan AS. Kontrak yang diperoleh tahun lalu dengan batas maksimal 200 juta dolar. Kemudian OpenAI, Google, dan xAI juga mendapatkan kontrak dengan skala yang sama.

Menurut Al Jazeera, Claude pernah digunakan dalam operasi militer AS Januari lalu. Laporan menyebutkan operasi tersebut melibatkan penculikan Presiden Venezuela, Maduro.

Namun Anthropic menetapkan dua garis merah: tidak mendukung penargetan senjata otonom sepenuhnya, dan tidak mendukung pengawasan massal terhadap warga AS. Mereka berpendapat, keandalan AI tidak cukup untuk mengendalikan senjata, dan saat ini belum ada regulasi hukum yang mengatur penggunaan AI dalam pengawasan skala besar.

Tetapi Pentagon tidak mau tahu.

Konsultan AI Gedung Putih, David Sacks, bulan Oktober tahun lalu secara terbuka menuduh Anthropic di X: “Menggunakan ketakutan sebagai alat, melakukan pengendalian melalui regulasi.”

Para pesaing sudah tunduk. OpenAI, Google, xAI sepakat membolehkan militer menggunakan AI mereka untuk “semua skenario sah”. Musk dengan Grok-nya baru saja disetujui masuk ke sistem rahasia minggu ini.

Anthropic adalah yang terakhir bertahan.

Hingga berita ini ditulis, dalam pernyataan terbaru mereka, Anthropic menyatakan tidak berniat menyerah. Tapi batas waktu Jumat pukul 17:01 sudah dekat.

Seorang mantan pejabat komunikasi di Departemen Kehakiman dan Pertahanan yang tidak mau disebutkan namanya kepada CNN mengungkapkan kebingungannya: “Bagaimana bisa mengumumkan sebuah perusahaan sebagai ‘risiko rantai pasokan’ sekaligus memaksa perusahaan itu bekerja untuk militer?”

Pertanyaan bagus, tapi itu bukan urusan Pentagon. Mereka peduli jika Anthropic tidak mau kompromi, akan diambil tindakan paksa, atau menjadi anak tiri Washington.

“Serangan Distilasi”: Tuduhan Balik yang Memukul Mundur

Tanggal 23 Februari, Anthropic merilis blog berisi kecaman keras terhadap tiga perusahaan AI China yang dituduh melakukan “serangan distilasi industri” terhadap Claude.

Terdakwa adalah DeepSeek, Moonshot AI, dan MiniMax.

Anthropic menuduh mereka menggunakan 24.000 akun palsu untuk melakukan lebih dari 16 juta interaksi dengan Claude, secara terarah mengekstrak kemampuan inti Claude dalam penalaran, pemanggilan alat, dan pemrograman.

Anthropic menyebut ini sebagai ancaman keamanan nasional, dan mengklaim model hasil distilasi “kemungkinan besar tidak akan mempertahankan pengaman”, yang bisa digunakan oleh pemerintah otoriter untuk serangan siber, disinformasi, dan pengawasan massal.

Narasi ini sempurna, waktunya pun tepat.

Tepat setelah pemerintahan Trump melonggarkan pembatasan ekspor chip ke China, dan saat Anthropic mencari bahan untuk mempengaruhi kebijakan ekspor chip mereka.

Namun Musk menembakkan tembakan: “Anthropic melakukan pencurian data pelatihan secara massal, dan membayar miliaran dolar sebagai penyelesaian. Ini fakta.”

image

Co-founder perusahaan infrastruktur AI IO.Net, Tory Green, berkomentar: “Kalian melatih model dengan data dari seluruh internet, lalu orang lain belajar dari API publik kalian, itu disebut ‘serangan distilasi’?”

Anthropic menyebut proses ini sebagai “serangan”, tetapi dalam industri AI, ini adalah hal yang biasa. OpenAI menggunakan teknik ini untuk mengompresi GPT-4, Google menggunakannya untuk mengoptimalkan Gemini, bahkan Anthropic sendiri juga melakukannya. Satu-satunya perbedaan, kali ini yang diserang adalah mereka sendiri.

Menurut profesor AI dari Nanyang Technological University, Erik Cambria, kepada CNBC: “Batas antara penggunaan yang sah dan penyalahgunaan seringkali kabur.”

Lebih ironis lagi, Anthropic baru saja membayar 1,5 miliar dolar sebagai penyelesaian karena menggunakan buku bajakan untuk melatih Claude. Mereka melatih model dari data seluruh internet, lalu menuduh orang lain belajar dari API mereka yang terbuka. Ini bukan double standard, ini triple standard.

Awalnya, Anthropic ingin berperan sebagai korban, tapi malah menjadi terdakwa.

Pembongkaran Janji Keamanan: RSP 3.0

Pada hari yang sama saat berhadapan dengan Pentagon dan saling serang dengan Silicon Valley, Anthropic merilis Kebijakan Perluasan Bertanggung Jawab versi 3.0.

Chief Scientist Anthropic, Jared Kaplan, dalam wawancara menyatakan: “Kami merasa berhenti melatih model AI tidak akan membantu siapa pun. Di tengah perkembangan AI yang pesat, membuat janji sepihak… sementara pesaing terus maju, itu tidak ada gunanya.”

Dengan kata lain, jika mereka tidak mengikuti aturan, mereka pun tidak akan berpura-pura.

Inti dari RSP 1.0 dan 2.0 adalah janji tegas: jika kemampuan model melebihi cakupan langkah-langkah keamanan, maka pelatihan dihentikan. Janji ini memberi reputasi unik bagi Anthropic di komunitas keamanan AI.

Namun, versi 3.0 menghapus janji tersebut.

Sebagai gantinya, mereka memperkenalkan kerangka kerja yang lebih “fleksibel”, memisahkan langkah-langkah keamanan yang bisa dilakukan oleh Anthropic sendiri dan saran keamanan yang membutuhkan kolaborasi seluruh industri. Mereka akan merilis laporan risiko setiap 3-6 bulan, dan melibatkan peninjauan dari para ahli eksternal.

Terdengar sangat bertanggung jawab?

Seorang reviewer independen dari organisasi non-profit METR, Chris Painter, setelah membaca draf awal kebijakan ini, mengatakan: “Ini menunjukkan bahwa Anthropic merasa perlu masuk ke ‘mode triage’, karena metode penilaian dan mitigasi risiko tidak mampu mengikuti kecepatan peningkatan kemampuan. Ini lebih menunjukkan bahwa masyarakat belum siap menghadapi potensi bencana dari AI.”

Menurut laporan TIME, perusahaan menghabiskan hampir satu tahun untuk diskusi internal tentang perubahan ini, dan CEO Amodei serta dewan direksi menyetujui secara bulat. Pernyataan resmi menyebutkan bahwa kebijakan sebelumnya dirancang untuk mendorong kesepahaman industri, tetapi kenyataannya industri tidak mampu mengikuti. Pemerintah Trump mengambil sikap permisif terhadap perkembangan AI, bahkan berusaha membatalkan regulasi di tingkat negara bagian. Regulasi AI di tingkat federal pun masih jauh dari kenyataan. Meski membangun kerangka tata kelola global pada 2023 tampaknya masih mungkin, tetapi setelah tiga tahun, pintu itu jelas tertutup.

Seorang peneliti anonim yang mengikuti pengaturan AI secara mendalam, mengatakan secara langsung: “RSP adalah aset merek paling berharga dari Anthropic. Menghapus janji penghentian pelatihan sama seperti perusahaan makanan organik diam-diam menghapus kata ‘organik’ dari kemasan, lalu mengklaim bahwa pengujian mereka sekarang lebih transparan.”

Dari Valuasi 380 Miliar, Terjadi Perpecahan Identitas

Awal Februari, Anthropic menyelesaikan pendanaan sebesar 300 miliar dolar dengan valuasi 380 miliar dolar, dengan Amazon sebagai investor utama. Sejak didirikan, perusahaan ini meraih pendapatan tahunan sebesar 14 miliar dolar. Dalam tiga tahun terakhir, angka ini meningkat lebih dari 10 kali lipat setiap tahunnya.

Sementara itu, Pentagon mengancam akan memasukkan mereka ke daftar hitam. Musk secara terbuka menuduh pencurian data mereka. Janji keamanan inti mereka dihapus. Setelah CTO keamanan AI mereka, Mrinank Sharma, mengundurkan diri dan menulis di X: “Dunia sedang dalam bahaya.”

Kontradiksi?

Mungkin kontradiksi adalah bagian dari DNA Anthropic.

Perusahaan ini didirikan oleh mantan eksekutif OpenAI karena khawatir OpenAI terlalu cepat dalam mengutamakan keamanan. Kemudian mereka membangun perusahaan sendiri, dengan kecepatan lebih tinggi, untuk membangun model yang lebih kuat, sambil terus mengingatkan dunia akan bahaya model tersebut.

Model bisnis mereka bisa dirangkum dalam satu kalimat: mereka lebih takut AI daripada siapa pun, jadi Anda harus membayar mereka untuk membuat AI.

Narasi ini berjalan sempurna di 2023-2024. Keamanan AI menjadi kata kunci di Washington, dan Anthropic adalah pelobi paling populer.

Tapi pada 2026, arah angin berubah.

“AI woke” menjadi label serangan, undang-undang pengaturan AI di tingkat negara bagian diblokir Gedung Putih, dan RUU SB 53 yang didukung Anthropic di California disahkan, tetapi di tingkat federal sepi.

Keamanan yang dulu menjadi keunggulan Anthropic, kini mulai bergeser menjadi beban politik.

Perusahaan ini sedang melakukan manuver keseimbangan yang rumit: mereka butuh cukup “aman” untuk menjaga citra, tapi juga cukup “fleksibel” agar tidak ditinggalkan pasar dan pemerintah. Masalahnya, toleransi dari kedua sisi semakin menyempit.

Seberapa Berharga Narasi Keamanan?

Jika melihat ketiga aspek ini secara bersamaan, gambarnya menjadi jelas.

Tuduhan terhadap perusahaan China yang melakukan distilasi Claude adalah untuk memperkuat narasi regulasi ekspor chip. Untuk tidak tertinggal dalam perlombaan senjata, mereka menghapus janji penghentian pelatihan. Menolak permintaan Pentagon untuk senjata otonom adalah untuk menjaga citra moral terakhir mereka.

Setiap langkah logis, tapi saling bertentangan.

Kamu tidak bisa mengatakan bahwa perusahaan China “distilasi” modelmu yang berbahaya bagi keamanan nasional, lalu menghapus janji pencegahan modelmu sendiri dari keluar kendali. Jika modelmu benar-benar berbahaya, seharusnya lebih berhati-hati, bukan lebih agresif.

Kecuali kamu adalah Anthropic.

Dalam industri AI, identitas bukan ditentukan oleh pernyataan, melainkan oleh neraca keuangan. Narasi “keamanan” Anthropic pada dasarnya adalah sebuah nilai tambah merek.

Di awal perlombaan persenjataan AI, nilai ini sangat berharga. Investor bersedia membayar valuasi lebih tinggi untuk “AI yang bertanggung jawab”, pemerintah memberi lampu hijau untuk “AI yang dapat dipercaya”, dan pelanggan bersedia membayar lebih untuk “AI yang lebih aman”.

Tapi pada 2026, nilai ini mulai menguap.

Sekarang, Anthropic tidak lagi dihadapkan pada pilihan “harus kompromi” atau tidak, melainkan urutan “siapa yang harus dikompromikan dulu”. Jika kompromi ke Pentagon, citra mereka rusak. Jika kompromi ke pesaing, janji keamanan mereka hilang. Jika ke investor, keduanya harus dikorbankan.

Jumat pukul 17:01, Anthropic akan memberikan jawabannya.

Tapi apapun jawabannya, satu hal sudah pasti: Anthropic yang dulu mengandalkan “kami berbeda dari OpenAI” sedang berubah menjadi seperti semua orang.

Krisis identitas biasanya berujung pada hilangnya identitas itu sendiri.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)