Anthropic dan Pentagon terlibat konflik langsung! CEO Amodei menolak "pengawasan skala besar di dalam negeri" dan "senjata otonom sepenuhnya"

ChainNewsAbmedia

Anthropic, yang dipimpin oleh Dario Amodei, selalu dipandang sebagai salah satu perusahaan AI paling aktif yang bekerja dengan pemerintah AS, tetapi sekarang secara terbuka menghadapi Pentagon atas dua pembatasan penggunaan utama.

Amodei menekankan bahwa perusahaan bersedia mendukung 98% hingga 99% penggunaan pertahanan, tetapi tetap berpegang pada garis bawah pada dua masalah “pengawasan massal domestik” dan “senjata otonom penuh”. Dia mengatakan bahwa ini bukan penolakan terhadap keamanan nasional, tetapi untuk membela nilai-nilai demokrasi dan semangat konstitusional Amerika Serikat.

Ini sangat kooperatif dengan sistem pertahanan nasional, tetapi menarik garis merah pada dua titik

Amodei menekankan dalam wawancara bahwa Anthropic sebenarnya adalah salah satu perusahaan AI pertama yang bekerja sama secara mendalam dengan sistem keamanan nasional AS. Dia menunjukkan bahwa perusahaan memimpin dalam menyebarkan model ke lingkungan cloud rahasia dan juga membuat model yang disesuaikan untuk tujuan keamanan nasional, yang sekarang banyak digunakan dalam unit intelijen dan sistem militer, termasuk keamanan siber dan dukungan tempur.

Dengan kata lain, Anthropic tidak menolak penggunaan militer, tetapi merupakan peserta aktif.

Namun, perusahaan dengan jelas mengusulkan dua pembatasan penggunaan yang tidak dapat dinegosiasikan:

Pertama, itu adalah “pengawasan skala besar domestik”. Amodei khawatir bahwa AI memungkinkan pemerintah untuk menganalisis sejumlah besar data dari perusahaan swasta, seperti catatan lokasi, afiliasi politik, dan data perilaku pribadi, dalam skala yang belum pernah terjadi sebelumnya. Perilaku ini mungkin tidak ilegal di bawah kerangka hukum saat ini, tetapi perkembangan teknologi AI yang eksplosif telah memungkinkan kemampuan pengawasan jauh melampaui maksud legislatif asli.

Yang kedua adalah “senjata otonom penuh”, yaitu sistem senjata yang secara otomatis memutuskan untuk menembak tanpa partisipasi manusia. Amodei menunjukkan bahwa sistem AI saat ini masih memiliki masalah ketidakpastian dan keandalan, dan jika diserahkan sepenuhnya kepada pengambilan keputusan mesin, itu dapat menyebabkan kesalahan penilaian, kesalahan pukulan, atau bahkan cedera yang tidak disengaja pada warga sipil.

Secara khusus, dia menekankan bahwa ini berbeda dari “senjata semi-otonom” yang saat ini digunakan di medan perang, melainkan sistem senjata yang sama sekali tidak diawasi.

Ultimatum tiga hari dan sengketa “risiko rantai pasokan”

Menurut Amodei, Pentagon telah meminta Anthropic untuk menyetujui kondisinya hanya dalam tiga hari, jika tidak, itu akan diklasifikasikan sebagai “risiko rantai pasokan.” Di masa lalu, sebutan semacam itu biasanya digunakan untuk saingan asing, seperti perusahaan terkait Rusia atau Cina, dan hampir tidak pernah digunakan untuk perusahaan domestik AS.

Yang lebih kontroversial, komunikasi yang dimaksud terutama melalui postingan media sosial. Amodei mengatakan perusahaan belum menerima dokumen hukum resmi sejauh ini, hanya pernyataan publik dari presiden dan pejabat pertahanan di X (sebelumnya Twitter).

Presiden AS Donald Trump bahkan secara terbuka mengkritik Anthropic karena “egois,” dengan mengatakan bahwa langkah itu membahayakan militer AS dan keamanan nasional.

Menanggapi hal itu, Amodei menanggapi bahwa perusahaan bersedia membantu Departemen Pertahanan dalam mentransfer dengan lancar ke pemasok lain bahkan jika dikenakan sanksi, menghindari 6 hingga 12 bulan militer mundur karena pemadaman teknologi.

Apa masalah inti yang sebenarnya?

Amodei percaya bahwa esensi perselisihan bukan tentang “siapa yang lebih patriotik” tetapi tentang kematangan dan tanggung jawab teknologi.

Dia menunjukkan bahwa AI masih tidak dapat diprediksi. Bahkan jika kinerja keseluruhannya sangat baik, kesalahan 1% pada saat kritis dapat menjadi bencana bagi operasi militer. Serangan yang tidak disengaja terhadap warga sipil, kesalahan penilaian antara teman dan musuh, dan bahkan korban yang bersahabat dapat terjadi.

Isu yang lebih dalam adalah “mekanisme akuntabilitas”. Dengan asumsi jaringan senjata masa depan jutaan drone, dikendalikan oleh beberapa orang atau bahkan satu komandan, siapa yang akan bertanggung jawab ketika terjadi kesalahan? AI? Insinyur? Petugas? Atau pemimpin politik?

Isu-isu ini belum sepenuhnya dibahas di tingkat kongres.

Apakah perusahaan swasta mengalahkan pemerintah?

Pertanyaan paling akut dalam wawancara adalah: Mengapa perusahaan swasta memiliki hak untuk memutuskan bagaimana militer dapat menggunakan teknologinya?

Jawaban Amodei sangat mudah — pasar bebas.

Dia menunjukkan bahwa pemerintah memiliki setiap pilihan pemasok lain. Jika nilai-nilai tidak selaras, kedua belah pihak harus berpisah secara damai daripada memberlakukan tindakan hukuman melalui pelabelan risiko rantai pasokan. Dia percaya bahwa praktik ini memiliki efek mengerikan pada perusahaan swasta.

Pada saat yang sama, dia juga mengakui bahwa dalam jangka panjang, perusahaan swasta dan militer tidak boleh menggambarkan batas-batas mereka sendiri, tetapi harus disahkan oleh Kongres untuk menetapkan peraturan yang jelas. Dia meminta Kongres untuk mengembangkan kerangka kerja baru untuk AI di bidang pengawasan dan senjata otonom, sehingga undang-undang tersebut dapat mengikuti perkembangan teknologi.

Apakah ini tentang ideologi?

Anthropic telah dikritik sebagai “perusahaan kebangkitan kiri”. Amodei membantah klaim ini, menekankan bahwa perusahaan telah bekerja sama dengan pemerintah dalam banyak masalah seperti kebijakan energi dan rencana aksi AI. Ia mengatakan bahwa ketidaksepakatan ini bukan tentang sikap politik, tetapi tentang nilai dan manajemen risiko.

Dia menekankan: “Tidak setuju dengan pemerintah adalah perilaku yang paling Amerika.”

Bisakah Anthropic mengatasi badai ini?

Pada tingkat bisnis, Amodei tampak cukup percaya diri. Dia menunjukkan bahwa ruang lingkup sebenarnya dari penunjukan risiko rantai pasokan terbatas dan tidak akan sepenuhnya melarang perusahaan lain menggunakan teknologi Anthropic, tetapi hanya dalam skenario terkait kontrak militer.

Dia percaya bahwa beberapa pernyataan dengan sengaja memperkuat dampak dan menciptakan “ketakutan, ketidakpastian dan keraguan” (FUD), tetapi bisnis dasar perusahaan akan tetap stabil.

Konflik ini sebenarnya mengungkapkan pertanyaan yang lebih besar: siapa yang menetapkan garis ketika teknologi AI berkembang dengan kecepatan eksponensial sementara undang-undang dan regulasi bergerak lambat?

Antropik menganjurkan bahwa “99% dapat bekerja sama dan 1% harus berhati-hati,” sementara Pentagon menekankan bahwa “semua penggunaan yang sah harus terbuka.” Kesenjangan antara kedua belah pihak bukan hanya perbedaan kebijakan, tetapi juga prediksi yang berbeda tentang seperti apa perang di masa depan.

Artikel ini Anthropic dan Pentagon bentrok langsung! CEO Amodei menolak ‘pengawasan massal domestik’ dan ‘senjata otonom penuh’ appeared first on Chain News ABMedia.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)