Di tengah meningkatnya ketegangan terkait penggunaan AI militer, kemitraan OpenAI dengan Pentagon telah memicu perdebatan tajam tentang etika, waktu, dan tekanan pemerintah.
Altman mengakui peluncuran tersebut terburu-buru dan kurang tepat
Sam Altman mengakui bahwa OpenAI salah menangani peluncuran publik dari kolaborasi barunya dengan Pentagon. Dalam pesan internal yang diposting di X, dia menulis bahwa perusahaan “seharusnya tidak terburu-buru” dalam pengumuman kesepakatan dengan Departemen Pertahanan.
Altman mengatakan bahwa pimpinan telah berusaha menenangkan konfrontasi yang meningkat dengan pemerintah AS. Namun, dia mengakui hasilnya “terlihat oportunistik dan ceroboh” serta gagal menyampaikan niat perusahaan untuk membatasi penggunaan teknologi yang berbahaya.
Kemitraan ini diumumkan pada hari Jumat, hanya beberapa jam setelah Presiden Donald Trump memerintahkan lembaga federal untuk menghentikan penggunaan sistem AI dari Anthropic. Selain itu, pengumuman ini muncul tak lama sebelum operasi militer AS terhadap Iran, memperparah kritik publik terhadap waktu pengumuman tersebut.
Bantahan tersebut menyebar cepat di media sosial, di mana banyak pengguna menuduh OpenAI memanfaatkan tekanan politik terhadap pesaingnya. Banyak komentator mengklaim mereka menghapus akun ChatGPT dan beralih ke model Claude dari Anthropic sebagai bentuk protes.
Perubahan kontrak berfokus pada pengawasan domestik dan batasan intelijen
Sebagai tanggapan, OpenAI kini bekerja sama dengan pejabat Departemen Pertahanan untuk merevisi kesepakatan tersebut. Tujuannya, kata Altman, adalah memasukkan pedoman etika openai langsung ke dalam bahasa hukum yang mengikat, bukan hanya mengandalkan komitmen kebijakan informal.
Salah satu klausul baru yang penting menyatakan bahwa “sistem AI tidak boleh digunakan secara sengaja untuk pengawasan domestik terhadap warga dan warga negara AS.” Larangan pengawasan domestik yang eksplisit ini dimaksudkan untuk mengatasi kekhawatiran kebebasan sipil yang diangkat oleh para kritikus penggunaan AI militer.
Pejabat pertahanan juga mengonfirmasi bahwa sistem yang dicakup oleh kontrak Departemen Pertahanan tidak akan digunakan oleh badan intelijen AS seperti NSA. Namun, Altman menjelaskan bahwa penggunaan di masa depan oleh badan intelijen akan memerlukan kontrak terpisah dan negosiasi tambahan.
Meski begitu, Altman menegaskan bahwa kemitraan OpenAI dengan Pentagon bertujuan membatasi penggunaan berisiko tinggi sambil memungkinkan aplikasi terbatas terkait pertahanan yang sesuai dengan hukum AS dan aturan keselamatan perusahaan.
Perselisihan Anthropic menjadi latar belakang politik yang lebih luas
Kesepakatan OpenAI muncul langsung dari kegagalan negosiasi antara Anthropic dan Departemen Pertahanan. Anthropic menuntut jaminan tertulis bahwa model AI-nya tidak akan mendukung pengawasan domestik atau mengoperasikan senjata otonom tanpa pengawasan manusia yang berarti.
Pada hari Jumat, Menteri Pertahanan Pete Hegseth mengumumkan bahwa Anthropic akan menerima penetapan ancaman rantai pasokan setelah negosiasi gagal. Selain itu, pejabat pemerintah dilaporkan telah menghabiskan berbulan-bulan mengkritik penekanan kuat Anthropic terhadap keselamatan AI, berargumen bahwa hal itu membatasi fleksibilitas di medan perang.
Ketegangan ini menjadi publik ketika laporan mengungkapkan bahwa sistem Claude dari Anthropic digunakan dalam operasi militer Januari yang menargetkan Presiden Venezuela Nicolás Maduro. Anthropic tidak secara terbuka menentang penempatan tersebut saat itu, yang kemudian memicu pertanyaan tentang konsistensi kebijakan internalnya.
Meskipun terjadi keretakan, Anthropic sebelumnya menjadi perusahaan AI pertama yang mengoperasikan model di infrastruktur rahasia Pentagon berdasarkan kesepakatan yang diselesaikan tahun lalu. Sejarah ini, menurut para kritikus, membuat pergeseran mendadak ke label ancaman rantai pasokan menjadi sangat mencolok.
Altman menentang penetapan risiko Anthropic
Altman menggunakan pernyataan terbaru untuk membela Anthropic meskipun perusahaannya sendiri mengesahkan peran dengan Pentagon. Dia mengatakan menghabiskan akhir pekan untuk berdiskusi dengan pejabat senior, mendesak mereka untuk mempertimbangkan kembali klasifikasi baru tersebut.
“Saya menegaskan kembali bahwa Anthropic tidak boleh ditetapkan sebagai risiko rantai pasokan, dan kami berharap Departemen Pertahanan menawarkan mereka ketentuan yang sama seperti yang telah kami sepakati,” tulisnya. Namun, para pemimpin Pentagon belum menunjukkan keinginan untuk membalikkan penetapan tersebut.
Anthropic didirikan pada 2021 oleh mantan peneliti OpenAI yang keluar setelah terjadi perselisihan internal mengenai arah strategis dan penggunaan militer yang dapat diterima. Startup ini sejak itu membangun reputasinya melalui pengembangan AI yang bertanggung jawab dan kontrol penyelarasan yang lebih ketat.
Meski begitu, otoritas AS belum secara terbuka menanggapi seruan Altman untuk perlakuan yang setara, maupun menjelaskan secara rinci bagaimana label rantai pasokan Anthropic yang baru akan mempengaruhi pengadaan AI pemerintah di masa depan.
Dampak terhadap kontrak AI militer di masa depan
Kejadian ini menyoroti meningkatnya risiko politik terkait pemberian kontrak di bidang kecerdasan buatan oleh departemen pertahanan. Perusahaan kini menghadapi tekanan untuk menyeimbangkan peluang bisnis dengan risiko reputasi dan kekhawatiran terhadap sistem otonom mematikan.
Selain itu, episode ini menyoroti bagaimana kata-kata dalam kontrak terkait pengawasan, penargetan, dan pengecualian badan intelijen menjadi pusat negosiasi. Intervensi Altman menunjukkan bahwa laboratorium AI besar mungkin semakin aktif memperjuangkan perlakuan yang sama tidak hanya untuk kesepakatan mereka sendiri tetapi juga untuk perlakuan yang sepadan terhadap pesaing.
Seiring perdebatan tentang standar keselamatan dan keamanan nasional menguat, penyelesaian sengketa ini kemungkinan akan membentuk bagaimana Pentagon mengatur peluang kontrak departemen pertahanan untuk AI canggih, serta model tata kelola perusahaan mana yang akan mendapatkan pengaruh jangka panjang di Washington.
Singkatnya, peluncuran terburu-buru OpenAI, status risiko Anthropic yang diperdebatkan, dan pembatasan yang berkembang terhadap penggunaan pengawasan dan intelijen menandai fase baru dalam pendekatan militer AS terhadap kemitraan AI dan akuntabilitas.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Altman membela Anthropic saat kemitraan OpenAI Pentagon dengan waktu dan ketentuan yang menarik perhatian
Di tengah meningkatnya ketegangan terkait penggunaan AI militer, kemitraan OpenAI dengan Pentagon telah memicu perdebatan tajam tentang etika, waktu, dan tekanan pemerintah.
Altman mengakui peluncuran tersebut terburu-buru dan kurang tepat
Sam Altman mengakui bahwa OpenAI salah menangani peluncuran publik dari kolaborasi barunya dengan Pentagon. Dalam pesan internal yang diposting di X, dia menulis bahwa perusahaan “seharusnya tidak terburu-buru” dalam pengumuman kesepakatan dengan Departemen Pertahanan.
Altman mengatakan bahwa pimpinan telah berusaha menenangkan konfrontasi yang meningkat dengan pemerintah AS. Namun, dia mengakui hasilnya “terlihat oportunistik dan ceroboh” serta gagal menyampaikan niat perusahaan untuk membatasi penggunaan teknologi yang berbahaya.
Kemitraan ini diumumkan pada hari Jumat, hanya beberapa jam setelah Presiden Donald Trump memerintahkan lembaga federal untuk menghentikan penggunaan sistem AI dari Anthropic. Selain itu, pengumuman ini muncul tak lama sebelum operasi militer AS terhadap Iran, memperparah kritik publik terhadap waktu pengumuman tersebut.
Bantahan tersebut menyebar cepat di media sosial, di mana banyak pengguna menuduh OpenAI memanfaatkan tekanan politik terhadap pesaingnya. Banyak komentator mengklaim mereka menghapus akun ChatGPT dan beralih ke model Claude dari Anthropic sebagai bentuk protes.
Perubahan kontrak berfokus pada pengawasan domestik dan batasan intelijen
Sebagai tanggapan, OpenAI kini bekerja sama dengan pejabat Departemen Pertahanan untuk merevisi kesepakatan tersebut. Tujuannya, kata Altman, adalah memasukkan pedoman etika openai langsung ke dalam bahasa hukum yang mengikat, bukan hanya mengandalkan komitmen kebijakan informal.
Salah satu klausul baru yang penting menyatakan bahwa “sistem AI tidak boleh digunakan secara sengaja untuk pengawasan domestik terhadap warga dan warga negara AS.” Larangan pengawasan domestik yang eksplisit ini dimaksudkan untuk mengatasi kekhawatiran kebebasan sipil yang diangkat oleh para kritikus penggunaan AI militer.
Pejabat pertahanan juga mengonfirmasi bahwa sistem yang dicakup oleh kontrak Departemen Pertahanan tidak akan digunakan oleh badan intelijen AS seperti NSA. Namun, Altman menjelaskan bahwa penggunaan di masa depan oleh badan intelijen akan memerlukan kontrak terpisah dan negosiasi tambahan.
Meski begitu, Altman menegaskan bahwa kemitraan OpenAI dengan Pentagon bertujuan membatasi penggunaan berisiko tinggi sambil memungkinkan aplikasi terbatas terkait pertahanan yang sesuai dengan hukum AS dan aturan keselamatan perusahaan.
Perselisihan Anthropic menjadi latar belakang politik yang lebih luas
Kesepakatan OpenAI muncul langsung dari kegagalan negosiasi antara Anthropic dan Departemen Pertahanan. Anthropic menuntut jaminan tertulis bahwa model AI-nya tidak akan mendukung pengawasan domestik atau mengoperasikan senjata otonom tanpa pengawasan manusia yang berarti.
Pada hari Jumat, Menteri Pertahanan Pete Hegseth mengumumkan bahwa Anthropic akan menerima penetapan ancaman rantai pasokan setelah negosiasi gagal. Selain itu, pejabat pemerintah dilaporkan telah menghabiskan berbulan-bulan mengkritik penekanan kuat Anthropic terhadap keselamatan AI, berargumen bahwa hal itu membatasi fleksibilitas di medan perang.
Ketegangan ini menjadi publik ketika laporan mengungkapkan bahwa sistem Claude dari Anthropic digunakan dalam operasi militer Januari yang menargetkan Presiden Venezuela Nicolás Maduro. Anthropic tidak secara terbuka menentang penempatan tersebut saat itu, yang kemudian memicu pertanyaan tentang konsistensi kebijakan internalnya.
Meskipun terjadi keretakan, Anthropic sebelumnya menjadi perusahaan AI pertama yang mengoperasikan model di infrastruktur rahasia Pentagon berdasarkan kesepakatan yang diselesaikan tahun lalu. Sejarah ini, menurut para kritikus, membuat pergeseran mendadak ke label ancaman rantai pasokan menjadi sangat mencolok.
Altman menentang penetapan risiko Anthropic
Altman menggunakan pernyataan terbaru untuk membela Anthropic meskipun perusahaannya sendiri mengesahkan peran dengan Pentagon. Dia mengatakan menghabiskan akhir pekan untuk berdiskusi dengan pejabat senior, mendesak mereka untuk mempertimbangkan kembali klasifikasi baru tersebut.
“Saya menegaskan kembali bahwa Anthropic tidak boleh ditetapkan sebagai risiko rantai pasokan, dan kami berharap Departemen Pertahanan menawarkan mereka ketentuan yang sama seperti yang telah kami sepakati,” tulisnya. Namun, para pemimpin Pentagon belum menunjukkan keinginan untuk membalikkan penetapan tersebut.
Anthropic didirikan pada 2021 oleh mantan peneliti OpenAI yang keluar setelah terjadi perselisihan internal mengenai arah strategis dan penggunaan militer yang dapat diterima. Startup ini sejak itu membangun reputasinya melalui pengembangan AI yang bertanggung jawab dan kontrol penyelarasan yang lebih ketat.
Meski begitu, otoritas AS belum secara terbuka menanggapi seruan Altman untuk perlakuan yang setara, maupun menjelaskan secara rinci bagaimana label rantai pasokan Anthropic yang baru akan mempengaruhi pengadaan AI pemerintah di masa depan.
Dampak terhadap kontrak AI militer di masa depan
Kejadian ini menyoroti meningkatnya risiko politik terkait pemberian kontrak di bidang kecerdasan buatan oleh departemen pertahanan. Perusahaan kini menghadapi tekanan untuk menyeimbangkan peluang bisnis dengan risiko reputasi dan kekhawatiran terhadap sistem otonom mematikan.
Selain itu, episode ini menyoroti bagaimana kata-kata dalam kontrak terkait pengawasan, penargetan, dan pengecualian badan intelijen menjadi pusat negosiasi. Intervensi Altman menunjukkan bahwa laboratorium AI besar mungkin semakin aktif memperjuangkan perlakuan yang sama tidak hanya untuk kesepakatan mereka sendiri tetapi juga untuk perlakuan yang sepadan terhadap pesaing.
Seiring perdebatan tentang standar keselamatan dan keamanan nasional menguat, penyelesaian sengketa ini kemungkinan akan membentuk bagaimana Pentagon mengatur peluang kontrak departemen pertahanan untuk AI canggih, serta model tata kelola perusahaan mana yang akan mendapatkan pengaruh jangka panjang di Washington.
Singkatnya, peluncuran terburu-buru OpenAI, status risiko Anthropic yang diperdebatkan, dan pembatasan yang berkembang terhadap penggunaan pengawasan dan intelijen menandai fase baru dalam pendekatan militer AS terhadap kemitraan AI dan akuntabilitas.