OpenAI dan Departemen Pertahanan AS bekerja sama menimbulkan kontroversi, Sam Altman mengakui kesepakatan terlalu terburu-buru dan mendesak mengubah ketentuan

GateNews

Pada 3 Maret, menurut CNBC, CEO OpenAI Sam Altman mengakui bahwa perjanjian kerja sama kecerdasan buatan perusahaan sebelumnya dengan Departemen Pertahanan AS terlalu tergesa-gesa dan mengatakan bahwa persyaratan yang relevan akan disesuaikan. Pernyataan ini muncul ketika opini publik terus bergejolak, setelah OpenAI mengumumkan kerja sama dengan Pentagon, memicu diskusi luas tentang etika AI, penggunaan militer, dan keamanan data.

Menurut informasi publik, perjanjian itu diumumkan Jumat lalu, pada saat yang sama bahwa pemerintah AS memajukan sejumlah keputusan terkait keamanan nasional. Setelah berita itu terungkap, beberapa komunitas teknologi dan pengguna menyatakan keprihatinan tentang kemungkinan penggunaan teknologi kecerdasan buatan untuk tujuan militer. Sam Altman kemudian memposting di platform sosial sebagai tanggapan bahwa perusahaan akan menambahkan pembatasan baru ke perjanjian, termasuk dengan jelas menetapkan bahwa sistem AI tidak dapat digunakan untuk pengawasan domestik warga atau penduduk AS.

Sam Altman juga mengatakan bahwa Departemen Pertahanan AS telah mengkonfirmasi bahwa alat kecerdasan buatan OpenAI tidak akan digunakan secara langsung oleh badan intelijen seperti Badan Keamanan Nasional (NSA) untuk misi pengawasan intelijen. Pada saat yang sama, OpenAI berencana untuk bekerja sama dengan Pentagon untuk mengembangkan perlindungan teknis tambahan untuk mengurangi risiko penyalahgunaan AI dalam skenario sensitif.

CEO juga mengakui bahwa perusahaan melakukan kesalahan penilaian saat melanjutkan perjanjian. Dia mengatakan bahwa pada saat itu, tim ingin segera meredakan situasi dan menghindari konflik politik yang lebih serius, tetapi melihat ke belakang, keputusan itu tampak terlalu tergesa-gesa dan dapat dengan mudah diartikan sebagai spekulasi.

Kontroversi juga berkaitan dengan Anthropic, perusahaan AI lainnya. Sebelumnya, Anthropic tidak setuju dengan pemerintah AS tentang batas-batas penggunaan model AI-nya Claude dan mencari jaminan yang jelas bahwa sistemnya tidak akan digunakan untuk pengawasan domestik atau pengembangan senjata otonom. Negosiasi antara kedua belah pihak dilaporkan gagal.

Pada saat yang sama, ada fluktuasi yang nyata dalam sentimen pengguna di jaringan. Beberapa pengguna telah mengurangi penggunaan ChatGPT di platform aplikasi dan beralih ke produk pesaing seperti Claude, yang semakin memperluas kontroversi etika dalam industri AI.

Dalam tanggapannya, Sam Altman juga mengatakan dia tidak percaya Anthropic harus dianggap sebagai risiko rantai pasokan dan berharap Departemen Pertahanan AS akan memberikan kondisi kerja sama yang serupa dengan OpenAI. Insiden ini sekali lagi menyoroti bahwa dalam konteks pesatnya perkembangan teknologi kecerdasan buatan, masalah batas antara AI dan keamanan nasional, aplikasi militer, dan regulasi sosial menjadi fokus perhatian dalam industri teknologi global.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar