Pembahasan mekanisme peninjauan AI Gedung Putih bocor, pernyataan Hassett dibantah resmi sehari setelahnya

MarketWhisper

白宮AI預審機制討論

Direktur Dewan Ekonomi Nasional Gedung Putih (NEC) Kevin Hassett mengatakan dalam sebuah wawancara dengan Fox Business pada 7 Mei bahwa pemerintahan Trump sedang menyiapkan rancangan perintah eksekutif yang mewajibkan model AI menjalani tinjauan keamanan pemerintah sebelum dirilis ke publik, dengan analogi seperti persetujuan pra-peluncuran FDA untuk obat-obatan. Namun, menurut Politico dalam laporan 8 Mei, pejabat senior Gedung Putih kemudian menyebut pernyataan itu sebagai “cuplikan yang dipotong konteks”.

Alur kejadian: Pertentangan kebijakan Gedung Putih mulai dipublikasikan setelah laporan The New York Times

Pada 4 Mei 2026, The New York Times melaporkan bahwa Gedung Putih sedang membahas pembentukan mekanisme peninjauan pra-rilis untuk model AI, saat itu dikategorikan sebagai “sedang dipertimbangkan”. Pada 7 Mei 2026, Kevin Hassett saat diwawancarai Fox Business secara terbuka mengatakan: “Kami sedang meneliti apakah kami bisa, melalui perintah eksekutif, mengharuskan AI yang berpotensi menimbulkan celah di masa depan untuk baru digunakan setelah bisa membuktikan keamanannya—seperti obat dari FDA.”

Pada larut malam 7 Mei 2026, Kepala Staf Gedung Putih Susie Wiles menulis di platform X bahwa pemerintah “tidak bertanggung jawab memilih pemenang dan pecundang”, dan menyatakan penerapan keamanan untuk teknologi yang kuat seharusnya didorong oleh “inovator-inovator hebat di AS, bukan birokrasi”. Berdasarkan jejak catatan akun resminya, unggahan tersebut merupakan konten keempat yang dipublikasikan sejak akun Wiles dibuat.

Mengutip tiga narasumber yang mengetahui tetapi anonim, Politico melaporkan bahwa Gedung Putih sedang membahas pemberian wewenang kepada lembaga intelijen untuk melakukan penilaian awal sebelum model AI dirilis ke publik. Salah satu pejabat pemerintah AS dalam laporannya mengatakan, salah satu tujuannya adalah “memastikan komunitas intelijen meneliti dan memanfaatkan alat-alat tersebut sebelum lawan seperti Rusia dan Tiongkok memahami kemampuan baru.”

Lembaga terkait dan kerangka kebijakan

CAISI memperluas perjanjian penilaian keamanan sukarela

Pusat Standar dan Inovasi AI (CAISI) di bawah Kementerian Perdagangan mengumumkan pekan ini bahwa mereka telah menandatangani perjanjian penilaian keamanan AI dengan Google DeepMind, Microsoft, dan xAI, dengan cakupan diperluas dari yang sebelumnya telah mencakup OpenAI dan Anthropic. Kerangka penilaian sukarela CAISI telah diterapkan sejak 2024.

Wakil menteri pertahanan secara terbuka mendukung mekanisme penilaian awal

Wakil menteri pertahanan Emil Michael pada 8 Mei 2026 saat menghadiri konferensi AI di Washington secara terbuka mendukung penilaian awal pemerintah sebelum model AI dirilis, dan dalam pidatonya mengutip sistem Mythos dari Anthropic sebagai contoh, dengan mengatakan model-model terkait “pasti akan muncul pada akhirnya”, sehingga pemerintah harus membangun mekanisme penanganan.

Latar belakang kebijakan pemerintahan Trump dan Anthropic

Menurut Politico, Menteri Pertahanan Pete Hegseth pada Maret 2026 memasukkan Anthropic ke dalam daftar risiko dengan alasan risiko rantai pasok, dan melarang model-modelnya digunakan untuk kontrak Kementerian Pertahanan. Setelah itu, Trump secara terpisah meminta lembaga federal untuk menghentikan penggunaan produk Anthropic dalam waktu enam bulan. Pada saat yang sama, bulan lalu Anthropic mengungkapkan bahwa sistem AI Mythos memiliki kemampuan kuat untuk menggali celah perangkat lunak, melewati ambang keamanan sebelum rilis ke publik; beberapa lembaga federal kemudian mengajukan permohonan untuk terhubung. Pada 8 Mei 2026, OpenAI mengumumkan pratinjau terbatas untuk alat baru GPT-5.5-Cyber yang dapat mendeteksi dan memperbaiki celah jaringan.

Sikap industri yang menolak mekanisme tinjauan paksa

Ketua Information Technology and Innovation Foundation (ITIF) Daniel Castro mengatakan dalam laporan Politico: “Jika sebelum diluncurkan bisa ditolak persetujuannya, itu masalah besar bagi perusahaan mana pun. Jika satu pesaing mendapat persetujuan sementara yang lain tidak, selisih beberapa minggu atau bulan untuk akses pasar akan berdampak besar.” Pendanaan ITIF mencakup Anthropic, Microsoft, dan Meta.

Seorang pejabat senior Gedung Putih dalam laporan yang sama mengatakan: “Memang ada satu atau dua orang yang sangat antusias dengan pengawasan pemerintah, tapi mereka hanya minoritas.” Pejabat tersebut diberi anonimitas karena kebutuhan untuk mendeskripsikan pembahasan kebijakan yang sensitif.

Pertanyaan yang sering diajukan

Kapan dan di mana Kevin Hassett menyampaikan pernyataan penilaian awal AI?

Menurut laporan Politico, Kevin Hassett pada 7 Mei 2026 saat diwawancarai Fox Business secara terbuka menyatakan bahwa pemerintah sedang menyiapkan perintah eksekutif untuk mewajibkan model AI menjalani tinjauan keamanan pemerintah sebelum dirilis ke publik, dengan analogi pada proses persetujuan obat dari FDA.

Apa dasar Gedung Putih menyangkal pernyataan Hassett?

Menurut laporan Politico 8 Mei 2026, pejabat senior Gedung Putih mengatakan bahwa pernyataan Hassett “agak diambil sebagian dan dipotong konteks”, sementara arah kebijakan Gedung Putih adalah membangun kemitraan dengan perusahaan, bukan mendorong pengawasan pemerintah. Kepala Staf Gedung Putih Susie Wiles kemudian memposting ulang untuk menegaskan kembali bahwa pemerintah tidak ikut campur dalam pilihan pasar.

Perjanjian penilaian keamanan AI apa yang ditambahkan CAISI pada pekan ini?

Berdasarkan pernyataan CAISI pekan ini, perjanjian yang ditambahkan kali ini mencakup Google DeepMind, Microsoft, dan xAI, ditambah yang sebelumnya sudah mencakup OpenAI dan Anthropic. Kerangka penilaian sukarela telah diterapkan sejak 2024.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

AS dan Tiongkok Akan Meluncurkan Dialog Resmi Keselamatan AI, Dipimpin Pejabat Kementerian Keuangan

Menurut laporan, Amerika Serikat dan China sedang menyiapkan peluncuran dialog resmi tentang keselamatan AI yang bertujuan membangun mekanisme manajemen krisis untuk persaingan teknologi mereka. Delegasi AS akan dipimpin oleh Menteri Keuangan Scott Bessent, sementara China akan diwakili oleh Wakil

GateNews24menit yang lalu

RLWRLD Meluncurkan Model AI RLDX-1 untuk Tangan Robot Industri

RLWRLD, startup AI robotika yang didukung oleh LG Electronics, meluncurkan RLDX-1, model fondasi yang dirancang untuk tangan robot lima jari pada aplikasi industri, menurut RLWRLD. Perusahaan merilis bobot model, kode, dan dokumen teknisnya di GitHub dan Hugging Face. Model

CryptoFrontier44menit yang lalu

Rekor lintas bidang DeepMind AlphaEvolve: perkalian matriks 4×4 memperbarui rekor Strassen 1969, pelatihan Gemini lebih cepat 1%

Google DeepMind 7 Mei (waktu Amerika Serikat) merilis laporan hasil terobosan AlphaEvolve lintas bidang. Blog resmi DeepMind merangkum kemajuan konkret AlphaEvolve sejak diluncurkan: menemukan metode perkalian matriks 4×4 bilangan kompleks yang lebih baik daripada algoritma Strassen 1969 (48 kali perkalian skalar murni), bekerja sama dengan matematikawan seperti Terence Tao untuk menyelesaikan beberapa masalah matematika sulit Erdős (Adam/Edős), menghemat 0,7% sumber daya komputasi global untuk pusat data Google, meningkatkan kecepatan kernel kunci yang digunakan untuk melatih Gemini sebesar 23%, serta menurunkan total waktu pelatihan Gemini sebesar 1%. Arsitektur: Gemini Flash pencarian eksplorasi keluasan + Gemini

ChainNewsAbmedia57menit yang lalu

OpenAI Codex hadirkan ekstensi Chrome: dapat menguji Web App di browser, mengambil Context lintas halaman, dan berjalan paralel

OpenAI 7 Mei (waktu AS) mengumumkan fitur ekstensi Chrome untuk Codex, yang memungkinkan Codex coding agent berjalan langsung di dalam browser Chrome di macOS dan Windows. Dokumen resmi Codex OpenAI menjelaskan bahwa ekstensi ini memungkinkan Codex menguji web app tanpa mengambil alih browser pengguna, mengambil context lintas beberapa tab, menggunakan Chrome DevTools, serta melakukan pekerjaan lain secara paralel. OpenAI juga mengumumkan pengguna aktif mingguan Codex lebih dari 4 juta, tumbuh 8 kali dibanding awal tahun. Yang bisa dilakukan di dalam browser: menguji web app, mengambil context lintas halaman, menggunakan DevTools Ekstensi Chrome

ChainNewsAbmedia1jam yang lalu

OpenAI meluncurkan GPT-Realtime-2: menghadirkan penalaran GPT-5 ke dalam voice agent, dan meningkatkan context hingga 128K

OpenAI 7 Mei (waktu AS) pada konferensi pengembang mengumumkan tiga model suara Realtime baru: GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper, semuanya dibuka untuk pengembang melalui Realtime API. Pengumuman resmi OpenAI menjelaskan bahwa GPT-Realtime-2 adalah yang pertama kali dimiliki oleh OpenAI yang memiliki GPT-5

ChainNewsAbmedia1jam yang lalu

Tur langsung ke lab AI Tiongkok: peneliti mengungkap “kesenjangan chip dan data” sebagai kunci perbedaan antara AS dan Tiongkok

Nathan Lambert, yang melakukan kunjungan mendalam ke beberapa lab AI di Tiongkok, menyoroti bahwa keunggulan inti Tiongkok terletak pada budaya, talenta, dan pola pikir yang pragmatis. Riset diprioritaskan untuk meningkatkan kualitas model, dengan siswa menjadi kontributor utama, sementara kolaborasi organisasi cenderung lebih sedikit terpecah oleh konflik internal; namun terdapat kesenjangan pada chip, data, dan kreativitas, sehingga komputasi eksternal yang dibatasi oleh AS mendorong pembangunan lingkungan pelatihan sendiri akibat kualitas data yang rendah. Perusahaan bersifat open source tetapi tetap menjaga teknologi inti agar dapat disesuaikan untuk kebutuhan pelatihan internal. Jika AS semakin mengencangkan ekosistem terbuka, hal itu dapat memengaruhi posisi terdepan global.

ChainNewsAbmedia1jam yang lalu
Komentar
0/400
Tidak ada komentar