
Direktur Dewan Ekonomi Nasional Gedung Putih (NEC) Kevin Hassett mengatakan dalam sebuah wawancara dengan Fox Business pada 7 Mei bahwa pemerintahan Trump sedang menyiapkan rancangan perintah eksekutif yang mewajibkan model AI menjalani tinjauan keamanan pemerintah sebelum dirilis ke publik, dengan analogi seperti persetujuan pra-peluncuran FDA untuk obat-obatan. Namun, menurut Politico dalam laporan 8 Mei, pejabat senior Gedung Putih kemudian menyebut pernyataan itu sebagai “cuplikan yang dipotong konteks”.
Pada 4 Mei 2026, The New York Times melaporkan bahwa Gedung Putih sedang membahas pembentukan mekanisme peninjauan pra-rilis untuk model AI, saat itu dikategorikan sebagai “sedang dipertimbangkan”. Pada 7 Mei 2026, Kevin Hassett saat diwawancarai Fox Business secara terbuka mengatakan: “Kami sedang meneliti apakah kami bisa, melalui perintah eksekutif, mengharuskan AI yang berpotensi menimbulkan celah di masa depan untuk baru digunakan setelah bisa membuktikan keamanannya—seperti obat dari FDA.”
Pada larut malam 7 Mei 2026, Kepala Staf Gedung Putih Susie Wiles menulis di platform X bahwa pemerintah “tidak bertanggung jawab memilih pemenang dan pecundang”, dan menyatakan penerapan keamanan untuk teknologi yang kuat seharusnya didorong oleh “inovator-inovator hebat di AS, bukan birokrasi”. Berdasarkan jejak catatan akun resminya, unggahan tersebut merupakan konten keempat yang dipublikasikan sejak akun Wiles dibuat.
Mengutip tiga narasumber yang mengetahui tetapi anonim, Politico melaporkan bahwa Gedung Putih sedang membahas pemberian wewenang kepada lembaga intelijen untuk melakukan penilaian awal sebelum model AI dirilis ke publik. Salah satu pejabat pemerintah AS dalam laporannya mengatakan, salah satu tujuannya adalah “memastikan komunitas intelijen meneliti dan memanfaatkan alat-alat tersebut sebelum lawan seperti Rusia dan Tiongkok memahami kemampuan baru.”
Pusat Standar dan Inovasi AI (CAISI) di bawah Kementerian Perdagangan mengumumkan pekan ini bahwa mereka telah menandatangani perjanjian penilaian keamanan AI dengan Google DeepMind, Microsoft, dan xAI, dengan cakupan diperluas dari yang sebelumnya telah mencakup OpenAI dan Anthropic. Kerangka penilaian sukarela CAISI telah diterapkan sejak 2024.
Wakil menteri pertahanan Emil Michael pada 8 Mei 2026 saat menghadiri konferensi AI di Washington secara terbuka mendukung penilaian awal pemerintah sebelum model AI dirilis, dan dalam pidatonya mengutip sistem Mythos dari Anthropic sebagai contoh, dengan mengatakan model-model terkait “pasti akan muncul pada akhirnya”, sehingga pemerintah harus membangun mekanisme penanganan.
Menurut Politico, Menteri Pertahanan Pete Hegseth pada Maret 2026 memasukkan Anthropic ke dalam daftar risiko dengan alasan risiko rantai pasok, dan melarang model-modelnya digunakan untuk kontrak Kementerian Pertahanan. Setelah itu, Trump secara terpisah meminta lembaga federal untuk menghentikan penggunaan produk Anthropic dalam waktu enam bulan. Pada saat yang sama, bulan lalu Anthropic mengungkapkan bahwa sistem AI Mythos memiliki kemampuan kuat untuk menggali celah perangkat lunak, melewati ambang keamanan sebelum rilis ke publik; beberapa lembaga federal kemudian mengajukan permohonan untuk terhubung. Pada 8 Mei 2026, OpenAI mengumumkan pratinjau terbatas untuk alat baru GPT-5.5-Cyber yang dapat mendeteksi dan memperbaiki celah jaringan.
Ketua Information Technology and Innovation Foundation (ITIF) Daniel Castro mengatakan dalam laporan Politico: “Jika sebelum diluncurkan bisa ditolak persetujuannya, itu masalah besar bagi perusahaan mana pun. Jika satu pesaing mendapat persetujuan sementara yang lain tidak, selisih beberapa minggu atau bulan untuk akses pasar akan berdampak besar.” Pendanaan ITIF mencakup Anthropic, Microsoft, dan Meta.
Seorang pejabat senior Gedung Putih dalam laporan yang sama mengatakan: “Memang ada satu atau dua orang yang sangat antusias dengan pengawasan pemerintah, tapi mereka hanya minoritas.” Pejabat tersebut diberi anonimitas karena kebutuhan untuk mendeskripsikan pembahasan kebijakan yang sensitif.
Menurut laporan Politico, Kevin Hassett pada 7 Mei 2026 saat diwawancarai Fox Business secara terbuka menyatakan bahwa pemerintah sedang menyiapkan perintah eksekutif untuk mewajibkan model AI menjalani tinjauan keamanan pemerintah sebelum dirilis ke publik, dengan analogi pada proses persetujuan obat dari FDA.
Menurut laporan Politico 8 Mei 2026, pejabat senior Gedung Putih mengatakan bahwa pernyataan Hassett “agak diambil sebagian dan dipotong konteks”, sementara arah kebijakan Gedung Putih adalah membangun kemitraan dengan perusahaan, bukan mendorong pengawasan pemerintah. Kepala Staf Gedung Putih Susie Wiles kemudian memposting ulang untuk menegaskan kembali bahwa pemerintah tidak ikut campur dalam pilihan pasar.
Berdasarkan pernyataan CAISI pekan ini, perjanjian yang ditambahkan kali ini mencakup Google DeepMind, Microsoft, dan xAI, ditambah yang sebelumnya sudah mencakup OpenAI dan Anthropic. Kerangka penilaian sukarela telah diterapkan sejak 2024.
Artikel Terkait
AS dan Tiongkok Akan Meluncurkan Dialog Resmi Keselamatan AI, Dipimpin Pejabat Kementerian Keuangan
RLWRLD Meluncurkan Model AI RLDX-1 untuk Tangan Robot Industri
Rekor lintas bidang DeepMind AlphaEvolve: perkalian matriks 4×4 memperbarui rekor Strassen 1969, pelatihan Gemini lebih cepat 1%
OpenAI Codex hadirkan ekstensi Chrome: dapat menguji Web App di browser, mengambil Context lintas halaman, dan berjalan paralel
OpenAI meluncurkan GPT-Realtime-2: menghadirkan penalaran GPT-5 ke dalam voice agent, dan meningkatkan context hingga 128K
Tur langsung ke lab AI Tiongkok: peneliti mengungkap “kesenjangan chip dan data” sebagai kunci perbedaan antara AS dan Tiongkok