Platform media sosial Elon Musk X telah mengumumkan kebijakan baru untuk mengontrol pembuat konten yang memposting video perang yang dibuat dengan kecerdasan buatan tetapi tidak secara eksplisit mengungkapkan bahwa konten tersebut dihasilkan AI. Menurut Nikita Bier, kepala produk di X, perusahaan memperbarui kebijakan bagi hasil bagi pembuat konten untuk melindungi keaslian informasi di platform dan mencegah penyalahgunaan program monetisasi.
Di bawah aturan baru, mereka yang memposting video perang AI yang menyesatkan tanpa catatan eksplisit akan dilarang berpartisipasi dalam program bagi hasil selama 90 hari; Pelanggaran berulang dapat mengakibatkan diskualifikasi permanen dari program monetisasi. Keputusan ini dibuat setelah beberapa video AI menjadi viral tentang ketegangan di Timur Tengah, termasuk video palsu serangan udara di gedung Burj Khalifa di Dubai. X akan menggunakan Catatan Komunitas dan metadata untuk mendeteksi konten AI.