X 已推出一项严格的新政策,针对人工智能生成的战争虚假信息传播,打击创作者的经济利益。
社交媒体平台 X 宣布对其创作者收益分享政策进行重大修订,针对由人工智能生成的武装冲突视频。此举正值中东战争升级以及对冲突期间虚假信息日益担忧之际。
X 的产品负责人 Nikita Bier 表示,未披露AI生成战争画面的创作者将面临90天的收益分享计划暂停。重复违规者将被永久封禁。执行将依赖于平台的众包事实核查系统“社区说明”,以及嵌入生成式AI工具的元数据和信号。
Bier 强调,在战争时期,确保人们获取真实的现场信息至关重要,他警告说,现代AI使得制作误导性内容变得极其容易。
此公告发布之际,关于美国和以色列与伊朗战争的虚假信息在网络上迅速传播,威胁可能演变成更广泛的地区冲突。社交媒体平台正面临越来越大压力,防止合成媒体在危机中扭曲公众认知。
其中一段病毒式传播的内容是一段高制作水平的AI视频,模拟了美国“亚伯拉罕·林肯”号航空母舰的毁灭。美国中央司令部已否认该视频和相关说法。视频显示高超音速导弹压倒美国“爱国者”防御系统。另一段视频声称显示中央情报局的地区总部被夷为平地;但据事实核查人员追溯,这实际上是2015年阿联酋沙迦的一场住宅火灾,通过AI数字增强后看似军事打击。
像YouTube和TikTok等其他平台已引入AI生成内容的披露要求,但X的做法更为严格,因为它将合规直接绑定到盈利上。X大量依赖“社区说明”作为去中心化的事实核查工具,而这项新政策将该系统整合到执法中,有效实现了对未披露AI战争内容的众包检测。