X hat eine strenge neue Richtlinie eingeführt, um die Verbreitung von kriegsbezogener Desinformation, die durch künstliche Intelligenz erzeugt wurde, zu bekämpfen – und trifft die Schöpfer dort, wo es weh tut: an ihrem Geldbeutel.
Die Social-Media-Plattform X hat eine bedeutende Überarbeitung ihrer Richtlinien zur Einnahmenbeteiligung für Creator angekündigt, die sich gegen KI-generierte Videos von bewaffneten Konflikten richtet. Dieser Schritt erfolgt vor dem Hintergrund des eskalierenden Nahost-Kriegs und wachsender Bedenken hinsichtlich Fehlinformationen während des Konflikts.
Nikita Bier, Produktleiter bei X, sagte, dass Creator, die KI-generierte Kriegsszenen ohne Offenlegung posten, für 90 Tage vom Einnahmenbeteiligungsprogramm ausgeschlossen werden. Wiederholte Verstöße führen zu einem dauerhaften Bann. Die Durchsetzung erfolgt durch Community Notes, das crowdsourcierte Faktenprüfungs-System der Plattform, sowie durch Metadaten und Signale, die in generativen KI-Tools eingebettet sind.
Bier betonte, dass es in Kriegszeiten entscheidend ist, dass die Menschen Zugang zu authentischen Informationen vom Ort des Geschehens haben. Er warnte, dass moderne KI es einfach macht, Inhalte zu erstellen, die Menschen in die Irre führen können.
Die Ankündigung erfolgt, während sich Fehlinformationen im Internet rasch verbreiten, insbesondere im Zusammenhang mit dem Krieg zwischen den USA, Israel und Iran, der zu einem größeren regionalen Konflikt zu werden droht. Soziale Medien stehen unter zunehmendem Druck, synthetische Medien daran zu hindern, die öffentliche Wahrnehmung während Krisen zu verzerren.
Unter den viralen Inhalten befindet sich ein hochproduziertes KI-Video, das die Zerstörung des Flugzeugträgers USS Abraham Lincoln simuliert. Die Behauptungen und das Video wurden vom US Central Command widerlegt. Das filmreife Video zeigt Hyperschallraketen, die die US-Aegis-Abwehrsysteme überwältigen. Ein anderes Clip soll das regionale Hauptquartier der CIA zerstört zeigen; Faktenprüfer konnten jedoch nachweisen, dass dieses auf einem 2015 in Sharjah, Vereinigte Arabische Emirate, stattgefundenen Wohnungsbrand basiert, der mit KI digital auf eine militärische Attacke manipuliert wurde.
Andere Plattformen wie YouTube und TikTok haben Offenlegungspflichten für KI-generierte Inhalte eingeführt, doch X verfolgt einen strengeren Ansatz, da die Einhaltung direkt an die Monetarisierung gekoppelt ist. X setzt stark auf Community Notes als dezentrales Faktenprüfungsinstrument, und diese neue Richtlinie integriert dieses System in die Durchsetzung, wodurch die Erkennung von nicht offengelegten KI-Kriegsinhalten effektiv crowdsourct wird.