Die Diskussion um ein KI-Vorprüfverfahren im Weißen Haus wird durchsickert, Hassett wird am Tag danach von offiziellen Stellen dementiert

MarketWhisper

白宮AI預審機制討論

Der Leiter des National Economic Council (NEC) des Weißen Hauses, Kevin Hassett, sagte in einem Interview mit Fox Business am 7. Mai, dass die Trump-Regierung daran arbeite, über eine Executive Order zu verlangen, dass KI-Modelle vor ihrer öffentlichen Veröffentlichung einen Sicherheitscheck der Regierung bestehen, und verglich dies mit dem FDA-Verfahren zur Zulassung von Medikamenten vor dem Inverkehrbringen. Laut Politico vom 8. Mai bezeichneten jedoch anschließend hochrangige Beamte im Weißen Haus die Aussage als „aus dem Zusammenhang gerissen“.

Ablauf des Ereignisses: Die Berichterstattung der „New York Times“ bringt die politischen Widersprüche im Weißen Haus ans Licht

Am 4. Mai 2026 berichtete die „New York Times“, dass das Weiße Haus über den Aufbau eines Mechanismus zur Vorabprüfung von KI-Modellen vor deren Veröffentlichung berate; dies wurde damals als „in Erwägung gezogen“ eingestuft. Am 7. Mai 2026 erklärte Kevin Hassett in einem Interview mit Fox Business öffentlich: „Wir prüfen gerade, ob wir per Executive Order verlangen können, dass KI, die in der Zukunft möglicherweise Schwachstellen aufweist, erst dann eingesetzt wird, nachdem sie ihre Sicherheit nachgewiesen hat – genauso wie bei FDA-Medikamenten.“

Spät am 7. Mai 2026 schrieb der Stabschef des Weißen Hauses, Susie Wiles, auf der Plattform X, die Regierung „ist nicht dafür zuständig, Sieger und Verlierer auszuwählen“, und erklärte, starke Technologie solle durch „herausragende Innovatoren in den USA statt durch bürokratische Einrichtungen“ gesichert eingesetzt werden. Laut den Aufzeichnungen seines offiziellen Kontos handelt es sich bei dem genannten Post um den vierten Inhalt, seit Wiles’ Konto erstellt wurde.

Laut Politico zufolge diskutiert das Weiße Haus, dass Nachrichtendienste vor der öffentlichen Veröffentlichung von KI-Modellen eine Vorausbewertung durchführen. Ein US-Regierungsbeamter sagte in dem Bericht, das Ziel sei unter anderem, „sicherzustellen, dass die Intelligence-Gemeinschaft diese Werkzeuge zuerst untersucht und nutzt, bevor Gegner wie Russland und China ihre neuen Fähigkeiten kennen“.

Betroffene Behörden und politischer Rahmen

CAISI erweitert freiwillige Sicherheitsbewertungs-Vereinbarungen

Das AI Standards and Innovation Center (CAISI) im Geschäftsministerium gab diese Woche bekannt, dass es mit Google DeepMind, Microsoft und xAI Vereinbarungen zur AI-Sicherheitsbewertung unterzeichnet hat. Der Umfang wurde auf OpenAI und Anthropic ausgeweitet, die zuvor bereits einbezogen waren. Der freiwillige Bewertungsrahmen von CAISI ist seit 2024 in Kraft.

Stellvertretender Verteidigungsminister unterstützt öffentlich Mechanismen zur Vorabprüfung

Der stellvertretende Verteidigungsminister Emil Michael sprach am 8. Mai 2026 auf einer KI-Konferenz in Washington öffentlich seine Unterstützung für staatliche Vorabbewertungen von KI-Modellen vor deren Veröffentlichung aus. In seinem Statement führte er das Mythos-System von Anthropic als Beispiel an und sagte, dass die betreffenden Modelle „früher oder später auftauchen werden“ und die Regierung daher Mechanismen zur Bewältigung schaffen müsse.

Politischer Hintergrund der Trump-Regierung und Anthropic

Laut Politico hat Verteidigungsminister Pete Hegseth Anthropic im März 2026 aus Gründen von Lieferkettenrisiken in eine Liste von Risikokandidaten aufgenommen und untersagt, dass seine Modelle für Verträge des Verteidigungsministeriums genutzt werden. Daraufhin habe Trump außerdem verlangt, dass Bundesbehörden innerhalb von sechs Monaten die Nutzung von Anthropic-Produkten einstellen. Gleichzeitig hatte Anthropic im vergangenen Monat offengelegt, dass sein KI-System Mythos über starke Fähigkeiten zum Auffinden von Software-Schwachstellen verfügt – über die Sicherheitsanforderungen hinaus, die für eine öffentliche Veröffentlichung gelten. Mehrere Bundesbehörden stellten anschließend Anträge auf Anbindung. OpenAI gab am 8. Mai 2026 bekannt, dass es eine begrenzte Vorschau auf das neue Tool GPT-5.5-Cyber für die Erkennung und Reparatur von Netzwerkschwachstellen startet.

Widerstand der Branche gegen verpflichtende Prüfmechanismen

Der Vorsitzende des Information Technology and Innovation Foundation (ITIF), Daniel Castro, sagte in einem Politico-Bericht: „Wenn man vor dem Inverkehrbringen ablehnen kann, ist das für jedes Unternehmen ein großes Problem. Wenn ein Wettbewerber die Genehmigung erhält und ein anderer nicht, machen die Wochen oder Monate Unterschied beim Marktzugang einen enormen Unterschied.“ Zu den Geldgebern von ITIF zählen Anthropic, Microsoft und Meta.

Ein hochrangiger Beamter des Weißen Hauses sagte in demselben Bericht: „Es gibt tatsächlich ein oder zwei, die sehr daran interessiert sind, die Regierungregulierung voranzutreiben, aber das sind nur wenige.“ Der Beamte erhielt Anonymität, weil er sensible Diskussionen über die Politik beschrieben habe.

Häufige Fragen

Wann und wo äußerte sich Kevin Hassett zu KI-Vorabprüfungen?

Laut Politico machte Kevin Hassett am 7. Mai 2026 in einem Interview mit Fox Business öffentlich den Vorschlag, dass die Regierung eine Executive Order erwäge, die verlangt, dass KI-Modelle vor ihrer Veröffentlichung eine Sicherheitsprüfung der Regierung durchlaufen, und dass dies an den FDA-Prozess für die Medikamentenzulassung angelehnt sei.

Auf welcher Grundlage bestreitet das Weiße Haus Hassetts Aussagen?

Laut Politico vom 8. Mai 2026 sagte ein hochrangiger Beamter im Weißen Haus, Hassetts Aussage sei „etwas aus dem Zusammenhang gerissen“, und die politische Ausrichtung des Weißen Hauses sei eine Partnerschaft mit Unternehmen, nicht die Durchsetzung staatlicher Regulierung. Stabschef Susie Wiles stellte zudem in einem weiteren Beitrag klar, dass die Regierung sich nicht in die Marktentscheidungen einmischt.

Welche neuen Vereinbarungen für KI-Sicherheitsbewertungen kamen diese Woche bei CAISI hinzu?

Laut einer Erklärung von CAISI, die diese Woche veröffentlicht wurde, umfasst die neue Vereinbarung Google DeepMind, Microsoft und xAI sowie zusätzlich zu den zuvor abgedeckten OpenAI- und Anthropic-Modellen. Der freiwillige Bewertungsrahmen wird seit 2024 umgesetzt.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

USA und China bereiten die Einführung eines offiziellen KI-Sicherheitsdialogs vor, geleitet von Vertretern des Finanzministeriums

Laut Berichten bereiten sich die Vereinigten Staaten und China darauf vor, einen offiziellen Dialog zur KI-Sicherheit auf den Weg zu bringen, der darauf abzielt, Krisenmanagement-Mechanismen für ihren Technologiewettbewerb zu schaffen. Die US-Delegation wird von Finanzminister Scott Bessent angeführt, während China von Vize

GateNews24M her

RLWRLD bringt das RLDX-1-KI-Modell für industrielle Robotergreifer heraus

RLWRLD, ein auf Robotik-KI spezialisiertes Startup, das von LG Electronics unterstützt wird, hat RLDX-1 vorgestellt: ein Foundation Model für Fünf-Finger-Roboterhände in industriellen Anwendungen, wie RLWRLD mitteilt. Das Unternehmen hat die Modell-Weights, den Code und technische Dokumente auf GitHub und Hugging Face veröffentlicht. Model

CryptoFrontier44M her

DeepMind AlphaEvolve bereichsübergreifende Bilanz: 4×4-Matrixmultiplikation bricht den Strassen-Rekord von 1969, Gemini trainiert 1% schneller

Google DeepMind hat am 7. Mai (US-Zeit) einen Bericht über die branchenübergreifenden Fortschritte von AlphaEvolve veröffentlicht. Im offiziellen DeepMind-Blog hat das Unternehmen die konkreten Entwicklungen von AlphaEvolve seit dem Start zusammengefasst: Es wurde eine bessere Methode für die Multiplikation komplexer 4×4-Matrizen gefunden als der Strassen-Algorithmus von 1969 (48 reine Skalar-Multiplikationen), es gab die Zusammenarbeit mit Mathematikern wie Terence Tao, um mehrere Erdős-Denkaufgaben zu lösen, es wurden für Googles Rechenzentren 0,7% der weltweiten Rechenressourcen eingespart, die Geschwindigkeit der für das Training von Gemini entscheidenden Kernel wurde um 23% gesteigert und die gesamte Trainingszeit für Gemini um 1% reduziert. Architektur: Gemini Flash Breitensuche + Gemini

ChainNewsAbmedia57M her

OpenAI Codex bringt eine Chrome-Erweiterung: Damit lassen sich Web-Apps im Browser testen, Context über Seiten hinweg abrufen und parallel ausführen

OpenAI veröffentlichte am 7. Mai (US-Zeit) eine Chrome-Erweiterung für Codex, die Codex-Coding-Agents direkt in den Chrome-Browsern auf macOS und Windows arbeiten lässt. In den offiziellen Codex-Dokumenten von OpenAI wird erläutert, dass die Erweiterung Codex Web-Apps testen lässt, ohne die Browsernutzung der Anwender zu übernehmen, Kontext über mehrere Tabs hinweg abrufen kann, Chrome DevTools nutzt und andere Aufgaben parallel ausführt. OpenAI gab außerdem bekannt, dass die wöchentlich aktiven Nutzer von Codex mehr als 4 Millionen betragen und sich seit Jahresanfang um das 8-Fache gesteigert haben. Im Browser kann man Folgendes tun: Web-Apps testen, über Tabs hinweg Kontext abrufen, mit DevTools Chrome-Erweiterung

ChainNewsAbmedia1Std her

OpenAI bringt GPT-Realtime-2: GPT-5-Rechenlogik in Voice-Agenten, Context auf 128K angehoben

OpenAI gab am 7. Mai (US-Zeit) auf einer Entwicklerkonferenz drei neue Realtime-Sprachmodelle bekannt: GPT-Realtime-2, GPT-Realtime-Translate und GPT-Realtime-Whisper, die alle über die Realtime-API für Entwickler zugänglich sind. In der offiziellen OpenAI-Ankündigung heißt es, dass GPT-Realtime-2 das erste Modell von OpenAI ist, das über GPT-5

ChainNewsAbmedia1Std her

Vor-Ort-Besuch in Chinas KI-Laboren: Forschende decken „Chip- und Datenlücken“ als Schlüssel für den Abstand zwischen China und den USA auf

Der Deep-Dive-Besuch mehrerer KI-Labore in China: Nathan Lambert betont, dass Chinas zentrale Stärken in Kultur, Talenten und einer pragmatischen Mentalität liegen. Forschung habe als Priorität, die Qualität der Modelle zu verbessern, wobei Studierende als zentrale Mitwirkende fungierten; zudem gebe es weniger interne Machtkämpfe bei der Zusammenarbeit in Organisationen. Allerdings klaffen Lücken bei Chips, Daten und Kreativität: Der externe Rechenaufwand wird durch US-Kontrollen eingeschränkt, und die Datenqualität ist eher niedrig, was zum Aufbau eigener Trainingsumgebungen führt. Unternehmen öffnen zwar Open-Source, behalten jedoch Kerntechnologien, um sie für eigene Feintunings zu nutzen. Wenn die USA die offenen Ökosysteme weiter strikter regulieren, könnte das Chinas führende globale Position beeinträchtigen.

ChainNewsAbmedia1Std her
Kommentieren
0/400
Keine Kommentare