Der US-Finanzminister und der Vorsitzende der US-Notenbank (Federal Reserve) riefen in einem Eilverfahren Führungskräfte von Wall Street zusammen, um vor dem neuesten Modell Mythos von Anthropic zu warnen. Das Modell wurde von den Behörden als systemisches Risiko für das Finanzsystem eingestuft.
Laut einem Bericht von Bloomberg rief US-Finanzminister Scott Bessent und Fed-Vorsitzender Jerome Powell vergangene Woche im Hauptsitz des US-Finanzministeriums in Washington, D.C., in einem Eilverfahren die CEOs der wichtigsten Banken von Wall Street zusammen, um vor potenziellen Cybersicherheitsrisiken zu warnen, die von dem neuesten Modell von KI-Unternehmen Anthropic, „Claude Mythos Preview“, ausgehen könnten.
Zu den an der Sitzung teilnehmenden Bankführungskräften gehörten Citi-CEO Jane Fraser, Morgan-Stanley-CEO Ted Pick, Bank of America-CEO Brian Moynihan, Wells Fargo-CEO Charlie Scharf sowie Goldman-Sachs-CEO David Solomon; JPMorgan-CEO Jamie Dimon konnte nicht teilnehmen. Die genannten Institute wurden von den zuständigen Aufsichtsbehörden als systemisch wichtig eingestuft.
An der Sitzung nahmen Finanzminister und Fed-Vorsitzender persönlich teil, was in der Branche als ungewöhnlich angesehen wird. Bei früheren staatlichen Eingriffen in KI-Risiken handelte es sich meist um Arbeitsgruppen auf Institutsebene; nun wird die Warnung direkt auf die höchste Ebene der Finanzaufsicht hochgestuft. Damit wird deutlich signalisiert, dass die Behörden KI-Netzwerkbedrohungen bereits als systemische Risiken für die Stabilität des Finanzsystems eingestuft haben.
Laut den am selben Tag von Anthropic veröffentlichten technischen Unterlagen verfügt Mythos über die Fähigkeit, Schwachstellen in allen gängigen Betriebssystemen und Webbrowsern zu identifizieren und auszunutzen. In der Testphase fand das Modell aus eigener Initiative Tausende zuvor unbekannter Zero-Day-Schwachstellen (zero-day vulnerabilities), darunter eine seit 27 Jahren in dem sicherheitsorientierten Open-Source-Betriebssystem OpenBSD schlummernde Schwachstelle; außerdem entdeckte das Modell in der Videobearbeitungsbibliothek FFmpeg eine Schwachstelle, die selbst durch automatisierte Testwerkzeuge mit 5.000.000 Programmabläufen nicht nachgewiesen werden konnte.
Anthropic-Forschungskräfte betonten, dass die Schwachstellenerkennungsfähigkeit von Mythos aus den umfassenden Fortschritten des Modells in Programmieren, Schlussfolgern und Autonomie resultiere und nicht das Ergebnis einer gezielten Schulung sei.
Das Unternehmen teilte in einer Erklärung mit: „Die gleiche Fähigkeit, die es dem Modell effektiver macht, Schwachstellen zu beheben, macht es auch effektiver, Schwachstellen auszunutzen.“ Diese Aussage hebt die Zweischneidigkeit von Mythos hervor: Die Grenze zwischen Verteidigung und Angriff wird angesichts solcher Modelle nahezu aufgehoben.
Gerade weil die Fähigkeiten zu stark sind, entschied sich Anthropic dazu, Mythos nicht öffentlich zu veröffentlichen, sondern eine Strategie zur Begrenzung des Zugriffs umzusetzen und es nur ausgewählten Kooperationsunternehmen zugänglich zu machen. Gleichzeitig gab das Unternehmen bekannt, dass es das defensive Cybersicherheits-Kooperationsprogramm mit dem Namen „Project Glasswing“ startet, in Zusammenarbeit mit mehr als 40 Unternehmenspartnern wie AWS, Apple, Cisco, Google, JPMorgan, Microsoft und NVIDIA. Ziel ist es, vor dem Eingreifen von Angreifern proaktiv Schwachstellen in zentraler Software zu finden und zu beheben.
Bildquelle: X/@AnthropicAI Anthropic gab gleichzeitig bekannt, das defensive Cybersicherheits-Kooperationsprogramm „Project Glasswing“ zu starten
Anthropic sagte: „Angesichts der enormen Leistungsfähigkeit des Modells gehen wir bei der Veröffentlichung einen vorsichtigen Weg. Wir arbeiten gerade mit einer kleinen Gruppe von Early-Access-Kunden zusammen, um das Modell zu testen, und wir glauben, dass dies die bislang bahnbrechendste Generation ist, die wir aufgebaut haben.“
Das Unternehmen verriet zudem, dass es dem Regierungspersonal zu den Anwendungs- und Angriffs-/Verteidigungsszenarien von Mythos Briefings gegeben hat und weiter mit dem US-Amt für Cybersicherheit und Sicherheit der kritischen Infrastruktur (CISA) sowie dem AI Standards Innovation Center im Austausch bleibt. Die weiteren Beobachtungspunkte der Öffentlichkeit konzentrieren sich darauf, wie die Aufsichtsbehörden entsprechende Prüf- und Freigabestandards für die Veröffentlichung ähnlicher Modelle festlegen werden, welche konkreten Verteidigungsmaßnahmen Finanzinstitute ergreifen sollten und ob die Abstimmung zwischen internationalen Aufsichtsbehörden mit dem Tempo der technologischen Entwicklung mithalten kann.
Dieser Beitrag wurde von dem verschlüsselten Agent zusammengestellt, der aus verschiedenen Quellen Informationen aggregiert; „Cyber City“ prüft und editiert. Derzeit befindet er sich noch in der Trainingsphase und kann logische Abweichungen oder Informationsfehler enthalten. Der Inhalt dient nur zur Orientierung und stellt keine Anlageberatung dar.
Verwandte Artikel
Claude/GPT zu sehr auf Gefallen aus? Ein Abschnitt in der Claude.md-Anweisung, der ein AI zu harten, präzisen Antworten bringt
OpenAI kündigt ChatGPT Futures an: 26 Studierende der ersten Kohorte erhalten 10.000 US-Dollar Förderung, verteilt über mehr als 20 Hochschulen
FLock.io ermöglicht diese Woche die Zusammenarbeit in der Forschung zwischen dem Sarawak AI Center und der University of Cambridge
Apple einigen sich über 250 Millionen US-Dollar zur Beilegung einer Sammelklage gegen Verbraucher; je Person bis zu 95 US-Dollar Entschädigung
Der OpenAI-Research-Vizepräsident kritisiert die wahrgenommene Haltung von Anthropic, dass nur sie KI bauen können
FIS und Anthropic entwickeln KI-Agenten zur Bekämpfung der Geldwäsche und rollen sie in H2 2026 bei BMO und der Amalgamated Bank aus