Claude Mythos bedroht die Finanzsicherheit? US-Finanzminister und Vorsitzender der Federal Reserve warnen bei einem dringenden Treffen vor Risiken

AWS4,76%

Der US-Finanzminister und der Vorsitzende der US-Notenbank (Federal Reserve) riefen in einem Eilverfahren Führungskräfte von Wall Street zusammen, um vor dem neuesten Modell Mythos von Anthropic zu warnen. Das Modell wurde von den Behörden als systemisches Risiko für das Finanzsystem eingestuft.

Finanzchefs rufen in einem Eilverfahren Führungskräfte von Wall Street zusammen, KI-Netzwerkbedrohungen werden als systemisches Risiko eingestuft

Laut einem Bericht von Bloomberg rief US-Finanzminister Scott Bessent und Fed-Vorsitzender Jerome Powell vergangene Woche im Hauptsitz des US-Finanzministeriums in Washington, D.C., in einem Eilverfahren die CEOs der wichtigsten Banken von Wall Street zusammen, um vor potenziellen Cybersicherheitsrisiken zu warnen, die von dem neuesten Modell von KI-Unternehmen Anthropic, „Claude Mythos Preview“, ausgehen könnten.

Zu den an der Sitzung teilnehmenden Bankführungskräften gehörten Citi-CEO Jane Fraser, Morgan-Stanley-CEO Ted Pick, Bank of America-CEO Brian Moynihan, Wells Fargo-CEO Charlie Scharf sowie Goldman-Sachs-CEO David Solomon; JPMorgan-CEO Jamie Dimon konnte nicht teilnehmen. Die genannten Institute wurden von den zuständigen Aufsichtsbehörden als systemisch wichtig eingestuft.

An der Sitzung nahmen Finanzminister und Fed-Vorsitzender persönlich teil, was in der Branche als ungewöhnlich angesehen wird. Bei früheren staatlichen Eingriffen in KI-Risiken handelte es sich meist um Arbeitsgruppen auf Institutsebene; nun wird die Warnung direkt auf die höchste Ebene der Finanzaufsicht hochgestuft. Damit wird deutlich signalisiert, dass die Behörden KI-Netzwerkbedrohungen bereits als systemische Risiken für die Stabilität des Finanzsystems eingestuft haben.

Mythos-Modellfähigkeiten sind beeindruckend: kann aus eigener Initiative massenhaft Zero-Day-Schwachstellen entdecken

Laut den am selben Tag von Anthropic veröffentlichten technischen Unterlagen verfügt Mythos über die Fähigkeit, Schwachstellen in allen gängigen Betriebssystemen und Webbrowsern zu identifizieren und auszunutzen. In der Testphase fand das Modell aus eigener Initiative Tausende zuvor unbekannter Zero-Day-Schwachstellen (zero-day vulnerabilities), darunter eine seit 27 Jahren in dem sicherheitsorientierten Open-Source-Betriebssystem OpenBSD schlummernde Schwachstelle; außerdem entdeckte das Modell in der Videobearbeitungsbibliothek FFmpeg eine Schwachstelle, die selbst durch automatisierte Testwerkzeuge mit 5.000.000 Programmabläufen nicht nachgewiesen werden konnte.

Anthropic-Forschungskräfte betonten, dass die Schwachstellenerkennungsfähigkeit von Mythos aus den umfassenden Fortschritten des Modells in Programmieren, Schlussfolgern und Autonomie resultiere und nicht das Ergebnis einer gezielten Schulung sei.

Das Unternehmen teilte in einer Erklärung mit: „Die gleiche Fähigkeit, die es dem Modell effektiver macht, Schwachstellen zu beheben, macht es auch effektiver, Schwachstellen auszunutzen.“ Diese Aussage hebt die Zweischneidigkeit von Mythos hervor: Die Grenze zwischen Verteidigung und Angriff wird angesichts solcher Modelle nahezu aufgehoben.

Anthropic verweigert eine Veröffentlichung: Start des „Project Glasswing“ zur Begrenzung des Zugriffs

Gerade weil die Fähigkeiten zu stark sind, entschied sich Anthropic dazu, Mythos nicht öffentlich zu veröffentlichen, sondern eine Strategie zur Begrenzung des Zugriffs umzusetzen und es nur ausgewählten Kooperationsunternehmen zugänglich zu machen. Gleichzeitig gab das Unternehmen bekannt, dass es das defensive Cybersicherheits-Kooperationsprogramm mit dem Namen „Project Glasswing“ startet, in Zusammenarbeit mit mehr als 40 Unternehmenspartnern wie AWS, Apple, Cisco, Google, JPMorgan, Microsoft und NVIDIA. Ziel ist es, vor dem Eingreifen von Angreifern proaktiv Schwachstellen in zentraler Software zu finden und zu beheben.

Bildquelle: X/@AnthropicAI Anthropic gab gleichzeitig bekannt, das defensive Cybersicherheits-Kooperationsprogramm „Project Glasswing“ zu starten

Anthropic sagte: „Angesichts der enormen Leistungsfähigkeit des Modells gehen wir bei der Veröffentlichung einen vorsichtigen Weg. Wir arbeiten gerade mit einer kleinen Gruppe von Early-Access-Kunden zusammen, um das Modell zu testen, und wir glauben, dass dies die bislang bahnbrechendste Generation ist, die wir aufgebaut haben.“

Das Unternehmen verriet zudem, dass es dem Regierungspersonal zu den Anwendungs- und Angriffs-/Verteidigungsszenarien von Mythos Briefings gegeben hat und weiter mit dem US-Amt für Cybersicherheit und Sicherheit der kritischen Infrastruktur (CISA) sowie dem AI Standards Innovation Center im Austausch bleibt. Die weiteren Beobachtungspunkte der Öffentlichkeit konzentrieren sich darauf, wie die Aufsichtsbehörden entsprechende Prüf- und Freigabestandards für die Veröffentlichung ähnlicher Modelle festlegen werden, welche konkreten Verteidigungsmaßnahmen Finanzinstitute ergreifen sollten und ob die Abstimmung zwischen internationalen Aufsichtsbehörden mit dem Tempo der technologischen Entwicklung mithalten kann.

Dieser Beitrag wurde von dem verschlüsselten Agent zusammengestellt, der aus verschiedenen Quellen Informationen aggregiert; „Cyber City“ prüft und editiert. Derzeit befindet er sich noch in der Trainingsphase und kann logische Abweichungen oder Informationsfehler enthalten. Der Inhalt dient nur zur Orientierung und stellt keine Anlageberatung dar.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Claude/GPT zu sehr auf Gefallen aus? Ein Abschnitt in der Claude.md-Anweisung, der ein AI zu harten, präzisen Antworten bringt

Dieser Artikel stellt eine Prompt-Sequenz vor, die in Claude.md / Agents.md eingefügt werden kann. Sie verwandelt KI von einem einfühlsamen Assistenten in einen direkten Berater – durch vierstufige Anpassungen: Rollen-/Identitätssetzung, Faktenprüfung, Freisetzung des Tons und politische-Korrektheit-Ausnahme. Dabei werden vollständige Ergebnisse, schrittweise Verifikation und die Zusage gefordert, niemals Halluzinationen zu erfinden; bei Bedarf soll auch provoziert werden. Außerdem wird erläutert, wann die Prompt beim Laden eingesetzt werden sollte, welche Risiken bestehen und für welche Anwendungsfälle sie geeignet ist (Recherche, Schreiben, technische Einschätzung, wissenschaftliche Diskussionen). Nicht geeignet ist sie für Kundenservice, Bildung und medizinische Beratung. Die Originalquelle des Textes ist ABMedia.

ChainNewsAbmedia4M her

OpenAI kündigt ChatGPT Futures an: 26 Studierende der ersten Kohorte erhalten 10.000 US-Dollar Förderung, verteilt über mehr als 20 Hochschulen

OpenAI hat die erste „ChatGPT Futures Class of 2026“ veröffentlicht: 26 Studierende, die aktuell an über 20 erstklassigen Universitäten eingeschrieben sind, erhalten jeweils 10.000 US-Dollar Fördermittel sowie Zugriff auf wegweisende Modelle. Diese Studierenden begannen ihr Studium im Herbst 2022 und sind gemeinsam mit ChatGPT gewachsen. Ihre Forschungsbereiche umfassen unter anderem die Kartierung von Himmelskörpern, die Erkennung von Katastrophen-Überlebenden, die Bewahrung bedrohter Sprachen und Gesundheitsversorgung. Ziel ist es, mit KI konkrete menschliche Bedürfnisse zu adressieren und neue Grundlagen für eine nächste Generation von Schöpfern zu schaffen.

ChainNewsAbmedia5M her

FLock.io ermöglicht diese Woche die Zusammenarbeit in der Forschung zwischen dem Sarawak AI Center und der University of Cambridge

Laut Foresight News hat FLock.io diese Woche eine neue Forschungskooperation zwischen dem Sarawak Artificial Intelligence Research Centre (SAIC) in Malaysia und der University of Cambridge vermittelt. Die Partnerschaft wird die Zusammenarbeit von technischer Infrastruktur auf wirtschaftliche Forschung, Politikgestaltung und

GateNews18M her

Apple einigen sich über 250 Millionen US-Dollar zur Beilegung einer Sammelklage gegen Verbraucher; je Person bis zu 95 US-Dollar Entschädigung

Apple hat einer Einigung über unbegründete Vorwürfe wegen irreführender KI-Werbung zugestimmt und sich auf eine Summe von 250 Millionen US-Dollar geeinigt. Wenn das Gericht die Einigung genehmigt, können US-Verbraucher, die in dem Zeitraum in den USA die vorgesehenen iPhones kaufen, pro Gerät bis zu 95 US-Dollar Schadensersatz erhalten, einschließlich iPhone 16, 16 Plus, 16 Pro, 16 Pro Max sowie iPhone 15 Pro/Pro Max. Die Kläger machen geltend, dass in der Werbung Siri als Durchbruch-KI dargestellt wurde, die tatsächlichen Funktionen jedoch nicht den Versprechen entsprächen; Apple hingegen sagt, die Funktionen würden in Etappen eingeführt, es seien bereits mehrere Funktionen ausgeliefert worden, und es habe sich nicht um unzutreffende Angaben gehandelt.

ChainNewsAbmedia25M her

Der OpenAI-Research-Vizepräsident kritisiert die wahrgenommene Haltung von Anthropic, dass nur sie KI bauen können

Laut Aidan Clark, dem Research-Vizepräsidenten für Training bei OpenAI, hat er sich auf der X-Plattform kürzlich kritisch zu dem geäußert, was er von Kollegen bei Anthropic gehört habe: die Auffassung, dass nur Anthropic in der Lage sei, KI in die Hände zu nehmen. Clark argumentierte, dass mehrere Organisationen

GateNews26M her

FIS und Anthropic entwickeln KI-Agenten zur Bekämpfung der Geldwäsche und rollen sie in H2 2026 bei BMO und der Amalgamated Bank aus

FIS und Anthropic entwickeln KI-Agents, die darauf ausgelegt sind, Ermittlungen wegen Finanzkriminalität zu automatisieren, beginnend mit Anti-Geldwäsche-Operationen. Der Financial Crimes AI Agent wird Daten aus Bankensystemen abrufen, Transaktionen anhand bekannter Muster bewerten und Ermittlern dabei helfen, al

GateNews47M her
Kommentieren
0/400
Keine Kommentare