Finanzaufsichtsbehörden in den wichtigsten Volkswirtschaften verschärfen die Prüfung eines leistungsstarken neuen KI-Modells von Anthropic, da wachsende Bedenken bestehen, dass seine fortgeschrittenen Fähigkeiten Schwachstellen in kritischen Finanz- und digitalen Systemen offenbaren könnten.

Behörden in Japan, Europa, Indien und anderen Regionen koordinieren ihre Reaktionen, da das als Mythos bekannte Modell neue Fragen zu Cybersicherheitsrisiken in einer zunehmend KI-getriebenen Welt aufwirft.

Japan beruft Spitzenbanken und Aufsichtsbehörden ein

In Japan erklärte die Financial Services Agency am Mittwoch, sie werde am Freitag ein Treffen auf hoher Ebene mit den größten Bankengruppen des Landes abhalten, darunter Mitsubishi UFJ Financial Group, Sumitomo Mitsui Financial Group und Mizuho Financial Group.

An dem Treffen werden auch die Bank of Japan und die Tokyo Stock Exchange teilnehmen, was das Ausmaß der Besorgnis im gesamten Finanzsystem widerspiegelt.

Satsuki Katayama sagte, das Ziel sei, zentrale Interessenträger zusammenzubringen, um die sich entwickelnde Lage zu bewerten.

„Wir werden die zentralen Mitglieder zusammenbringen, die die größte Verantwortung tragen, um Einschätzungen zur aktuellen Lage zu teilen und Ansichten auszutauschen, einschließlich der in Teilen der internationalen Finanzgemeinschaft hervorgehobenen Probleme“, sagte sie.

Zentralbanken weltweit in Alarmbereitschaft

Auch Aufsichtsbehörden in anderen Regionen ergreifen ähnliche Maßnahmen.

Die Reserve Bank of Australia erklärte am Mittwoch, sie beobachte die Entwicklungen aufmerksam und „stehe in Kontakt mit anderen Aufsichtsbehörden, der Regierung und regulierten Institutionen.“

Unterdessen bezeichnete die Reserve Bank of New Zealand am Mittwoch die Risiken als „im Entstehen begriffen“ und bestätigte, dass sie sich mit inländischen und australischen Partnern abstimmt.

Indien hat sich ebenfalls der globalen Anstrengung angeschlossen.

Einem Reuters-Bericht zufolge führt die Reserve Bank of India Gespräche mit internationalen Aufsichtsbehörden, Banken und Regierungsvertretern, um potenzielle Bedrohungen zu bewerten.

Vorläufige Einschätzungen deuten darauf hin, dass das Modell die Entdeckung und Ausnutzung von Software-Schwachstellen beschleunigen könnte, was Cybersicherheitsbedenken schürt.

Die Angelegenheit hat die höchsten Ebenen der globalen Politikgestaltung erreicht.

Der kanadische Finanzminister François-Philippe Champagne sagte der BBC, das Modell sei bei einem kürzlichen Treffen des Internationalen Währungsfonds in Washington erörtert worden.

„Sicherlich ist es ernst genug, um die Aufmerksamkeit aller Finanzminister zu verdienen“, sagte er und bezeichnete die Technologie als eine „unbekannte Unbekannte“.

Ähnlich warnte der Chef der Bank of England, Andrew Bailey, dass die Behörden die Auswirkungen genau prüfen.

„Wir müssen jetzt sehr genau hinschauen, was diese jüngste KI-Entwicklung für das Risiko von Cyberkriminalität bedeuten könnte“, sagte er der BBC.

Ein zweischneidiges Schwert für die Cybersicherheit

Obwohl Mythos für defensive Cybersicherheitsanwendungen entwickelt wurde, haben seine Fähigkeiten Alarm ausgelöst.

Anthropic erklärte, frühe Tests hätten „Tausende“ schwerwiegender Schwachstellen in wichtigen Betriebssystemen und Webbrowsern aufgedeckt.

Am Dienstag bezeichnete Bundesbankpräsident Joachim Nagel das Modell als ein „zweischneidiges Schwert“.

„Es könnte nicht nur dazu verwendet werden, digitale Sicherungssysteme zu verbessern, sondern auch ihre Schwachstellen für böswillige Zwecke auszunutzen.“

Experten sagen, das Problem liege in der Geschwindigkeit und dem Umfang, mit dem ein solches KI-System Schwachstellen identifizieren und ausnutzen kann — weit schneller als traditionelle Sicherheitsreaktionen.

Warum hat Anthropic den Zugriff auf das Modell eingeschränkt?

Anthropic hat den Zugriff auf das Modell über eine kontrollierte Initiative namens Project Glasswing eingeschränkt.

Ausgewählten Organisationen, darunter Amazon, Microsoft, Nvidia und Apple, wurde Frühzugang gewährt, ebenso wie Dutzenden von Stellen, die für die Wartung kritischer digitaler Infrastruktur verantwortlich sind.

In einem Launch-Video sagte Dario Amodei, das Unternehmen habe angeboten, mit US-Behörden zusammenzuarbeiten, um bei der Abwehr der Risiken dieser Modelle zu helfen.

Tests unabhängiger Forscher, einschließlich sogenannter „Red Teams“, haben die fortgeschrittenen Fähigkeiten des Modells hervorgehoben.

Laut Anthropic kann Mythos autonom kritische Fehler in Legacy-Systemen identifizieren und sogar Methoden vorschlagen, diese auszunutzen.

„Mythos Preview hat bereits Tausende von Schwachstellen mit hoher Schwere gefunden, darunter einige in jedem wichtigen Betriebssystem und Webbrowser“, sagte das Unternehmen.

„Angesichts des Tempos des KI-Fortschritts wird es nicht lange dauern, bis solche Fähigkeiten sich verbreiten, möglicherweise auch bei Akteuren, die nicht dem sicheren Einsatz verpflichtet sind.“

Risiken am größten bei Legacy-Systemen

Die potenzielle Bedrohung ist besonders akut in Sektoren, die auf komplexe und veraltete Infrastrukturen angewiesen sind.

Ein Bericht von Bain & Company stellte fest, dass Branchen wie Energie, Fertigung und Verkehr erhöhten Risiken ausgesetzt sein könnten, da veraltete Systeme schwer zu patchen sind.

Auch Banken sind verwundbar, da sie auf vernetzte Systeme angewiesen sind, von denen einige Jahrzehnte alt sind.

Der Bericht betonte jedoch, dass die Risiken mit starken Cybersicherheitsmaßnahmen beherrschbar sind.

„Die Bedrohung ist ernst, aber nicht unüberwindbar, und solide Cybersicherheitsgrundlagen sind die beste Verteidigung“, hieß es, und es wurde ergänzt, dass bestehende Schutzmaßnahmen wie Netzwerksegmentierung, Zugriffskontrollen und Anomalieerkennung erheblichen Schutz bieten können.

Der Fokus verlagert sich auf Vorbereitung statt Panik

Anstatt übereilt völlig neue KI-spezifische Abwehrmaßnahmen zu entwickeln, argumentieren Experten, Organisationen sollten vorrangig die Stärkung bestehender Sicherheitsrahmen anstreben.

Empfohlen werden unter anderem die Einrichtung spezieller KI-Bedrohungsreaktionsteams, die Verbesserung grundlegender Cybersicherheitsmaßnahmen und die Beseitigung von Schwachstellen in Operational-Technology-Umgebungen.

Mit der Ausweitung des Zugriffs auf leistungsfähige KI-Systeme stehen sowohl Aufsichtsbehörden als auch Unternehmen vor einem Balanceakt — die Vorteile der Innovation zu nutzen und zugleich unbeabsichtigte Folgen zu verhindern.

Die schnelle globale Reaktion auf Mythos deutet darauf hin, dass die Entscheidungsträger sich der Tragweite bewusst sind.

Ob diese frühen Bemühungen ausreichen werden, die von der nächsten KI-Generation ausgehenden Risiken zu mindern, bleibt offen.

The post Warum Anthropics Mythos-KI Aufsichtsbehörden und Zentralbanken beunruhigt appeared first on Invezz