
Anthropic-CEO Dario Amodei ist laut einem Bericht der Financial Times zu Verhandlungen mit dem US-Verteidigungsministerium zurückgekehrt, nachdem die Gespräche letzte Woche über die Frage, wie das Militär die KI-Technologie des Unternehmens einsetzen darf, gescheitert waren.
Die Gespräche zielen darauf ab, einen Streit über den Zugang des Pentagon zu Anthropic’s Claude-AIModellen beizulegen, die bereits im Rahmen eines umfangreichen Verteidigungsvertrags in klassifizierten Regierungsnetzwerken eingesetzt wurden.
Gespräche nach Abbruch wieder aufgenommen
Amodei führt nun Gespräche mit Emil Michael, dem Unterstaatssekretär des Verteidigungsministeriums für Forschung und Technik, in dem, wie mit der Sache vertraute Personen sagten, letzten Versuch, eine Vereinbarung zu erreichen, die regelt, wie das Militär die Werkzeuge von Anthropic einsetzen kann, berichtete die FT.
Die Verhandlungen brachen am Freitag auseinander, nachdem beide Seiten keine Einigung über den Umfang der Nutzung der Technologie erzielen konnten.
In der Folge wies Präsident Donald Trump Bundesbehörden an, die Nutzung der Software von Anthropic einzustellen, während Verteidigungsminister Pete Hegseth sagte, das Unternehmen könne als Lieferkettenrisiko für die nationale Sicherheit der USA eingestuft werden.
Der Streit wurde auch persönlich.
Michael kritisierte Amodei öffentlich in einem Beitrag auf der Social‑Media‑Plattform X und nannte ihn einen „Lügner“ mit einem „Gottkomplex“.
Uneinigkeit über den militärischen Einsatz von KI
Im Kern des Konflikts steht, wie weit das Pentagon beim Einsatz von KI‑Modellen wie Claude in militärischen Operationen gehen darf.
Anthropic erhielt einen Vertrag über $200 million, durch den Claude zum ersten großen KI‑Modell wurde, das in klassifizierten Regierungsnetzwerken eingesetzt wurde.
Das Unternehmen verlangte jedoch später Zusicherungen, dass seine Technologie nicht für inländische Überwachung oder zur Steuerung autonomer Waffensysteme verwendet werde.
Das Pentagon hingegen drängte darauf, die Technologie für jeden rechtmäßigen militärischen Zweck einsetzen zu können.
Einem von Amodei an Mitarbeiter verschickten Memo, das der FT vorliegt, zufolge bot das Verteidigungsministerium gegen Ende der Verhandlungen an, die Bedingungen von Anthropic zu akzeptieren, wenn ein bestimmter Ausdruck, der sich auf die „Analyse massenhaft erhobener Daten“ bezieht, gestrichen würde.
Amodei schrieb, dass die Formulierung genau den Anwendungsfall widerspiegele, den das Unternehmen befürchtete.
Während Anthropic einerseits dem Zorn des Verteidigungsministeriums ausgesetzt war, wurde andererseits sein KI‑Modell Claude Berichten zufolge vom US‑Militär bei der Angriffswelle gegen den Iran eingesetzt, da die Technologie die „Kill Chain“ verkürzt – also den Prozess von der Zielidentifizierung über die rechtliche Freigabe bis zum Start des Angriffs.
Rivalität mit OpenAI verschärft sich
Die Kontroverse hat sich auch auf die gesamte KI‑Branche ausgeweitet und die zunehmende Konkurrenz zwischen Anthropic und dem Rivalen OpenAI hervorgehoben.
Nur Stunden nachdem Bundesbehörden angewiesen worden waren, die Nutzung von Anthropic‑Tools einzustellen, unterzeichnete OpenAI einen Vertrag mit dem Pentagon und erklärte, das Ministerium habe den Beschränkungen des Unternehmens zugestimmt.
Amodei behauptete in dem am Freitag an die Mitarbeiter verschickten Memo außerdem, dass Aussagen des Pentagons und von OpenAI — das am Freitag einen eigenen Vertrag mit dem Verteidigungsministerium geschlossen hatte — „ganz einfach Lügen über diese Fragen seien oder versuchten, sie zu verwirren.“
In einer separaten internen Notiz vom Mittwoch kritisierte Amodei zudem OpenAI‑Chef Sam Altman, nannte ihn „verlogen“ und warf ihm vor, Trump eine, wie er es nannte, „diktatorische Huldigung“ zu spenden, so The Information.
Amodei fügte hinzu, dass Anthropic seine „roten Linien mit Integrität“ gewahrt habe, anstatt mit Beamten zusammenzuarbeiten, um das zu schaffen, was er als „Safety Theater“ bezeichnete, das Mitarbeiter beruhigen solle.
Er schrieb, dass viele in Washington – darunter Beamte des Pentagons und von Palantir sowie politische Berater – angenommen hätten, dies sei das Problem, das das Unternehmen zu lösen versuche.
Das Timing des Deals von OpenAI löste online eine Gegenreaktion aus: Berichten zufolge verzeichnete Anthropic’s Claude einen Download‑Anstieg, während Deinstallationen von OpenAI’s ChatGPT zunahmen.
Altman räumte später ebenfalls ein, sein Unternehmen habe den Deal mit dem Pentagon „nicht hätte überstürzen sollen“, und sagte, er habe Beamte gedrängt, Anthropic nicht als Lieferkettenrisiko einzustufen.
Branchenbesorgnis über staatlichen Druck
Die Pattsituation alarmierte Teile des Technologiesektors, die befürchten, dass eine Einstufung eines inländischen KI‑Entwicklers als Risiko für die nationale Sicherheit weiterreichende Folgen für die Branche haben könnte.
Eine Branchenvereinigung, deren Mitglieder unter anderem Nvidia, Google und Anthropic sind, schickte diese Woche einen Brief an Verteidigungsminister Hegseth und äußerte Besorgnis über die Möglichkeit einer solchen Einstufung.
Anthropic, 2021 von ehemaligen OpenAI‑Forschern gegründet, die nach Meinungsverschiedenheiten über die Ausrichtung des Unternehmens ausgetreten waren, hat sich als sicherheitsorientierte Alternative auf dem schnell wachsenden KI‑Markt positioniert.
Das Ergebnis der Verhandlungen könnte einen wichtigen Präzedenzfall dafür schaffen, wie private KI‑Unternehmen mit Regierungen zusammenarbeiten, während fortgeschrittene maschinelle Lernsysteme zunehmend in Operationen der nationalen Sicherheit integriert werden.
The post Anthropic nimmt Pentagon-Gespräche in letzter Rettungsaktion wieder auf – Bericht appeared first on Invezz