Die KI-Firma Anthropic hat einen bedeutenden Teilerfolg in ihrem Rechtsstreit mit dem US-Verteidigungsministerium errungen. Eine Richterin erließ eine einstweilige Verfügung, die die umstrittene Einstufung von Anthropic als „Lieferkettenrisiko für die nationale Sicherheit“ vorläufig blockiert. Diese Entscheidung von Richterin Rita Lin in San Francisco stellt einen spürbaren Rückschlag für das Pentagon dar, das versucht hatte, das Unternehmen wegen dessen Haltung zur militärischen Nutzung von Künstlicher Intelligenz zu sanktionieren. Die Verfügung tritt erst nach sieben Tagen in Kraft, um der US-Regierung die Möglichkeit zu geben, die Entscheidung vor einem Berufungsgericht anzufechten. Dies unterstreicht die tiefgreifenden Meinungsverschiedenheiten zwischen dem aufstrebenden KI-Sektor und dem Militär bezüglich der ethischen und praktischen Grenzen der Technologieanwendung im Kontext der nationalen Sicherheit.
Kern des Konflikts ist die Forderung des Pentagons nach uneingeschränkten Nutzungsrechten für Anthropic-KI-Modelle. Anthropic pocht darauf, dass seine KI-Modelle weder zur Massenüberwachung von Amerikanern noch in autonomen Waffensystemen eingesetzt werden dürfen. Das US-Verteidigungsministerium hingegen forderte die Rechte für „jede rechtmäßige Nutzung“ ein und betonte, dass kein Unternehmen der Regierung Vorschriften machen könne. Nachdem Anthropic nicht nachgab, erklärte das Pentagon die Firma zum „Supply-Chain Risk to National Security“. Präsident Donald Trump ordnete daraufhin an, dass alle US-Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen. Verteidigungsminister Pete Hegseth ergänzte, dass auch alle Unternehmen, die das US-Militär beliefern, ihre Geschäftsbeziehungen zu Anthropic kappen müssten – ein äußerst ungewöhnlicher Schritt für ein US-Unternehmen, der es faktisch von allen Regierungsaufträgen ausschließt.
Richterin Lin begründete ihre einstweilige Verfügung damit, dass dem Verteidigungsministerium zwar freistehe, keine Anthropic-Produkte zu verwenden, die Regierung jedoch offenbar die Firma darüber hinaus für deren öffentliche Kritik bestrafen wolle. Ein solches Vorgehen, so die Richterin, würde eine Verletzung der verfassungsrechtlich garantierten Redefreiheit darstellen. Die Einstufung als Lieferkettenrisiko sei daher „wahrscheinlich rechtswidrig und willkürlich“. Diese juristische Einschätzung betont die Bedeutung des First Amendment und dessen Schutz vor staatlicher Sanktionierung aufgrund von Meinungsäußerungen, selbst wenn diese im Widerspruch zu staatlichen Interessen stehen. Die Entscheidung sendet ein klares Signal, dass administrative Maßnahmen nicht dazu missbraucht werden dürfen, Unternehmen wegen ihrer ethischen Positionen zu bestrafen.
Anthropic-Chef Dario Amodei warnte wiederholt vor den Gefahren künstlicher Intelligenz, insbesondere vor der Möglichkeit, verstreute Daten einzelner Menschen automatisiert zu einem detaillierten Lebensbild zusammenzusetzen. Zugleich betonte er, dass KI noch nicht verlässlich genug sei, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Kämpfer und Zivilisten in Gefahr bringt“, bekräftigte Amodei. Der Fall ist auch deshalb bemerkenswert, weil Anthropic bisher die einzige KI-Firma war, deren Software auch für vertrauliche Nutzung im US-Militär freigegeben war. Im Gegensatz dazu schloss der ChatGPT-Erfinder OpenAI nach dem Vorgehen gegen Anthropic eine Vereinbarung mit dem Verteidigungsministerium, was die unterschiedlichen Ansätze innerhalb der KI-Branche verdeutlicht.

