Das US-Verteidigungsministerium zieht einem Medienbericht zufolge in Betracht, die Zusammenarbeit mit dem führenden KI-Unternehmen Anthropic zu beenden. Hintergrund sind anhaltende Meinungsverschiedenheiten über die Nutzungsbedingungen der Anthropic-KI-Modelle durch das US-Militär. Das Pentagon fordert uneingeschränkten Einsatz für „alle rechtmäßigen Zwecke“, einschließlich Waffenentwicklung und Schlachtfeldoperationen, was Anthropic aufgrund seiner Ethikrichtlinien verweigert.
Nach monatelangen Verhandlungen sei die Geduld des Pentagon, das auch mit anderen KI-Firmen wie OpenAI, Google und xAI verhandelt, erschöpft. Anthropic betont, dass die Gespräche sich auf klare Grenzen für vollautonome Waffen und inländische Massenüberwachung konzentriert hätten. Das Unternehmen lehnt den Einsatz seiner KI für Gewaltanwendung oder Waffenentwicklung explizit ab, wie es in seinen Richtlinien festgelegt ist.
Eine Meldung des „Wall Street Journal“ berichtete, dass Anthropic’s KI-Modell Claude über eine Partnerschaft mit Palantir bei einer Militäroperation zur Ergreifung des ehemaligen venezolanischen Präsidenten Nicolás Maduro eingesetzt wurde. Anthropic äußerte sich nicht zu dieser spezifischen Operation, bekräftigte jedoch, dass jede Nutzung im Rahmen der Richtlinien bleiben müsse. Anthropic-Chef Dario Amodei ist bekannt für seine Warnungen vor KI-Risiken und seinen Einsatz für strengere Leitplanken in der Entwicklung.
US-Verteidigungsminister Pete Hegseth hatte bereits im Januar klargestellt, dass das Pentagon keine KI-Modelle nutzen wolle, „die es nicht erlauben, Kriege zu führen“. Der Konflikt zwischen dem Pentagon und Anthropic verdeutlicht die wachsenden ethischen und operativen Herausforderungen, die der Einsatz künstlicher Intelligenz im Militärbereich mit sich bringt und wie sich dadurch die Machtverhältnisse in der Rüstungsindustrie verschieben.

