Caitlin Kalinowski, OpenAI’s einflussreiche Leiterin für Robotik und Hardware, hat ihren Rücktritt bekannt gegeben. Ihr Schritt erfolgte am Samstag und wurde mit tiefgreifenden Bedenken hinsichtlich des jüngsten Auftrags des Unternehmens mit dem US-Verteidigungsministerium begründet. Kalinowski kritisierte öffentlich, dass OpenAI sich nicht ausreichend Zeit für eine umfassende Prüfung der Implikationen genommen habe, bevor es der Nutzung seiner fortschrittlichen KI-Modelle in den geheimen Cloud-Netzwerken des Pentagons zustimmte. Ihre Entscheidung unterstreicht eine wachsende Debatte und interne Dissonanzen bezüglich der ethischen Grenzen und militärischen Anwendungen von Künstlicher Intelligenz bei führenden Tech-Firmen.
Das kontroverse Abkommen mit dem US-Militär wurde Ende Februar von OpenAI bekannt gegeben. Dieser Deal folgte kurz nachdem der ehemalige US-Präsident Donald Trump Bundesbehörden angewiesen hatte, Geschäftsbeziehungen mit Anthropic, einem Hauptkonkurrenten von OpenAI, einzustellen. Anthropic hatte zuvor auf Garantien bestanden, dass seine KI nicht für voll autonome Waffen oder zur Massenüberwachung in den USA eingesetzt werden würde. Das Verteidigungsministerium, das Trump als Kriegsministerium bezeichnete, weigerte sich jedoch Berichten zufolge, diesen Bedingungen zuzustimmen, was den Weg für die Partnerschaft von OpenAI ebnete und zu internen Spannungen führte.
Kalinowski, die erst 2024 zu OpenAI wechselte, nachdem sie zuvor die Hardware-Entwicklung für Erweiterte Realität (AR) bei Meta Platforms geleitet hatte, artikulierte ihre ethischen Bedenken deutlich. Sie betonte, dass KI zwar eine wichtige Rolle für die nationale Sicherheit spiele, jedoch „die Überwachung von Amerikanern ohne richterliche Aufsicht und tödliche Autonomie ohne menschliche Autorisierung Grenzen sind, die mehr Überlegung verdient hätten, als sie bekommen haben.“ Sie bezeichnete die rasche Abwicklung des Deals ohne definierte Sicherheitsleitplanken als ein Problem der Unternehmensführung, da solch wichtige Entscheidungen nicht überstürzt werden sollten.
OpenAI wies die Kritik am Samstag zurück und bekräftigte, dass seine „roten Linien“ den Einsatz der Technologie für inländische Überwachung oder autonome Waffen ausschließen würden. Die ursprüngliche Berichterstattung deutet jedoch auf eine mögliche interne Divergenz hin, indem sie erwähnt, dass selbst OpenAI-Chef Sam Altman offenbar kein großes Vertrauen in diese „roten Linien“ zu haben scheint. Dies deutet auf mögliche anhaltende interne Spannungen oder Unklarheiten innerhalb des Unternehmens bezüglich der praktischen Durchsetzung und Interpretation dieser entscheidenden ethischen Schutzmaßnahmen hin, die eine fortgesetzte öffentliche Debatte erforderlich machen.

