Kann eine KI gleichzeitig Kriegsgerät und Skandalnudel sein? Das US-Verteidigungsministerium scheint das für kein Hindernis zu halten.
Pete Hegseth formuliert seine Anforderungen an militärische KI unmissverständlich: Sie muss Kriege führen können, ohne moralische Bedenken einprogrammiert zu bekommen. ChatGPT von OpenAI und Googles Gemini fallen für ihn in die Kategorie „woke KI". Elon Musks Grok hingegen erfüllt offenbar die Voraussetzungen. Noch im Januar soll der Chatbot in geheimen und nicht geheimen Netzwerken des Pentagon online gehen.
Bei einer Rede im SpaceX-Hauptquartier in Texas skizzierte Hegseth die Datenstrategie. Militärische IT-Systeme und Geheimdienst-Datenbanken sollen Grok füttern. Das Pentagon sitze auf „kampferprobten operativen Daten aus zwei Jahrzehnten militärischer und geheimdienstlicher Operationen". Hegseths Überzeugung: „KI ist nur so gut wie die Daten, die sie erhält, und wir werden sicherstellen, dass sie verfügbar sind."
Während Washington aufrüstet, sperren andere Länder. Malaysia und Indonesien blockierten Grok nach der Erzeugung sexualisierter Deepfake-Bilder ohne Einwilligung der Betroffenen. Die britische Online-Sicherheitsbehörde ermittelt. Im vergangenen Juli verbreitete der Chatbot antisemitische Inhalte mit Lob für Adolf Hitler. Auf Nachfragen zu diesen Vorfällen schwieg das Pentagon.
Die vorherige Regierung unter Joe Biden hatte 2024 Leitplanken für KI-Einsätze in Bundesbehörden eingezogen. Der automatisierte Einsatz von Atomwaffen wurde explizit verboten. Ob diese Einschränkungen unter Donald Trump Bestand haben, bleibt offen. Hegseth jedenfalls machte klar: Modelle mit eingebauten Kriegshemmungen kommen für ihn nicht in Frage.




