KI im Krieg
Was wir wissen – und was das bedeutet
Aktualisiert: März 2026KI ist kein Friedenswerkzeug. Sie ist ein Verstärker – von dem, was Menschen damit machen.
Im Krieg bedeutet das: KI schlägt vor, handelt und entscheidet – schneller, als Menschen denken können. Die Menschen, die sie einsetzen, tragen die Verantwortung. Sie müssen zur Verantwortung gezogen werden.
Diese Seite dokumentiert die aktuelle Faktenlage – Stand März 2026. Vieles davon ist nicht Spekulation, sondern durch renommierte Medien und Institutionen belegte Realität.
Vier Ebenen des Problems
KI als Zielerfassungsmaschine
Dieselben Systeme, die in Gaza erprobt wurden – 10% Fehlerquote akzeptiert – laufen jetzt in Iran. 1.000 Ziele in 24 Stunden ausgewählt.
Big Tech als Kriegsinfrastruktur
Palantir, Microsoft, OpenAI, NVIDIA, Anduril: ein neuer militärisch-technologischer Komplex – direkt im Kriegseinsatz.
Das Accountability-Vakuum
Wer haftet, wenn KI Ziele auswählt und Kinder sterben? Ein rechtliches Vakuum, das sich in Echtzeit vor uns öffnet.
Der Präzedenzfall-Export
Was heute in Iran erprobt wird, ist morgen Standardausrüstung weltweit – auch für nicht-staatliche Akteure.
Brandaktuell: KI im Iran-Krieg (März 2026)
Claude – das KI-System dieser Seite – im Kriegseinsatz
Das ist eine Tatsache, die in diesem Text nicht verschwiegen werden kann: Anthropics Claude-Modell – dasselbe System, mit dem diese Seite erarbeitet wurde – war bis zuletzt Teil des militärischen Einsatzes der USA.
⚠️ Palantirs Maven Smart System, das Anthropics Claude-Sprachmodell enthält, half US-Kommandanten dabei, in den ersten 24 Stunden des Iran-Krieges 1.000 iranische Ziele auszuwählen. Das berichtete die Washington Post am 5. März 2026.
Darüber hinaus wurde Claude laut Medienberichten auch bei Operationen eingesetzt, die zur Gefangennahme des venezolanischen Präsidenten Maduro führten – und bei Vorbereitungen für die Operation gegen Irans obersten Führer Chamenei.
„AI gets it wrong. We need humans to check the output of generative AI when the stakes are life and death.“
„Künstliche Intelligenz irrt sich. Wir brauchen Menschen, die die Ergebnisse generativer KI überprüfen, wenn es um Leben und Tod geht.“
Paul Scharre, Center for a New American Security – Washington Post, 5. März 2026
Die Situation ist komplexer als ein einfaches „Mitmachen“: Im Juli 2025 unterzeichnete Anthropic einen 200-Millionen-Dollar-Vertrag mit dem Pentagon – mit zwei expliziten Schutzklauseln: Claude darf nicht für Massenüberwachung amerikanischer Bürger eingesetzt werden, und nicht für vollständig autonome Waffensysteme. Das Pentagon stimmte diesen Bedingungen zu.
Im Januar 2026 erließ Verteidigungsminister Hegseth eine neue Richtlinie: Alle KI-Verträge müssen „jeden rechtmäßigen Zweck“ erlauben. Anthropic lehnte ab. Daraufhin ordnete Trump am 27. Februar 2026 an, dass alle Bundesbehörden die Nutzung von Anthropics Produkten einstellen – und stufte das Unternehmen als „Supply Chain Risk“ ein, eine Einstufung, die normalerweise ausländischen Feinden vorbehalten ist. Am 9. März 2026 reichte Anthropic Klage gegen das Pentagon ein und bezeichnete die Maßnahmen als „beispiellos und rechtswidrig“.
Dennoch: Trotz des Konflikts nutzt das US-Militär Anthropics Claude weiterhin im Krieg gegen den Iran – über Palantirs Maven Smart System. Das zeigt das eigentliche Problem: Ethische Grenzen lassen sich setzen – aber ihre Durchsetzung in Kriegszeiten ist eine andere Frage.
Quellen
- [1] Washington Post / Common Dreams – Maven Smart System, 1.000 Ziele:
commondreams.org/news/us-israel-ai-iran - [2] Euronews – Claude im Kriegseinsatz, Pentagon-Konflikt:
euronews.com – AI on the battlefield - [3] Nature – Anthropic vs. Pentagon:
nature.com/articles/d41586-026-00710-w - [4] Rest of World – Claude, Drohnen, globale Proliferation:
restofworld.org/2026/anthropic-ai-and-iran-drone-warfare/
Israel setzt Gaza-erprobte KI-Systeme in Iran ein
Lavender (Gaza, 2023–2024): KI-Empfehlungssystem, das 37.000 Personen als Ziele identifizierte. Zielfreigabe in 20 Sekunden, 10% Fehlerquote akzeptiert – oft ohne nennenswerte menschliche Überprüfung.
Habsora / Iran, 2026: Dasselbe israelische KI-System, nun in Iran im Einsatz. Quincy Institute-Vize Trita Parsi am 5. März 2026: „In beiden Fällen – Gaza und Teheran – scheint Israel KI ohne menschliche Aufsicht einzusetzen.“ Beispiel: KI identifizierte einen Park namens „Police Park“ als Ziel – weil sie alle staatsbezogenen Gebäude markiert.
Bekannte Folgen: Über 1.000 Tote im Iran, darunter rund 175 Kinder – in den ersten Kriegstagen.
Quellen
- [5] +972 Magazine – Lavender-Primärquelle (April 2024):
972mag.com/lavender-the-ai-machine - [6] Common Dreams / Quincy Institute – Gaza-Systeme in Iran:
commondreams.org/news/us-israel-ai-iran - [7] Asia Times – Gaza-tested AI on Iran:
asiatimes.com – Gaza-tested AI on Iran - [8] The Guardian – Lavender Bestätigung (2024):
theguardian.com – Israel Gaza AI database
Der neue militärisch-technologische Komplex
Palantir Technologies
Battlefield Intelligence, Zielanalysen. Maven Smart System mit Claude. Ukraine, Gaza, Iran.
Anduril Industries
Autonome Drohnen, Grenzsurveillance, KI-Verteidigungssysteme. Drohnenschwärme mit Lattice-Technologie.
Microsoft / NVIDIA
Militärische Cloud-Infrastruktur. Iran griff AWS-Datenzentren in den VAE an, um US-Kräfte zu schwächen.
OpenAI
Nachfolger von Anthropic als Pentagon-Lieferant nach dem Richtlinienkonflikt im Januar 2026.
Quellen
- [9] The Daily Star – Der neue mili-tech Industriekomplex:
thedailystar.net – High-Tech US-Israel-Iran War - [10] ORF Online / Intelligence Landscape 2026:
orfonline.org – Intelligence Landscape Iran War 2026
Drohnen: Krieg wird billig und unkontrollierbar
Eine der gefährlichsten Entwicklungen seit 2024 ist nicht die KI bei Großmächten – sondern die Demokratisierung der Kriegsführung durch billige Drohnen.
Ukraine-Krieg als Testlabor: Rund 70–80% aller Gefechtsverluste entfallen inzwischen auf Drohnen – viele davon KI-gesteuert. Am 1. Juni 2025 zerstörte die Ukraine mit autonomen Drohnenschwärmen (Operation Spider’s Web) strategische Luftwaffenbasen in Russland.
Iran setzt Tausende Drohnen ein: Über die Straße von Hormuz und den Persischen Golf – mit massiven Auswirkungen auf globale Ölversorgung und Luftverkehr.
Kosten einer Drohne: ab 2.000 USD. Damit sind sie auch für nicht-staatliche Akteure zugänglich – kriminelle Netzwerke, Terrorgruppen, bewaffnete Milizen.
Quellen
- [11] Jerusalem Post – AI und autonome Kriegsführung 2025/2026:
jpost.com – AI on the battlefield 2025 - [12] Rest of World – Drohnenkrieg, globale Proliferation:
restofworld.org – Drones and AI in Iran war
Regulierung: Zu langsam, zu schwach, zu spät?
Während in Genf Expertinnen und Experten über letale autonome Waffensysteme diskutieren, läuft der Krieg. Die Schere zwischen technologischer Entwicklung und internationaler Regulierung wird täglich größer.
„The current failure to regulate AI warfare, or to pause its usage until there is some agreement on lawful usage, seems to suggest potential proliferation of AI warfare is imminent.“
„Das derzeitige Versäumnis, die KI-Kriegsführung zu regulieren oder ihren Einsatz so lange auszusetzen, bis eine Einigung über ihre rechtmäßige Nutzung erzielt ist, lässt vermuten, dass eine potenzielle Verbreitung der KI-Kriegsführung unmittelbar bevorsteht.“
Craig Jones, Politischer Geograph, Newcastle University – Nature, 6. März 2026„There is no evidence that AI lowers civilian deaths or wrongful targeting decisions – and it may be that the opposite is true.“
„Es gibt keine Beweise dafür, dass KI die Zahl der zivilen Todesopfer oder die Zahl der Fehlentscheidungen bei der Zielauswahl verringert – und möglicherweise ist sogar das Gegenteil der Fall.“
Craig Jones, ebd.Besonders beunruhigend: Eine Studie des King’s College London ergab, dass KI-Chatbots in Kriegsszenarien fast immer den Einsatz von Atomwaffen als Option wählten. Das ist kein Randphänomen – das ist ein strukturelles Problem der aktuellen KI-Systeme.
⚠️ China rüstet massiv auf: Georgetown Universitys Center for Security and Emerging Technology dokumentiert, dass China ein KI-Ökosystem aufbaut, das „novel research direkt mit Frontline-Operationen verbindet“.
Der Export-Effekt: Was Israel in Gaza und Iran erprobt, wird über Rüstungshandel und Militärhilfe in alle Konfliktgebiete exportiert. Die 10% Fehlerquote wandert mit.
Quellen
- [13] Nature – Genfer Gespräche, Regulierungsversagen:
nature.com/articles/d41586-026-00710-w - [14] Euronews – King’s College Studie, Atomwaffen in KI-Szenarien:
euronews.com – AI on the battlefield - [15] Verfassungsblog – Lavender und Völkerrecht:
verfassungsblog.de – Lavender and IHL - [16] Human Rights Watch – Autonome Waffensysteme:
hrw.org – Autonomous weapons
Was das mit der Charta zusammenhängt
Die Charta der Menschlichkeit stellt genau die Fragen, die diese Fakten aufwerfen – nicht abstrakt, sondern konkret und dringend:
Wer kontrolliert wirklich?
Formal „ein Mensch“ – praktisch eine KI, die 1.000 Ziele in 24 Stunden auswählt. Echte Kontrolle ist das nicht.
Wer haftet?
175 Kinder tot in fünf Tagen. Kein Mensch hat für jeden einzelnen Tod eine bewusste Entscheidung getroffen.
Wer entscheidet über Werte?
OpenAI und Anthropic ändern Nutzungsbedingungen unter Regierungsdruck – ohne öffentliche Debatte.
💡 Das „Recht auf Ineffizienz“ – ein Kernelement der Charta – bekommt hier eine tödliche neue Dimension: Das Gegenteil von ineffizient ist nicht nur schneller. Es ist 1.000 Ziele in 24 Stunden. Es ist 20 Sekunden statt menschlicher Überlegung. Es ist eine 10% Fehlerquote, die als akzeptabel gilt.
Es gibt Widerstand – Friedensinitiativen weltweit
Deutschsprachiger Raum
International
📋 Hinweis zur Quellenqualität: Die Kernfakten dieser Seite stammen aus seriösen Medien und Institutionen: Nature, Washington Post (zitiert nach Common Dreams), The Guardian, Euronews, Jerusalem Post, Rest of World, Asia Times, Verfassungsblog, Lieber Institute / West Point. Unterschiedliche politische Hintergründe – aber übereinstimmende Kerninformationen.
Verbleibender Unsicherheitsfaktor: Einige Angaben basieren auf anonymen Quellen oder nicht offiziell bestätigten Berichten. Das gehört zur Transparenz dieses Textes.
Stand der hier zitierten Quellen: März 2026.
