„Hightech“-Unternehmen sind Rüstungsunternehmen – KI-gestützte Kriegsführung wurde einer Maschine an vertraut

Quelle: Pixabay, gemeinfrei, CC0 Public Domain

Berlin, BRD (Weltexpress). Das stellt der Politologe Avner Gvaryahu in einem Beitrag des „Guardian“ fest, den das kommunistische Magazin „Contropiano“ am 17. März 2026 übernimmt. 1 Zu Seiner Einschätzung führt der Autor an, dass diese Unternehmen Bestandteil einer israelischen Militärstrategie namens „Nebelverfahren“ sind. Es ist Gewalt, die durch Blindheit legitimiert wird. Schießen im Dunkeln und es Abschreckung nennen. Mit dem Aufkommen KI-gestützter Kriegsführung wurde dieselbe Logik der bewusst herbeigeführten Blindheit verfeinert, systematisiert und einer Maschine anvertraut.

Israels jüngster Krieg im Gazastreifen wurde, so Gvaryahu, als erster großer „KI-Krieg“ bezeichnet – der erste Krieg, in dem KI-Systeme eine zentrale Rolle bei der Erstellung der israelischen Zielliste mutmaßlicher Hamas- und Islamischer-Dschihad-Kämpfer spielten. Diese Systeme verarbeiteten Milliarden von Datenpunkten, um die Wahrscheinlichkeit zu bestimmen, mit der eine bestimmte Person im Gazastreifen ein Kämpfer war.

Die Dunkelheit im Wachturm war eine Folge der Gegebenheiten vor Ort. Die Dunkelheit im Algorithmus ist eine Folge der Konstruktion. In beiden Fällen wurde Blindheit bewusst gewählt. Sie wurde gewählt, weil Blindheit nützlich ist: Sie schafft die Möglichkeit der Verleugnung, lässt Gewalt unausweichlich erscheinen und verlagert die Frage nach dem Entscheidungsträger von einer Person auf ein Verfahren. Der Nebel hat sich nicht gelichtet. Ihm wurde eine Wahrscheinlichkeitsbewertung zugewiesen und er wurde als Intelligenz bezeichnet.

Möglicherweise war es bewusstes Wegsehen, das zu Beginn des US-israelischen Krieges gegen den Iran zur Bombardierung der Shajareh-Tayyebeh-Grundschule in Minab im Süden Irans führte. Mindestens 168 Menschen wurden getötet, die meisten von ihnen Kinder, Mädchen im Alter zwischen sieben und zwölf Jahren.

Die eingesetzten Waffen waren präzise. Munitionsexperten beschrieben die Zielerfassung als „unglaublich genau“; jedes Gebäude wurde einzeln getroffen, nichts verfehlte sein Ziel. Das Problem lag nicht in der Ausführung, sondern im Geheimdienst. Die Schule war vor fast zehn Jahren durch einen Zaun von einem nahegelegenen Stützpunkt der Revolutionsgarde abgetrennt und für zivile Zwecke umgenutzt worden. Offenbar wurde diese Information im Laufe des Zielerfassungsprozesses nie aktualisiert.

Gaza war das Labor. Minab ist der Markt.

Die genaue Rolle der KI beim Bombenanschlag auf Minab ist noch nicht offiziell bestätigt. Bekannt ist jedoch, dass die Zielinfrastruktur, in der diese Systeme operieren, keinen zuverlässigen Mechanismus besitzt, um zu erkennen, wenn die zugrundeliegenden Informationen ein Jahrzehnt alt sind.

Ob ein Algorithmus diese Schule ausgewählt hat oder nicht, sie wurde von einem System ausgewählt, das auf algorithmischer Zielauswahl basiert. Um in den ersten 24 Stunden der Iran-Offensive 1.000 Ziele zu treffen, setzte das US-Militär auf KI-Systeme, die die Zielliste in einer Geschwindigkeit erstellten, priorisierten und klassifizierten, die kein menschliches Team hätte erreichen können.

Gaza war das Labor. Minab ist der Markt. Das Ergebnis ist eine Welt, in der die folgenreichsten Zielentscheidungen moderner Kriegsführung von Systemen getroffen werden, die sich nicht erklären können, von Konzernen, die niemandem Rechenschaft schuldig sind, in Konflikten, die weder Verantwortlichkeit noch Rechenschaftspflicht hervorbringen. Das ist kein Systemversagen. Das ist das System selbst.

Wir sollten der Versuchung widerstehen, den Algorithmus allein für die Logik verantwortlich zu machen, die Kindern eine akzeptable Fehlerquote beschert. Im Juli 2014 wurden vier Jungen der Familie Bakr – Ismail, Zakariya, Ahed und Mohammad im Alter von neun bis elf Jahren – an einem Strand im Gazastreifen getötet. Da war noch keine KI beteiligt.

Das Gelände war zuvor als Marinestützpunkt der Hamas eingestuft worden. Die Jungen gerieten in Verdacht, weil sie erst rannten und dann gingen – ein Verhalten, das dem üblichen Vorgehen von Kämpfern entsprach, die versuchen, unauffällig zu bleiben. Als die erste Rakete einschlug, flohen die überlebenden Kinder. Die Drohne verfolgte sie und feuerte erneut. Ein Offizier sagte später aus, dass es aus der Luftperspektive sehr schwierig sei, die Kinder zu identifizieren. Der Angriff wurde als Zielfehler eingestuft.

Eine als geheim eingestufte israelische Militärdatenbank, die vom Guardian, dem +972 Magazine und Local Call eingesehen wurde, ergab, dass von den über 53 000 registrierten Todesfällen im Gazastreifen etwa 17 % auf namentlich genannte Kämpfer der Hamas und des Islamischen Dschihad entfielen. Dies deutet darauf hin, dass die übrigen 83 % Zivilisten waren. Diese Statistiken zeugen nicht von einem präzise geführten Krieg; vielmehr ist Ungenauigkeit das Ziel. (Die israelischen Streitkräfte (IDF) bestritt die im „Guardian“- Artikel präsentierten Zahlen , gaben aber nicht an, welche Zahlen „korrekt“ seien.)

KI-Zielsysteme haben diese Logik also nicht erfunden. Sie haben sie übernommen, in Millionen von Datenpunkten kodiert und so automatisiert, dass sie keiner sinnvollen menschlichen Kontrolle mehr unterliegt. Wenn eine Schule in Minab in einer Datenbank als Militärgelände eingestuft wird, ist das kein Fehler. Es ist das sogenannte „Nebelverfahren“, dieselbe Logik, die vier Jungen an einem Strand in Gaza verfolgte – sie funktioniert exakt wie geplant, nur in einem anderen Maßstab, in einem anderen Land und mit einer anderen Waffe. Die Dunkelheit verfügt nun lediglich über eine bessere Hardware.

Viele dieser KI-Systeme verstoßen von Natur aus gegen das humanitäre Völkerrecht, das nicht nur korrekte Ergebnisse von Militäroperationen verlangt, sondern auch einen sorgfältigen Prozess vor deren Ausführung.

Ein Kommandeur muss alle zumutbaren Anstrengungen unternehmen, um zu überprüfen, ob es sich bei einem Ziel um ein legitimes militärisches Ziel handelt. Das Gesetz schreibt außerdem vor, dass alle Anstrengungen unternommen werden müssen, um Zivilisten vor den Auswirkungen des Angriffs zu schützen – nicht als nachträgliche Überlegung, sondern als gleichwertige und ebenso wichtige Verpflichtung.

Diese Verpflichtung kann nicht an ein System delegiert werden, dessen Logik undurchsichtig ist und dessen Ergebnisse nicht in Echtzeit überprüft werden können. Im Gazastreifen verarbeitete ein Algorithmus Daten zu jeder Person im Streifen – Telefonaufzeichnungen, Bewegungsmuster, soziale Kontakte, Verhaltenssignale – und erstellte eine klassifizierte Namensliste, der jeweils ein Wahrscheinlichkeitswert zugewiesen wurde, der die Wahrscheinlichkeit angab, dass es sich um einen Kämpfer handelte.

Das ist nicht vergleichbar mit einem menschlichen Analysten, der einen bekannten Militanten identifiziert und eine Waffe programmiert, um ihn anzugreifen. Die KI bestätigte keine Identitäten. Sie leitete sie statistisch über die gesamte Bevölkerung ab und generierte so Ziele, die kein Mensch einzeln geprüft hatte, bevor sie auf der Liste erschienen.

Die Verifizierung in diesem System bedeutete, dass ein menschlicher Bediener jeden Namen durchschnittlich etwa 20 Sekunden lang prüfte, um sicherzustellen, dass es sich um einen Mann handelte. Anschließend wurde das Ziel freigegeben. Allein ein System generierte in den ersten Kriegswochen über 37.000 Ziele. Ein anderes konnte täglich 100 potenzielle Bombenziele generieren. Die beteiligten Personen trafen keine Entscheidungen. Wir verwalteten lediglich eine Warteschlange.

Im Iran ist die Lage derzeit weniger gut dokumentiert. Doch das Ausmaß spricht für sich. Zwei Quellen bestätigten gegenüber „NBC News“, dass die KI-Systeme von Palantir, die unter anderem auf umfangreicher Sprachmodelltechnologie basieren, zur Zielidentifizierung eingesetzt wurden. (Palantir-CEO Alex Karp erklärte auf Nachfrage bei „CNBC“, er könne „keine Details nennen“, sagte aber, dass Claude weiterhin in die im Iran-Krieg eingesetzten Palantir-Systeme integriert sei.)

Brad Cooper, Chef des US-Zentralkommandos, rühmte sich damit, dass das Militär im Iran KI einsetzt, um „in Sekundenschnelle riesige Datenmengen zu analysieren“ und „schneller intelligentere Entscheidungen zu treffen, als der Feind reagieren kann“. Unabhängig davon, ob jeder Angriff KI-gestützt war oder nicht, war das Tempo der Kampagne nur möglich, weil die Zielerfassung im Wesentlichen automatisiert war.

Wenn die gemeldeten Verifizierungszeiten für KI-gestützte Ziele in Sekunden gemessen werden, sprechen wir nicht mehr von menschlichem Urteilsvermögen mit algorithmischer Unterstützung. Wir sprechen von der Bestätigung der Maschinenausgabe. Und wenn die Daten dieser Maschine ein Jahrzehnt alt sind, sind die Folgen verheerend.

Bei den beteiligten Unternehmen handelt es sich nicht um unbekannte Rüstungs-Startups. Palantir, gegründet mit anfänglicher CIA-Finanzierung und heute ein führender Anbieter von KI-Infrastruktur für das US-Militär, lieferte die Systeme, die im Iran-Einsatz zum Einsatz kamen. Diese Systeme basieren teilweise auf Claude von Anthropics, einem großen Sprachmodell, dessen Mutterkonzern sich dem Druck des Pentagons widersetzte, die ethischen Beschränkungen für dessen Einsatz zur Zielerfassung aufzuheben. Das Pentagon reagierte mit der Drohung, die Zusammenarbeit abzubrechen, und wandte sich stattdessen OpenAI und anderen Anbietern zu. Dem Markt für großangelegte Attentate, dem es nicht an Anbietern mangelt.

Diese Episode ist lehrreich: Das einzige Unternehmen, das versuchte, eine rote Linie zu ziehen, wurde ins Abseits gedrängt, und die Tötungen gingen ungehindert weiter. Google unterzeichnete trotz massiver Proteste seiner Mitarbeiter das Projekt Nimbus, einen Cloud-Computing- und KI-Vertrag mit der israelischen Regierung und dem Militär im Wert von über einer Milliarde Dollar.

Amazon ist neben Google Mitunterzeichner des Projekts Nimbus. Microsoft war eng mit israelischen Militärsystemen verknüpft, bevor es sich 2024 unter Druck teilweise zurückzog. Daraufhin wurden die Daten innerhalb weniger Tage zu „Amazon Web Services“ migriert.

Anduril, gegründet von Palmer Luckey und größtenteils mit ehemaligen US-Verteidigungsbeamten besetzt, entwickelt autonome Waffensysteme, die explizit für tödliche Angriffe konzipiert sind. OpenAI, das bis vor Kurzem die militärische Nutzung in seinen Nutzungsbedingungen untersagte, hob diese Einschränkung Anfang 2024 stillschweigend auf und bemüht sich seither um Aufträge des Pentagons.

Es handelt sich dabei um einige der wertvollsten Unternehmen der Welt, deren Konsumgüter von Hunderten Millionen Menschen genutzt werden, um Partnerunternehmen in der universitären Forschung und um Unternehmen mit bedeutendem politischen Einfluss in Washington, Brüssel und darüber hinaus.

Natürlich beliefern private Unternehmen das Militär seit Jahrhunderten – mit Funkgeräten, Lastwagen, Satellitennavigation, Mikrowellentechnik und natürlich komplexen Waffensystemen. Das ist weder neu noch per se korrupt. Das Problem der „Doppelverwendung“ ist so alt wie die Industrialisierung selbst: Fast jede leistungsstarke Technologie kann militärisch genutzt werden.

Wie man die israelische Blase zum Platzen bringt

Doch KI-gestützte Zielerfassung ist nicht einfach nur eine Komponente, die das Militär in seine Operationen integriert. Die Entscheidungsarchitektur selbst bestimmt, wer getötet wird und warum. Wenn ein einzelnes System Zehntausende von Zielen in der Zeit generieren kann, die ein menschliches Nachrichtendienstteam für die Überprüfung von zehn Zielen benötigt, stellt sich nicht mehr die Frage, ob private Unternehmen das Militär beliefern sollten. Es geht vielmehr darum, ob ein Rechtsrahmen angesichts eines solchen Systems überhaupt noch Bestand haben kann.

Im Völkerrecht spricht man von Verantwortlichkeitsrahmen: der Kette möglicher Reaktionen, die von der Entscheidung zum Einsatz tödlicher Gewalt bis zu der Person reicht, die diese autorisiert hat. Ein Verantwortlichkeitsrahmen erfordert, dass die Person als Entscheidungsträger identifizierbar ist, dass ihre Beweggründe nachträglich rekonstruierbar sind und dass nachgewiesen werden kann, dass die gesetzlich vorgeschriebenen Verfahrensanforderungen – Verhältnismäßigkeitsprüfung, Überprüfung und Vorsorge – eingehalten wurden.

KI-gesteuerte Angriffe zerstören systematisch all diese Bedingungen. Die Verantwortlichkeit verschwimmt in einer Kette von Ingenieuren, Kommandeuren, Bedienern und Auftragnehmern, von denen jeder den anderen beschuldigen kann. Argumentation löst sich in einer Wahrscheinlichkeitszahl auf, die kein Anwalt überprüfen und kein Gericht hinterfragen kann.

Der Prozess reduziert sich auf eine 20-sekündige Genehmigung einer Maschinenempfehlung. Und die Unternehmen, die das System entwickelt und vertrieben haben, bleiben völlig außerhalb des rechtlichen Rahmens, da das humanitäre Völkerrecht für Staaten und deren Vertreter konzipiert wurde und Palantir die Genfer Konventionen nicht unterzeichnet hat.

Das System der Verantwortlichkeit wurde durch die KI-Kriegsführung nicht nur belastet oder auf die Probe gestellt. Es ist strukturell irrelevant geworden .

Lüftet den Nebel des Krieges

Wir sollten aufhören, diese Unternehmen als „Technologieunternehmen“ zu bezeichnen und sie stattdessen so nennen, wie sie sind: Rüstungsunternehmen.

Die größten KI-Unternehmen sind keine neutralen Infrastrukturanbieter, die zufällig einen militärischen Kunden gefunden haben. Sie werden in die Zielarchitektur moderner Kriegsführung integriert. Ihre Systeme sind in die Tötungskette eingebettet, ihre Ingenieure sind sicherheitsüberprüft, und ihre Führungskräfte durchlaufen dieselbe Drehtür, die seit jeher das Silicon Valley mit dem Pentagon verbindet.

Diese KI-Anbieter stehen an der Spitze des militärisch-industriellen Komplexes und sollten dementsprechend reguliert werden. Für Unternehmen wie Raytheon und Lockheed Martin gelten klare Verantwortlichkeitsstrukturen – darunter Exportkontrollen, parlamentarische Aufsicht, Haftungsrahmen und Beschaffungsbedingungen –, während die schwachen Regulierungen für Unternehmen, die Algorithmen zur Auswahl militärischer Ziele entwickeln, nie implementiert, getestet oder durchgesetzt wurden.

Das ist kein Versehen. Es ist eine bewusste Entscheidung , die durch Lobbyarbeit, die gezielte Vermischung von „kommerziellen“ und „militärischen“ Produkten und eine Regulierungskultur, die KI immer noch als Konsumtechnologie behandelt, die zufällig auf dem Schlachtfeld gelandet ist, aktiv aufrechterhalten wird.

Palantir gab 2024 fast 6 Millionen Dollar für Lobbyarbeit in Washington aus und übertraf in einem Quartal des Jahres 2023 sogar Northrop Grumman. Das Unternehmen hat eine Stiftung gegründet, die sich der Gestaltung des politischen Umfelds widmet, in dem es tätig ist.

Das Konsortium aus Palantir, Anduril, OpenAI, SpaceX und Scale AI wurde von seinen Teilnehmern selbst als Projekt zur Ausstattung der US-Regierung mit einer neuen Generation von Rüstungsunternehmen beschrieben. Die Risikokapitalgesellschaften Andreessen Horowitz und Founders Fund, die diese Unternehmen unterstützen, haben ihren Einfluss durch Nähe zu Machtzentren ausgebaut: ehemalige hochrangige Beamte sitzen in ihren Beiräten, Partner durchlaufen regelmäßig Regierungsämter, und sie haben direkten Zugang zu den politischen Entscheidungsträgern, die über die Höhe und die Verwendung der Pentagon-Ausgaben entscheiden.

Die EU-KI-Gesetzgebung, der bisher ambitionierteste Versuch, künstliche Intelligenz zu regulieren, schließt militärische und nationale Sicherheitsanwendungen ausdrücklich aus, mit der Begründung, das humanitäre Völkerrecht sei der geeignetste Rahmen. Dies ist ein bemerkenswerter Zirkelschluss: Ausgerechnet das Rechtsgebiet, das von diesen Systemen systematisch untergraben wird, soll deren Regulierungsbehörde sein, während die Regulierungsbehörden, die diese Systeme wirksam einschränken könnten, tatenlos zusehen.

In den Vereinigten Staaten regelt der National Defense Authorization Act von 2025 (NDAA) im Bereich der Künstlichen Intelligenz (KI) nicht den Einsatz militärischer KI. Er weist die Behörden lediglich an, KI verstärkt einzusetzen. Pete Hegseths KI-Strategie, die im Januar 2026 veröffentlicht wurde, stellt das Thema als Wettlauf dar und fordert das Pentagon auf, in Kriegsgeschwindigkeit zu handeln, wobei KI als erstes Testfeld dient. Die regulatorische Kultur hinkt der Technologie nicht einfach nur hinterher. Sie hat sich bewusst dafür entschieden, es gar nicht erst zu versuchen.

Bislang kam der einzige ernsthafte staatliche Eingriff in die militärischen Fähigkeiten von KI nicht von einem Staat, der zu Zurückhaltung oder Rechenschaftspflicht aufrief, sondern von den Vereinigten Staaten, die forderten, die Systeme tödlicher zu machen . Dies ist der Horizont der Ambitionen, den wir akzeptiert haben.

Ein Verbot dieser Systeme ist unmöglich, solange so viele der Beteiligten das Völkerrecht missachten. Doch die Druckpunkte bleiben bestehen und sind real. Jede zukünftige Regierung in Washington, die die militärischen Fähigkeiten der KI nutzen will, ohne eine endlose Flut von Minabs zu produzieren, benötigt einen Regulierungsrahmen – nicht als Zugeständnis an Kritiker, sondern als Grundvoraussetzung, um nicht selbst zum „Schurkenstaat“ zu werden.

Dasselbe gilt für Europa, wo Großbritannien über 1 Milliarde Pfund für ein neues KI-integriertes Zielsystem bereitgestellt hat, das Sensoren und Angriffsfähigkeiten über alle Bereiche hinweg verbindet, wo Frankreichs führendes KI-Unternehmen eine Partnerschaft mit einem deutschen Verteidigungs-Startup eingegangen ist, um autonome Waffenplattformen zu entwickeln, und wo Deutschland KI-gesteuerte Angriffsdrohnen in der Ukraine einsetzt.

Es besteht die Möglichkeit, diese Systeme zu regulieren. Die EU verfügt über die offensichtlichsten Instrumente, nicht durch den KI-Act, der militärische Anwendungen bewusst ausnimmt, sondern durch Exportkontrollen und Beschaffungsbedingungen für Dual-Use-Systeme, die zwischen zivilen und militärischen Märkten wechseln.

Sogar internationale Gerichte öffnen sich zunehmend: Das Gutachten des Internationalen Gerichtshofs zu den Rechten der Palästinenser hat einen Rahmen geschaffen, in dem Unternehmen, die Systeme für rechtswidrige Angriffe liefern, in Ländern, die das Völkerrecht ernst nehmen, mit potenzieller Haftung rechnen müssen. Und KI-Unternehmen benötigen Regierungen nicht nur als Kunden, sondern auch als Anbieter der Rechenleistung, Energie und physischen Infrastruktur, die für Spitzen-KI unerlässlich sind und die kein Unternehmen allein mit kommerziellen Einnahmen finanzieren kann.

Diese Abhängigkeit verleiht Staaten, die sie nutzen wollen, echten Einfluss auf Unternehmen, die einer Regulierung lieber entgehen würden. Die Frage ist, ob eine Regierung mit den entsprechenden Instrumenten vor der nächsten Minab-Sitzung entscheiden wird, dass die Kosten des Nichtstuns zu hoch geworden sind.

Die Regelung sollte relativ einfach aussehen, auch wenn ihre Umsetzung schwierig ist. KI-Systeme, die für gezielte Werbung eingesetzt werden, müssen nachvollziehbar sein – nicht durch eine Wahrscheinlichkeitsbewertung, sondern durch eine Begründung, die ein Anwalt überprüfen kann.

Die gesamten zivilen Kosten KI-gestützter Kampagnen müssen umfassend bewertet werden. Die Verantwortung, die beim Anwender endet, muss sich entlang der gesamten Lieferkette bis zu den Unternehmen erstrecken, die wissentlich intransparente Systeme für den Einsatz in bewaffneten Konflikten entwickelt und verkauft haben. Dies sind keine neuen Forderungen. Sie sind die Mindestvoraussetzungen dafür, dass das Kriegsrecht im Zeitalter algorithmischer Zielerfassung überhaupt noch Bedeutung hat.

Der Autor schließt mit der Betonung, dass das „Nebelverfahren“ unterdessen ist etabliert ist und die Zukunft der Kriegsführung prägt. Doch die Soldaten, die im Dunkeln feuerten, waren zumindest anwesend. Die Unternehmen, die die Nachfolgesysteme errichtet haben, tun dies von Palo Alto aus – ohne persönliches Risiko, ohne rechtliche Konsequenzen und mit jedem Anreiz, es wieder zu tun.

Anmerkung:

1 Avner Gvaryahu ist Doktorand der Blavatnik School of Government der Universität Oxford. Er war Geschäftsführer von Breaking the Silence, einer israelischen Menschenrechtsorganisation ehemaliger Soldaten.

Anzeige:

Reisen aller Art, aber nicht von der Stange, sondern maßgeschneidert und mit Persönlichkeiten – auch Reisen mit Themen aus Politik und Wirtschaft (Politische Ökonomie und Geopolitik), Geschichte und Gastronomie, Kunst und Kultur und Natur und so weiter –, bietet Retroreisen an. Bei Retroreisen wird kein Etikettenschwindel betrieben, sondern die Begriffe Sustainability, Fair Travel und Slow Food werden großgeschrieben.

Vorheriger ArtikelDie Düngemittelkrise wird zugespitzt – Naturdünger wie Mist wird für die industrielle Landwirtschaft nicht reichen
Nächster ArtikelTrotz Lenz, dem Menschenfrühling fern