Markige Worte, Irritation, Empörung. Die Reaktionen vieler Politiker auf Projekte der Rüstungsindustrie ähneln einander. Kaum hatte Verteidigungsministerin Ursula von der Leyen (CDU) Mitte Mai angekündigt, eine europäische Drohne mit deutscher Beteiligung nun zügig auf den Weg zu bringen, sprach Agnieszka Brugger, verteidigungspolitische Sprecherin der Bundestagsfraktion der Grünen, forsch von einem "militärischen Tabubruch" - denn die Drohne soll erstmals bewaffnet sein. Und als Anfang Juli bekannt wurde, dass die Bundeswehr in den vergangenen zehn Jahren offenbar 80 Millionen Euro in die Forschung an Laserwaffen - unter anderem, um Drohnen abzuschießen - investiert hatte, war Grünen-Verteidigungsexperte Tobias Lindner ahnungslos: "Ich höre das zum ersten Mal." Zwei Beispiele, die zeigen, dass der Krieg der Zukunft anders geführt wird, als heute und vieles, das als Science Fiction galt, längst Realität ist. Doch in etlichen Köpfen ist das nicht angekommen.

Professor Holger Mey, Zukunftsforscher in der Rüstungssparte von Airbus, sieht mehrere Tendenzen: Grundsätzlich wird Krieg bleiben, was er ist. Also Schlachten schlagen und "dem Gegner den eigenen Willen aufzwingen". Das ist seit Zeiten des römischen Reiches so und "daran wird sich so viel nicht ändern". Ein Panzer mag in Zukunft mit einer Laserwaffe bestückt oder aus Kunststoff gefertigt sein, "aber er wird ein Panzer sein", also die Kombination aus "Feuerkraft, Beweglichkeit und Schutz".

Immer wichtiger wird der "Operationsraum Cyber", weil es schon heute kaum noch ein Waffensystem gibt, das nicht vernetzt ist und zudem die eigene - auch zivile - Infrastruktur dem Gegner in diesem Bereich viele Angriffsziele bietet. Auch im Krieg der Zukunft wird Informationsbeschaffung und -auswertung zentrale Bedeutung haben. Generell geht die Entwicklung in allen Operationsräumen allerdings zu unbemannten Systemen.

Ein Beispiel aus dem "Operationsraum Luft" sind Drohnen, also unbemannte Luftfahrzeuge (UAV). In der Luftfahrtbranche gelten sie als das Wachstumssegment. Ethisch und völkerrechtlich werfen sie Probleme auf, die zunehmend Kritiker auf den Plan rufen. Selbst US-Präsident Barack Obama, der die gezielte Tötung von Feinden aus heiterem Himmel lange Zeit als "legal und effektiv" bezeichnet hatte, ruderte Mitte April zurück, nachdem bei einem Drohnenangriff im Januar in Pakistan versehentlich zwei westliche Geiseln des Terrornetzwerks Al-Kaida getötet worden waren.

Drohnen sind nur ein kleiner Bestandteil dessen, was in einer Studie des US-Thinktanks "Center for a New American Security" (CNAS) vom Januar 2014 als "Krieg im Roboter-Zeitalter" bezeichnet wird, doch sie sind einer der auffälligsten - und an ihnen zeigen sich exemplarisch viele Probleme der Waffensysteme der Zukunft.

"Ethisch ist eine Waffe stets neutral", hatte der damalige Verteidigungs-, heutige Innenminister und bekennende Drohnen-Befürworter Thomas de Maizière (CDU) die Problematik vor wenigen Jahren leichthändig abgehakt. Aus seiner Sicht ist es unerheblich, ob ein Flugzeugpilot im Gefecht eine Rakete abfeuert oder ein tausende Kilometer entfernt sitzender Soldat, der per Joystick und Satellitenverbindung eine Drohne über Pakistan oder dem Jemen steuert, dasselbe tut: In beiden Fällen entscheidet ein Mensch über Leben und Tod, das Waffensystem ist nur ein Hilfsmittel. Die Drohne ist attraktiv, weil ihre Reichweite im Vergleich zu einem Kampfflugzeug erheblich größer ist, auch kann sie länger über einem potenziellen Ziel stehen, als ein Pilot.

Kritiker arbeiten sich derweil an der wachsenden Eigenständigkeit der Waffen ab. Diese sollen zunehmend selbst die Lage beurteilen und Gegner ohne Eingreifen eines Menschen töten. Dass solche Ideen mehr als Zukunftsmusik sind, zeigen Experimente, die Südkorea vor einigen Jahren mit einem Kampfroboter anstellte. Das Vehikel war mit Sensoren zur Geländebeobachtung und einem Maschinengewehr ausgerüstet und sollte statt lebender Soldaten an der Grenze zum kommunistischen Nordkorea Patrouille schieben. 2008 wurden die Versuche eingestellt, einem internationalen Rüstungsinformationsdienst zufolge wegen "fehlender Kampftauglichkeit".

Menschenrechtsorganisationen wie Human Rights Watch fordern seit Jahren ein Verbot vollautonomer Waffensysteme. Ende Juli sprachen sich auch Robotik-Forscher anlässlich einer Technologie-Konferenz in Buenos Aires für ein Verbot von Waffensystemen aus, die mit Verfahren der küsntlichen Intelligenz (KI) arbeiten. Mehr als 2000 Experten, unter ihnen Astrophysiker Stephen Hawking und Apple-Co-Gründer Steve Wozniak, unterzeichneten den Appell. Mey teilt die Argumente der Gegner unbemannter Waffen nicht: "Die, die von einer Entmenschlichung reden, scheinen nicht zu wissen, wovon sie reden, weil sie offenkundig davon ausgehen, dass Kriege menschlich sind. Kriege führen jedoch oftmals zu einer Verrohung des Menschen."

Intelligente Systeme sind eng verknüpft mit der Entwicklung der Lenkwaffen. Das CNAS rechnet vor: Während des Zweiten Weltkriegs gab es keine Lenkwaffen. Noch im Vietnamkrieg (bis 1975) lag der Anteil gelenkter Bomben bei unter einem Prozent. Im Golfkrieg (1990) waren es 9 Prozent, bei den Nato-Luftangriffen gegen Serbien (1999) schon 69 Prozent. Für die Zukunft rechnen die CNAS-Forscher mit mehr als 90 Prozent Lenkwaffen, wiederum vor allem im Zusammenhang mit Drohnen. Parallel zu dieser Entwicklung stieg die Treffgenauigkeit von einem Radius von rund 1000 Metern im Zweiten Weltkrieg auf 30 Meter in Serbien. In Zukunft sollen es knapp zwei Meter sein. Kritiker wie die linke "Informationsstelle Militarisierung" (IMI) in Tübingen lehnen diesen "Mythos Präzision" ab und verweisen vor allem auf die dadurch sinkende Hemmschwelle.

Maximale Wirkung bei minimalem Risiko lautet die Marschroute. Mey hält wachsende Distanz zum Ziel für ein wesentliches Merkmal. Dazu gehören die schnelle Verlegung von Truppen über große Entfernungen sowie Machtprojektion: Egal, ob Drohnen, Laser- und Mikrowellenwaffen oder Systeme, die mit mehrfacher Überschallgeschwindigkeit unterwegs sind: "Man wird an jedem Ort zu jeder Zeit jedes Ziel zerstören können." Mey warnt zugleich: Die Entwicklung von Hochtechnologie sei unaufhaltsam, doch die gesellschaftliche Debatte dazu fehle weitgehend. In absehbarer Zeit könnten sich Nano- und Biotechnologie sowie künstliche Intelligenz und Robotik vereinigen: "Es wird Zeit, dass sich die Menschheit über ihre Rolle auf diesem Planeten im Klaren wird."

Cyber ist überall

Operationsräume Krieg wird in sechs Umfeldern geführt: Land, See und Luftraum (dem entsprechen die klassischen Teilstreitkräfte Heer, Marine und Luftwaffe) sowie im Weltraum, Informationsraum (Cyber) und in der biologischen Sphäre. Nach Ansicht von Prof. Holger Mey wird in Zukunft vor allem die Informations-Dimension an Bedeutung gewinnen, weil sie alle anderen Operationsräume durchdringt: Cyber ist überall.

Risiken Die IT-Nutzung hat sich schneller entwickelt als das entsprechende Risikobewusstsein. Mey nennt als Gefahren vor allem die Vernachlässigung von Sicherheitsstandards zugunsten von Benutzerfreundlichkeit und Interoperabilität sowie der Bezug von Hard- und Software aus Staaten wie China oder Indien.