Autonome Waffensysteme für die Bundeswehr?Krieg der Maschinen

Die Bundeswehr soll aufgerüstet werden. Aber wie? Es gibt „autonome“ Waffensysteme, die sich – in unterschiedlichem Maße – selbst steuern und kontrollieren. Sie können Menschenleben vernichten, besitzen aber keinen moralischen Kompass. Darf die Bundeswehr so etwas anschaffen? Die Antwort hängt davon ab, wie „autonom“ diese Systeme tatsächlich sind.

Drohne
© Pixabay

Als Konsequenz des Angriffskrieges gegen die Ukraine wird eine Aufrüstung der Bundeswehr gefordert. Pazifisten lehnen das ab. Wer dagegen Landesverteidigung befürwortet, muss sich mit der Frage nach einer wieder einsatzbereiten Bundeswehr beschäftigen. Kaum waren die hundert Milliarden dafür beschlossen, kursierten schon Gerüchte zu überteuerten Waffenkaufprogrammen. Es muss also dringend die Frage gestellt werden, wohin das Geld fließen soll. Der Haushaltsausschuss des Bundestages hat für die Bewaffnung von Drohnen bereits Mittel freigegeben. Sollen nun auch sogenannte „autonome“ Waffensysteme dazu gehören? Eine christlich-sozialethische Position kann solche Sondierungen bereichern.

Die sogenannten „autonomen“ Waffensysteme steuern und korrigieren sich selbst ohne menschlichen Einfluss. Sie folgen programmierten Algorithmen und wägen keine ethischen oder rationalen Gründe ab. Fünf Levels werden je nach Interventionsgrad durch die steuernden Soldaten unterschieden. Level 1: Der Mensch wählt Angriffsziele aus und initiiert jeden einzelnen Angriff. Level 2: Das Programm schlägt alternative Ziele vor; der Mensch wählt aus. Level 3: Das Programm wählt die konkreten Ziele aus; der Mensch muss diese bestätigen. Level 4: Das Programm entscheidet und führt ohne weitere Bestätigung den Angriff aus; der Mensch kann diesen noch stoppen. Level 5: Der Mensch programmiert nur das große Ziel der militärischen Mission. Das Programm agiert dann in diesem Rahmen ohne weitere Intervention.

Nicht mehr Schaden als Nutzen

Bevor über die Anschaffung von Waffensystemen ethisch diskutiert wird, braucht es eine Rechtfertigung für militärische Verteidigung. Kriterien finden sich im Völkerrecht, aber auch im Katechismus (Nr. 2309): „Der Schaden, der der Nation oder der Völkergemeinschaft durch den Angreifer zugefügt wird, muss sicher feststehen, schwerwiegend und von Dauer sein. Alle anderen Mittel, dem Schaden ein Ende zu machen, müssen sich als undurchführbar oder wirkungslos erwiesen haben. Es muss ernsthafte Aussicht auf Erfolg bestehen. Der Gebrauch von Waffen darf nicht Schäden und Wirren mit sich bringen, die schlimmer sind als das zu beseitigende Übel.“ Nur wer diese verantwortungsethische Position teilt, kann weiter ernsthaft über eine Aufrüstung der Bundeswehr nachdenken.

Im Blick auf die „autonomen“ Systeme stehen dabei unter dieser Voraussetzung besonders die Konsequenzen für Menschenbild und Verantwortung im Mittelpunkt. Darauf hat Militärbischof Franz-Josef Overbeck mehrfach hingewiesen. Folgende Argumente bestimmen die aktuellen Diskussionen: Für den Einsatz „autonomer“ Waffensysteme spricht das sogenannte Fürsorge-Argument. Menschliches Leben in den Reihen der eigenen Streitkräfte werde geschont. Aber natürlich gilt das nicht für die Seite des Kriegsgegners. Wird gezielter oder werden sogar mehr Ziele im Krieg zerstört? Die Gefahr von Hackerangriffen auf die Systeme ist sehr ernst zu nehmen. Das gilt aber auch für andere zentrale Verteidigungssysteme wie etwa Kommunikations- oder Radaranlagen oder im zivilen Sektor für Medien, Gesundheits- und Energieversorgung.

Was besonders schwer wiegt: Auf Level 5 ist die Vernichtung menschlichen Lebens schnell ein Spielball von Algorithmen. Menschen, die getötet werden, sind nur noch zu zerstörende Punkte im Fadenkreuz. Das gibt es zwar auch schon bei anderen Waffensystemen. Nun aber wird solche Zerstörung nicht von Menschen, sondern durch sich selbst steuernde Algorithmen vorgenommen, deren Aktionen auch nicht mehr gestoppt werden können. Dieser Grad der „Autonomie“ stellt menschliches Leben in die Verfügungsgewalt unkontrollierbarer Rechenoperationen.

In dieser Konstellation ist zudem der Nutzer des Systems letztlich dessen Sklave, weil nicht mehr in einzelne Aktionen eingegriffen werden kann. Maschinen herrschen über Soldaten, die der von ihnen genutzten Technik nicht mehr Einhalt gebieten können, etwa in unvorhergesehenen Situationen, die eine Neubewertung erfordern.

Und wer wird im Falle von Fehlern (die dann in der Regel Menschenleben kosten, überzogene Zerstörung verursachen und sogar Kriegsverbrechen bedeuten könnten) die Verantwortung dafür übernehmen? Der Hersteller des Systems kann es wohl kaum sein. Vielleicht derjenige, der den Befehl zu einer entsprechenden Operation gegeben hat und damit Fehler beziehungsweise Verbrechen mit einkalkuliert? Ist aber einmal ein solches System im Einsatz und die Bedrohungslage drängt, dann müssen schnellstmöglich Entscheidungen getroffen werden. Dann scheint es unverhältnismäßig, den jeweiligen Entscheider für nicht vorhersehbare Fehler oder überraschende Veränderungen der Gefechtslage verantwortlich zu machen, die eine andere Gesamt-Programmierung erforderlich gemacht hätten.

Oder soll es dann einfach das System selbst sein, welches quasi humanoid Verantwortung übernehmen muss und Konsequenzen tragen sollte?

Solche Überlegungen werden schon angestellt und angesichts zunehmend fließender Übergänge zwischen Mensch und Maschine immer wahrscheinlicher. Sie höhlen den Inhalt der Menschenwürde aus, indem moralisch zwischen Mensch und Maschine nicht mehr sauber unterschieden werden kann.

Vor diesem Hintergrund findet die Frage nach dem Träger der Verantwortung keine befriedigende Antwort. Weiterhin werden Konsequenzen für die Art der Kriegführung als ethisch bedenklich angesehen. Das Völkerrecht wird durch die Verletzung von Grenzen leicht außer Kraft gesetzt, ebenso menschliche Regungen wie Mitleid oder humanitäre Hilfe für Verwundete der Gegenseite reduziert oder ganz ausgeschaltet. Das Gleiche gilt für die lebensrettende Alternative der Gefangennahme von Gegnern statt deren Tötung. All das verstößt gegen die sogenannte Martens-Klausel, nach der Leben von Zivilisten und Kombattanten im Krieg unter Achtung der Prinzipien von Gewissen und Humanität stehen, die ein sich selbst überlassenes Waffensystem nicht einlösen kann. Denn das hat keine Moral.

Christlicher Kompass

Viele dieser Argumente bieten Anknüpfungspunkte für eine christliche Bewertung und die Antwort auf die Frage, ob nun „autonome“ Waffensysteme für die Bundeswehr angeschafft werden sollten. Wesentliche Grundlage christlicher Ethik ist die Begründung der unantastbaren Menschenwürde in der Gottesebenbildlichkeit jedes Menschen. Jede Tötung eines Menschen ist deshalb immer ein Übel, selbst wenn sie als ultima ratio gerechtfertigt sein kann. Der Einsatz von Technik (wie auch die Wirtschaft) ist immer nur ein Instrument im Dienst des Menschen und in Verantwortung vor seinem Schöpfer. Sie soll dem Menschen und der Menschheit dienen, ein Leben zu führen, das am Ende (also im Leben nach dem irdischen Tod) vor einem gnädigen Gott als gut angesehen werden kann. Eine Instrumentalisierung des Menschen durch Technik (oder Markt oder anderes) ist kategorisch illegitim, ebenso eine Verwässerung menschlicher Würde durch quasi moralische und andere humane Attribute für technische Artefakte.

Freiheit des Menschen ist immer gedacht in Liebe zu und in Verantwortung vor dem Schöpfergott, vor sich selbst als dessen Ebenbild und vor den Mitmenschen. Die Übernahme von Verantwortung ist zudem Ausdruck menschlicher Freiheit und moralischer Kompass für ein gutes Leben in dieser dreifachen Ausrichtung. Dies gilt für die individuelle Lebensführung ebenso wie für die Kultur eines irenisch-inklusiven Zusammenlebens der Menschen. Denn aus christlicher Sicht sind alle Menschen Gottes Ebenbild, auch die Fremden, auch die Feinde (nicht aber technische Artefakte). Mit diesem Kompass können nun christlich begründete Bewertungen und Antworten vorgeschlagen werden.

Ächtung oder Beschaffung „autonomer“ Systeme?

Im Rahmen der verantwortungsethischen Position müssen als Erstes die Kriterien für eine gerechtfertigte Gewaltanwendung erfüllt sein. Im Blick auf die „autonomen“ Waffensysteme kann erst dann die Würde-Diskussion offen geführt werden. Es ist auf Grundlage der gebotenen dreifachen Verantwortung ein Höchstmaß an Meaningful Human Control (MHC) anzustreben. Es gibt keine guten Waffen und auch keinen guten Waffeneinsatz. Und Verletzungen von Würde können nur auf der Ebene des Würdearguments entschuldigt werden.

Eine einfache Ächtung aller „autonomen“ Systeme nach dem Prinzip „one size fits all“ ist nicht angemessen. Wegen der Verletzungen der Menschenwürde auch des Feindes (als Gottes Ebenbild) und der Beschneidung der dreifachen menschlichen Verantwortung sind Waffensysteme auf Level 5 zu ächten, es sei denn, ihr Einsatz ist so eingeschränkt, dass sie (wie SARMO-Systeme) nicht eigenmächtig neue Ziele zerstören: Diese Systeme sind komplett vorprogrammiert, zerstören allein angreifende Objekte, reagieren dazu schnellstmöglich ohne große Entscheidungsprozesse, werden regelmäßig evaluiert und peilen keine neuen Ziele an. Eine Ächtung solcher Systeme wird auch aus ansonsten kritischen Kreisen nicht befürwortet.

Verantwortung darf nicht auf Maschinen übertragen werden. Auch sind alle Formen einer Humanisierung der Technik zu vermeiden. Systeme auf den Levels unterhalb von Level 5 erlauben ein verantwortliches Eingreifen des Menschen. Sie können sich der Forderung einer Ächtung entziehen, wenn eine entsprechende Tugendbildung der Nutzer gewährleistet ist, die die unantastbare Würde des Gegenübers (unter Wahrung der Feindesliebe) bewusst macht und das Gewissen in der Verantwortung vor den humanitären Prinzipien der Menschlichkeit schult.

Es muss ein Schuldbewusstsein geschult werden. Das ist aus christlicher Sicht selbst im gerechtfertigten Einsatz von Waffen unabdingbar. Hier müssten für die Bundeswehr hohe Tugend-Standards formuliert und umgesetzt werden. Nur so kann bei einem entsprechenden Waffengebrauch einer Verrohung von Akteuren und der Gesellschaft entgegengewirkt werden, welche der Entfaltung des Menschen vor Gott und der inklusiven Idee von Zusammenleben widersprächen.

Maschinen haben keine Moral

In Anknüpfung an die Warnungen vor einer Vergötzung von Technik (Papst Franziskus) können rote Linien und schiefe Bahnen markiert werden. Sie erlauben grundlegende Bewertungen des Einsatzes „autonomer“ Waffen sowie entsprechende Ächtungs- oder Kauf-Optionen.

Erstens: Für eine legitime Landesverteidigung gegenüber Aggressoren braucht es eine erfolgversprechende Aufstellung und Ausrüstung der Bundeswehr. Hierzu muss entsprechende Technik vorhanden sein, die zugleich ethischen Standards gerecht wird. So genannte „autonome“ Systeme sind hierfür differenziert zu bewerten. Zweitens: Verantwortung kann im Einsatz nicht auf Maschinen übertragen werden. Denn diese haben keine Moral. Auch sind alle Formen einer Humanisierung der Technik zu vermeiden. Deshalb sollte der Begriff „autonom“ im Zusammenhang mit Waffensystemen vermieden und ersetzt werden, etwa durch: „sich selbst steuernde Waffensysteme“. Drittens: Als grundsätzlich unbedenklich angesehen werden auf Level 5 bereits angeschaffte Waffensysteme der Flugabwehr, die mit hoher Effizienz angreifende Objekte unschädlich machen (SARMO). Wegen der Verletzungen der Menschenwürde des Feindes und der Beschneidung menschlicher Verantwortung der sie nutzenden Soldaten sollten die übrigen Waffensysteme auf Level 5 nicht auf der Kaufliste des Verteidigungsministeriums stehen. Viertens: Systeme auf den Levels unterhalb von Level 5 erlauben immer noch ein verantwortliches Eingreifen. Sie können deshalb angeschafft werden, wenn anspruchsvolle Tugendbildung zum Würdeverständnis für die Nutzer in der Bundeswehr Pflicht ist.

Anzeige: Geschichte der Päpste seit 1800. Von Jörg Ernesti

Die Herder Korrespondenz im Abo

Die Herder Korrespondenz berichtet über aktuelle Themen aus Kirche, Theologie und Religion sowie ihrem jeweiligen gesellschaftlichen und kulturellen Umfeld. 

Zum Kennenlernen: 2 Ausgaben gratis

Jetzt testen