Ungeachtet ihrer zunehmenden Anwendung in Kriegsgebieten bleibt der Gebrauch von autonomen Waffensystemen nicht von z.T. heftiger Kritik verschont. Neben dem althergebrachten Argument, dass Kriege generell nichts als Leid und Zerstörung bringen und kriegerische Aktivitäten demnach an und für sich abzulehnen bzw. zu unterbinden sind, nehmen die Kontroversen um den Einsatz von Kampfrobotern darüber hinaus noch einmal zusätzliche Dimensionen an. Sowohl von nationaler, supranationaler als auch nicht-staatlicher Seite verhört man immer wieder Stimmen, die sich für eine bessere Überwachung und Begrenzung, wenn nicht sogar für ein vollständiges Verbot autonomer Waffensysteme aussprechen. Neben renommierten Wissenschaftlern, Politkern und Intellektuellen aus einer Vielzahl von Fachrichtungen macht sich insbesondere eine von der Human Rights Watch ins Leben gerufene Kampagne für einen Stopp von Kampfrobotern stark, derer sich in multiplen Ländern bereits eine große Zahl an Organisationen angeschlossen hat. Die Liste der dabei hervorgebrachten Argumente ist lang und komplex, wobei im Großen und Ganzen zwischen drei Kategorien ethischer Einwände gegen eine vermehrte Nutzung und Entwicklung autonomer Waffensysteme differenziert werden kann. Im Speziellen lässt sich zwischen Argumenten legaler, systemischer sowie rein moralischer Natur unterscheiden, wenngleich die Kritik an Kampfrobotern häufig einen oder mehrere Aspekte aus allen drei Kategorien umfasst.
Krieg ohne Gesicht?: Moralische Bedenken zur autonomen Kriegsführung
Ungeachtet ihrer zunehmenden Anwendung in Kriegsgebieten bleibt der Gebrauch von autonomen Waffensystemen nicht von z.T. heftiger Kritik verschont. Neben dem althergebrachten Argument, dass Kriege generell nichts als Leid und Zerstörung bringen und kriegerische Aktivitäten demnach an und für sich abzulehnen bzw. zu unterbinden sind, nehmen die Kontroversen um den Einsatz von Kampfrobotern darüber hinaus noch einmal zusätzliche Dimensionen an. Sowohl von nationaler, supranationaler als auch nicht-staatlicher Seite verhört man immer wieder Stimmen, die sich für eine bessere Überwachung und Begrenzung, wenn nicht sogar für ein vollständiges Verbot autonomer Waffensysteme aussprechen.1 Neben renommierten Wissenschaftlern, Politkern und Intellektuellen aus einer Vielzahl von Fachrichtungen macht sich insbesondere eine von der Human Rights Watch ins Leben gerufene Kampagne für einen Stopp von Kampfrobotern stark, derer sich in multiplen Ländern bereits eine große Zahl an Organisationen angeschlossen hat.2 Die Liste der dabei hervorgebrachten Argumente ist lang und komplex, wobei im Großen und Ganzen zwischen drei Kategorien ethischer Einwände gegen eine vermehrte Nutzung und Entwicklung autonomer Waffensysteme differenziert werden kann. Im Speziellen lässt sich zwischen Argumenten legaler, systemischer sowie rein moralischer Natur unterscheiden, wenngleich die Kritik an Kampfrobotern häufig einen oder mehrere Aspekte aus allen drei Kategorien umfasst.3
Unter legalen Gesichtspunkten stellt sich in erster Linie die Frage nach der völkerrechtlichen Legitimität eines Einsatzes von Kampfrobotern. Erschwert wird diese allen voran dadurch, dass gegenwärtig nicht nur keine verbindliche Gesetzgebung dazu besteht, sondern dass es insgesamt alles andere als klar und eindeutig ist, wie eine solche überhaupt aussehen bzw. zustande kommen sollte. Alleine schon die Frage nach der Einhaltung nationaler Souveränitätsrechte sowie der Wahrung der territorialen Integrität eines Staates wirft in dieser Hinsicht erhebliche Probleme auf. Wenn bspw. die USA, wie sie dies bereits jetzt schon regelmäßig praktizieren, Drohnen über ausländischem Staatsterritorium fliegen, selbst wenn vorgeblich lediglich zu Aufklärungszwecken, inwieweit handelt es sich dann hierbei um einen direkten Eingriff in die politische Hoheitsgewalt eines anderen Landes? Diese Problematik gewinnt umso mehr an Brisanz wenn es überdies zum tatsächlichen Beschuss feindlicher Ziele kommen sollte - zumal dann, wenn Zivilisten involviert sind. Gerade unbemannte Luftfahrzeuge können, wie weiter oben angedeutet, über einen längeren Zeitraum oftmals relativ unbehelligt über ausländischem Boden operieren, haben gleichwohl aber auch immer wieder mit technischen Problemen zu kämpfen, die vor allem in unüberschaubaren Szenarien zu zweifelhaften Ermessensentscheidungen führen können. Eine fehlerhafte oder verzögerte Kameraübertragung etwa kann den Operateuren ein nicht einwandfrei akkurates Bild der Realität vor Ort vermitteln, mit dem Ergebnis, dass eine falsche Einschätzung der Situation unter Umständen auch unschuldige Dritte das Leben kosten kann. Besonders problematisch ist dies in Fällen, in denen sich die Betreiber der Drohne außerhalb des international anerkannten Kriegsrechtes bewegen, wo es sodann schlussendlich nicht mehr nur um die Rechte ausgewiesener Kriegsteilnehmer geht, sondern ebenso um jene von Nicht-Kombattanten und die Frage, inwiefern möglicherweise gar eine Verletzung grundlegender Menschenrechte vorliegt.4
Ähnliche Herausforderungen tun sich völkerrechtlich auch im Hinblick auf zukünftige Bestrebungen auf, vornehmlich im Kontext vollautomatischer Systeme auf KI-Basis.5 Maschinelle Entitäten, die mehr als lediglich eine mechanische Erweiterung menschlicher Kombattanten sind, bringen zunächst einmal das nur schwer zu lösende Problem der legalen Haftung und Strafmündigkeit mit sich. Ist es überhaupt möglich, autonome Kampfroboter, die eigenständig agieren und töten können, in irgendeiner Weise für die von ihnen verursachten Schäden, ob nun materieller oder insbesondere letaler Art, zur Rechenschaft zu ziehen? Immerhin lässt sich argumentieren, dass es ja immerhin keine Menschen sind, die hier kriegerische Tätigkeiten verrichten. Wer aber soll an ihrer Stelle für die von ihnen gegebenenfalls unrechtmäßig begangenen Straftaten verantwortlich gemacht werden? Bei ferngesteuerten Systemen bestünde zumindest in der Theorie die Möglichkeit, die sie lenkenden Operateure anzuklagen und für die Missachtung elementarer Kriegs- und/oder Menschenrechte in die Pflicht zu nehmen. Bei vollautonomen Robotern hingegen kann es eine solch direkte Schuldzuweisung aus offensichtlichen Gründen jedoch nicht geben, sodass man sich ernsthaft fragen muss, ob prinzipiell irgendjemand für kriegerische Gräueltaten zur Verantwortung gezogen werden kann. Wenn ja, wen trifft dann die eigentliche Schuld: den Hersteller des Systems, die sie programmierenden IT-Spezialisten, die lokalen Kommandeure vor Ort, oder doch eher die Führungsriege der Armee selbst, auch wenn vielleicht keiner jener Akteure die ausgeführten Handlungen des Kampfroboters eigenmächtig genehmigt oder befürwortet hat?6
Besonders kruzial ist dieser Aspekt vor allem deswegen, da sich letzten Endes nie mit hundertprozentiger Sicherheit garantieren lässt, dass KI-Systeme in der Praxis wirklich wie gedacht reagieren werden. Allen voran die Fähigkeiten zur selbstständigen und rationalen Entscheidungsfindung sogenannter LARs (Lethal Autonomous Robot) müssen überaus kritisch und sensibel bewertet werden. Zum einen stellt sich das Problem, dass automatische Offensiv- oder Verteidigungssysteme unter gewissen Umständen plötzlich nicht mehr dazu in der Lage sein könnten, zwischen eigenen und gegnerischen Kämpfern zu unterscheiden, was verheerende Folgen für das Leben respektive die militärische Schlagkraft der jeweiligen Truppen haben würde. Noch riskanter könnte sich dies unter völkerrechtlichen Gesichtspunkten zumal dann erweisen, wenn autonome Kampfroboter auf feindliche Verbände treffen, die nicht mehr kampffähig sind und ihren unmissverständlichen Willen zur Aufgabe bereits bekundet haben, bzw. wenn letztere größtenteils aus Hilfstruppen wie militärischen Ärzten und Sanitätern zusammengesetzt sind, die überhaupt erst gar nicht an den Kampfhandlungen teilnehmen und folglich auch keine umgehende Gefahr darstellen. Wenn künstliche Systeme in solchen Fällen jedoch nicht korrekt ermessen können, dass sie es nicht mit einem militärischen Ziel zu tun haben, kann dies sehr leicht zu gravierenden Fehleinschätzungen führen, mit rechtlichen und schlimmstenfalls tödlichen Konsequenzen.7 Wie Philipp Stroh zu bedenken gibt, sind es "eben gerade nicht quantitative, sondern qualitative Entscheidungen, die beim Waffeneinsatz zu treffen sind",8 und genau in diesem Punkt lässt sich eine durchgehende Einhaltung des Völkerrechtes sowie humanitärer Erfordernisse aktuell nicht in vollem Maße mit dem Gebrauch autonomer Waffensysteme in Einklang bringen. Solche und weitere verwandte Fragen müssen aus völkerrechtlicher Perspektive somit vielfach erst noch geklärt werden, wobei es allerdings zum derzeitigen Stand eher unwahrscheinlich erscheint, dass sich gänzlich zufriedenstellende Lösungswege ohne Weiteres finden werden.
Abgesehen von völkerrechtlichen Einwänden werden autonome Waffensysteme auch überaus skeptisch mit Blick auf die systemische Stabilität der globalen Staatenordnung selbst beurteilt. Im Konkreten wird befürchtet, dass die Herstellung immer fortgeschrittener, vollautomatischer Kampfroboter das moderne Kriegswesen auf eine Art und Weise zu revolutionieren vermag, welche unabhängig aller Vorteile, die sich daraus in Bezug auf die Wettbewerbsfähigkeit nationaler Streitkräfte ergeben, zur gleichen Zeit einige äußerst negative und unkontrollierbare Entwicklungen in Gang setzen kann, die als solche ein nicht zu verkennendes Risiko für die Aufrechterhaltung friedlicher internationaler Beziehungen bedeuten könnten. Sowohl auf taktischem wie strategischem Plan ist eine plötzliche Verlagerung existierender Machtgewichte aufgrund des Einsatzes neuartiger Waffensysteme zweifelsohne keine Undenkbarkeit, wohlwissend allerdings, dass ein dadurch bedingtes Aufweichen bestehender Machtgefüge sehr schnell für mehr Instabilität und Misstrauen in der internationalen Politik sorgen könnte.
Die mit Abstand folgenschwerste Gefahr sehen Kritiker von autonomen Waffengeräten diesbezüglich im Heraufbeschwören eines neuen Wettrüstens zwischen zwei oder mehreren Großmächten.9 Ähnlich wie die Erfindung der Atombombe einen technologischen Wettlauf zwischen den USA und der Sowjetunion während des Kalten Krieges hervorrief, gehen einige Experten davon aus, dass auch zukünftige Evolutionen auf dem Gebiet künstlicher Waffensysteme einzelne Nationen zu einem vergleichbaren militärischen Aufrüsten drängen könnten. Das Argument, dass andere Akteure der Akquirierung eines revolutionären Systems nicht einfach tatenlos zusehen werden, sondern stattdessen alle ihnen zur Verfügung stehenden Mittel und Ressourcen mobilisieren werden, um dem technologischen Fortschritt zu folgen und die Kriegstauglichkeit der eigenen Streitkräfte auf einem konstant hohen Niveau zu halten, ist sicherlich nicht von der Hand zu weisen. Dass dadurch jedoch eine mitunter gefährliche Rüstungsspirale losgetreten werden könnte, im Zuge derer Staaten bereit wären, zusehends größere Risiken in Kauf zu nehmen um im waffentechnischen Bereich eine neuerliche Parität herzustellen bzw. selbige durchgehend zu bewahren, ist bei eingehenderer Betrachtung ebenso naheliegend. Wie konkret sich eine überproportionale Überlegenheit gerade auf dem Gebiet militärischer KI-Systeme auf das Verhalten amtierender Politiker oder Regierungen auswirken wird, kann freilich nicht mit Bestimmtheit vorausgesagt werden. Nichtsdestotrotz ist davon auszugehen, dass Rivalenstaaten sich in zunehmendem Maße zu operationeller Wachsamkeit und Alarmbereitschaft veranlasst sehen werden. Dies wiederum könnte auf internationaler Ebene nicht nur in einigen Fällen ein oftmals mühselig aufgebautes, gegenseitiges Vertrauen untergraben, sondern infolge immer angespannterer Situationen auch neue Konfrontationspotentiale erzeugen, welche die jeweiligen Machthaber bisweilen zu Fehlentscheidungen und vorschnellen Reaktionen verleiten könnten und so der Möglichkeit eines bewaffneten Konfliktes unnötig Vorschub leisten würden. Ferner könnte der Einsatz programmierbarer Waffentypen die Hemmschwelle zur Gewaltanwendung senken, wie Jürgen Altmann anführt, weil schließlich keine menschlichen Opfer in solchen Szenarien zu erwarten wären.10 Sowohl eine Destabilisierung volatiler Regionen als auch eine Aushöhlung traditioneller Mächtegleichgewichte wären die dezidiert nachteiligen Begleiterscheinungen einer solch abträglichen Entwicklung.
Nicht weniger realistisch ist es, dass Staaten nicht auf ewig ihr Monopol über automatische Waffensysteme behalten werden, sondern dass letztere über kurz oder lang auch in die Hände nichtstaatlicher Akteure geraten könnten. Immerhin kann nicht darauf vertraut werden, dass sich kriminelle und zumal terroristische Organisationen die benötigten technischen Grundkenntnisse zur Herstellung eigener Drohnen nicht in der ein oder anderen Form selbst aneignen werden, sei es z.B. durch den Abschuss eines noch mehr oder weniger intakten Flugkörpers oder mittels ihres Handels auf dem Schwarzmarkt.11 Jedenfalls wäre es ein Irrglaube zu meinen, dass eine Weiterreichung relevanter Informationen und/oder Ersatzteile stets mit absoluter Gewissheit unterbunden werden kann. Wie sehr sich terroristische Gruppierungen für den Erwerb moderner Waffensysteme interessieren, zeigen nicht zuletzt deren umfassende Bemühungen zur Anschaffung nuklearer Sprengvorrichtungen, auch wenn diese bisher nicht von Erfolg gekrönt waren.12 Gleichwohl kann nicht ausgeschlossen werden, dass ähnliche Bestrebungen im Hinblick auf automatische Kriegsfahrzeuge nicht doch eines Tages ihre Früchte tragen. Die fatalen Folgen hiervon wären beinahe unermesslich, insbesondere da die genauen Denkmuster und Vorgehensweisen von Terroristen oftmals unergründlich sind bzw. jedweder zwischen Nationalstaaten etablierten Normen und Logik entbehren. Dabei sprechen wir in dieser Hinsicht noch nicht einmal von vollautomatischen Systemen; alleine der Gebrauch einer herkömmlichen Drohne, die mit vergleichsweise rudimentären Sprengkörpern - geschweige denn Raketen - ausgestattet ist, würde bei einem Einsatz in urbanen Wohnsiedlungen sowie gegen vitale Staatseinrichtungen wie Krankenhäuser oder Energieversorgungszentren für scherwiegende Schäden sorgen. Umso mehr, als Terroristen in der Regel verdeckt agieren und wirksame Schutzmaßnahmen gegen die von ihnen benutzten Zerstörungsmittel nur bedingt möglich wären.13
Schließlich wird von einem moralisch-philosophischen Standpunkt aus darüber diskutiert, inwiefern der Mensch die potentiell unbegrenzten Möglichkeiten künstlicher Systeme überhaupt vollständig ausschöpfen sollte bzw. darf. Im Besonderen wird hervorgehoben, dass die Menschheit sich im Bereich der künstlichen Intelligenz auf einem zivilisatorisch äußerst gefährlichen Pfad bewegt und dass die Herstellung selbstständig denkender Maschinen zu Kampfzwecken Implikationen beinhaltet, deren volle Tragweite gegenwärtig noch nicht genau abzuschätzen ist. Eine Befürchtung ist, dass der Einsatz autonomer Kampfroboter nahezu unweigerlich zu einer Entmenschlichung moderner Konflikte führen wird, die das Töten anderer Menschen noch weitaus mehr zu einer vermeintlich simplen und banalen Selbstverständlichkeit werden lässt, als dies ohnehin oftmals der Fall in kriegerischen Auseinandersetzungen ist. Automatische Waffensysteme würden militärischen Konfrontationen demnach einen durch und durch inhumanen Charakter verleihen, bei dem menschliche Qualitäten wie wechselseitige Rücksichtnahme, Empathie oder situationelle Verhältnismäßigkeit faktisch keine Rolle mehr spielen.14 Menschliche Kombattanten würden so auf die Stufe eines ohnmächtigen und überflüssigen Zuschauers in Kriegsgebieten degradiert, die nicht länger wirkungsmächtig in das Kampfgeschehen eingreifen können und den Verlauf respektive den Ausgang einer Schlacht somit unausweichlich aus der eigenen Hand geben würden. Eine wie auch immer geartete menschliche Einflussnahme auf materielle Schadensbegrenzung sowie allen voran den Nicht-Beschuss von Zivilisten würde sich in einem solchen Fall als signifikant schwieriger erweisen, mit der Folge, dass die humane Komponente in Kriegsgefechten beinahe komplett verloren ginge. In diesem Kontext werden bereits jetzt düstere Schreckensszenarien gezeichnet, in denen künstliche Kampfroboter eines nicht allzu fernen Tages tatsächlich vollkommen autonom operieren, was letztlich gleichbedeutend mit einem Kontrollverlust über die von ihnen ausgeführten Handlungen sein würde.15
[...]
1 Samuel Gibbs, "Elon Musk leads 116 experts calling for outright ban of killer robots", The Guardian, 20. August 2017. https://www.theguardian.com/technology/2017/aug/20/elon-musk-killer-robots-experts-outright-ban-lethal-autonomous-weapons-war [20. Februar 2020].
2 Human Rights Watch, Campaign to Stop Killer Robots. https://www.stopkillerrobots.org/coalition/ [21. Februar 2020].
3 Thilo Marauhn, "Der Einsatz von Kampfdrohnen aus völkerrechtlicher Perspektive", in: Roman Schmidt-Radefeldt, Christine Meissler (Hrsg.), Automatisierung und Digitalisierung des Krieges, Berlin: Nomos Verlag, 2012, S. 60-71; Philipp Stroh, "Humanitär–völkerrechtliche Rahmenbedingungen für den Einsatz luftgestützter unbemannter militärischer Kampfsysteme im bewaffneten Konflikt", DSF No. 40, Osnabrück: Deutsche Stiftung Friedensforschung, 2016.
4 Jürgen Altmann, "Bewaffnete unbemannte Fahrzeuge - Beschränkungen dringend nötig", in: Heinrich-Böll-Stiftung (Hrsg.), High-Tech Kriege, S. 58. Siehe weiter Keith Puls (Hrsg.), Law of War Handbook, Charlottesville, VA: JAG Legal Center and School, 2005; Ian Henderson, The Contemporary Law of Targeting, Leiden, NL: Martinus, 2009.
5 Armin Krishnan, Killer Robots: Legality and Ethicality of Autonomous Weapons, Farnham, UK: Ashgate, 2009; Jarna Petman, Autonomous Weapons Systems and International Humanitarian Law: 'Out of the Loop'?, Helsinki: Unigrafia Oy, 2017, S. 24-57; Stuart Maslen, et al. (Hrsg.), Drones and other Unmanned Weapons Systems under International Law, Leiden, NL: Brill, 2018.
6 Merel Ekelhof, Miriam Struyk, Deadly Decisions: 8 objections to killer robots, Utrecht: PAX, 2014, S. 16ff.
7 Philipp Stroh, "Völkerrecht und neue Waffensysteme - Bekräftigungen und Leerstellen", in: Heinrich-Böll-Stiftung (Hrsg.), High-Tech Kriege, S. 89-96.
8 Ebd., S. 93.
9 Vgl. hierzu Scharre, Army of None, S. 8, 117, 317f; Julian Barnes, Josh Chin, "The New Arms Race in AI", Wall Street Journal, 2. März 2018. https://www.wsj.com/articles/the-new-arms-race-in-ai-1520009261 [22. Februar 2020]; David Parkins, "The Battle for Digital Supremacy", The Economist, 15. März 2018. https://www.economist.com/leaders/2018/03/15/the-battle-for-digital-supremacy [22. Februar 2020]; Paul Scharre, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs, Vol. 98, No. 3 (2019), S. 135-144; Justin Haner, Denise Garcia, "The Artificial Intelligence Arms Race: Trends and World Leaders in Autonomous Weapons Development, Global Policy, Vol. 10, No. 3 (2019), S. 331-337.
10 Altmann, "Bewaffnete unbemannte Fahrzeuge - Beschränkungen dringend nötig", S. 57. Vgl. auch Frank Sauer, Niklas Schörnig, "Killer Drones – The Silver Bullet of Democratic Warfare", Security Dialogue, Vol. 43, No. 4 (2012), S. 353–370.
11 Altmann, "Bewaffnete unbemannte Fahrzeuge - Beschränkungen dringend nötig", S. 58f; Meir Amit Intelligence and Terrorism Information Center, "ISIS’s use of drones in Syria and Iraq and the threat of using them overseas to carry out terrorist attacks". https://www.terrorism-info.org.il/app/uploads/2018/10/E_249_18.pdf [22. Februar 2020].
12 Jack Caravelli, Nuclear Insecurity: Understanding the Threat from Rogue States and Terrorists, Westport, CT: Praeger, 2008, S. 30-58; David Hafemeister, Nuclear Proliferation and Terrorism in the Post-9/11 World, Basel: Springer, 2016.
13 Die Terrorgruppe ISIS bspw. hat bereits Drohnen in Kriegsgebieten eingesetzt. Vgl. Wolfgang Rudischhauser, Autonomous or semi-autonomous weapons systems: A potential new threat of terrorism?, Security Policy Working Paper No. 23/2017, Berlin: Federal Academy for Security Policy, 2017. Zur terroristischen Gefahr im Rahmen autonomer Waffensysteme, siehe weiter: Brian Wheeler, "Terrorists 'certain' to get killer robots, says defence giant", BBC News, 30. November 2017. https://www.bbc.com/news/uk-politics-42153140 [23. Februar 2020]; Philip Chertoff, Perils of Lethal Autonomous Weapons Proliferation: Preventing Non-State Acquisition, Genf: Center for Security Policy, 2018.
14 Stuart Russell, "Take a Stand on AI Weapons", Nature: International Weekly Journal of Science, Vol. 521, No. 7553 (2015), S. 415f; Amanda Sharkey, "Autonomous weapons systems, killer robots and human dignity", Ethics and Information Technology, Vol. 21, No. 2 (2019), S. 75-87.
15 Besonders Noel Sharkey engagiert sich aktiv für ein Verbot von letalen Kampfrobotern aufgrund nicht zuletzt auch moralischer Beweggründe. Siehe Noel Sharkey, "Saying 'No!' to Lethal Autonomous Targeting", Journal of Military Ethics, Vol. 9, No. 4 (2010), S. 369-383; Noel Sharkey, "The evitability of autonomous robot warfare", International Review of the Red Cross, Vol. 94, No. 886 (2012), S. 787-799. Vgl. weiter Ekelhof, Struyk, Deadly Decisions: 8 objections to killer robots, S. 6f, 22f; Thomas Simpson, Vincent Müller, "Just war and robots' killings", Philosophical Quarterly, Vol. 66, No. 263 (2016), S. 302-322.
- Quote paper
- Joe Majerus (Author), 2017, Krieg ohne Gesicht? Moralische Bedenken zur autonomen Kriegsführung, Munich, GRIN Verlag, https://www.grin.com/document/1301735
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.