Gerd Oberleitner, Universität Graz Seminar

Autonome Waffen: (Un)vereinbarkeit mit Prinzipien des humanitären Völkerrechts?
Gerd Oberleitner, Universität Graz
Seminar „Rechtsfragen autonomer Waffensysteme“, Universität Linz, 9.10.2015
Thesenpapier
Zum Begriff der Autonomie im Lichte des HVR
Zum einen geht es um vollständige Autonomie, also ein Verhalten oder Abläufe, in denen menschliches
Zutun nicht vorgesehen ist (man-out-of-the-loop); zum anderen um kritische Autonomie, also den Einsatz
autonomer Systeme zur gewollten Anwendung potentiell tödlicher Gewalt, d.h. im Kampfeinsatz (nicht alle
autonomen Systeme bergen rechtliche Fragen des HVR in gleicher Dringlichkeit).
Mit einer solchen „vollständigen kritischen Autonomie“ ist damit die Fähigkeit eines Waffensystems, auf
Basis eingehender Informationen und programmierter Rahmenbedingungen ohne weiteres menschliches
Zutun oder ohne dass menschliches Zutun möglich ist, Ziele - insbesondere also auch Menschen auszuwählen und anzugreifen. In diesem Sinne gibt es zurzeit keine autonomen, sondern nur teilautonome
Waffensysteme; solche scheinen allenfalls in 25-30 Jahren verfügbar zu sein.
Zum „Kompatibilitätscheck“ des Art. 36 AP 1
Art. 36 AP I fordert bei der Einführung neuer Waffen: „Jede Hohe Vertragspartei ist verpflichtet, bei der
Prüfung, Entwicklung, Beschaffung oder Einführung neuer Waffen oder neuer Mittel oder Methoden der
Kriegführung festzustellen, ob ihre Verwendung stets oder unter bestimmten Umständen durch dieses
Protokoll oder durch eine andere auf die Hohe Vertragspartei anwendbare Regel des Völkerrechts verboten
wäre.“
Der gewohnheitsrechtliche Charakter und die Staatenpraxis lassen Art. 36 bedeutsam für autonome
Waffen erscheinen. Ein Waffensystem, das als solches gegen die Prinzipien des HVR verstößt, wäre
jedenfalls unrechtmäßig und bedürfte keines weiteren Verbotes mehr. Allerdings sind zwei Fragen zu
bedenken: zum einen sagt die Bestimmung nichts über den Zeitpunkt der Prüfung aus, die hier früh und
möglicherweise nur spekulativ erfolgt. Zum anderen zielt Art. 36 auf die Rechtmäßigkeit einer Waffe oder
eines Waffensystems als solches ab, nicht auf individuelle Einsätze: die Möglichkeit missbräuchlicher
Verwendung eine ansonsten zulässigen Waffe im Einzelfall steht nicht zur Debatte: die Waffe muss per se
unfähig sein, dem HVR zu genügen. Dies kann für autonome Waffen nicht so einfach in jedem Fall
behauptet werden. „Autonomie“ als Fähigkeit ist eine im Sinne des Art. 36 möglicherweise schwer fassbare
Kategorie. Autonome Waffen, wenn sie denn weiterentwickelt werden, mögen grundsätzlich in der Lage
sein, HVR zu achten wie auch zu missachten.
Unterscheidungsprinzip und das Verbot unterschiedsloser Angriffe
Unterscheidungsfähigkeit:
Das Unterscheidungsgebot zwischen militärischen Zielen und zivilen
Personen und Objekten als der Kern des humanitären Schutzes (Art. 48, 51 und 52 1. ZP) setzt voraus,
unterscheiden zu können (also sensorisch Informationen empfangen zu können) und diese zu verarbeiten
(software/Algorithmus). Die Unterscheidung zwischen (unbeweglichen und beweglichen) militärischen und
1
zivilen Objekten kann technisch möglich sein (Größe, Form, Farbe, GPS-Koordinaten, Hitze- oder
Strahlenemissionen; z.b. Suchzündermunition oder „fire-and-forget“ Waffen.
Unterscheidungssituationen: Einfache Merkmale („marker“) sind auf Menschen und deren Verhalten
schwer übertragbar: “Kombattanten“ und „Zivilpersonen“ sind faktische Erscheinungen der Realität, die über
visuelle Merkmale verfügen können, ebenso wie abstrakte Konzepte oder Beschreibungen der Zugehörigkeit
zu einer sozial konstruierten Kategorie. Unterscheiden ist auch nicht auf die Dichotomie zivil-militärisch
begrenzt; es ist an weitere, vor Angriffen besonders geschützte Unterkategorien des HVR zu denken
(kulturelle Schutzgüter, besondere gefährliche Anlagen, Militärseelsorger oder humanitäre Helfer). Selbst
ohne zivile Präsenz, also beim Zusammentreffen mit gegnerischen Soldaten müssten Maschinen erkennen
können, wann die Schutzvoraussetzungen für gegnerische Kombattanten vorliegen, also die rechtlich
formulierten Konzepte „Verwundung“, „Krankheit“, „Schiffbruch“ und „Kapitulation“ korrekt erkennen. Im
Einzelfall stellt dies enorme Anforderungen an die Sensorik, um aus Mimik, Gestik, Emotionen oder Kontext
die richtigen Schlüsse zu ziehen. Die Forschung an autonomen Systemen scheint sich nicht einig zu sein bis
zu welchem Ausmaß diese Fähigkeit einmal reichen könnte.
Zugrundeliegendes Recht:
Ein besonderes Problem stellt sich beim Erkennen von Zivilpersonen, die
unrechtmäßig an Kampfhandlungen teilnehmen. Das Problem ist hier nicht nur das Unterscheiden anhand
von Verhalten ("signature strikes“ als Vorlage?) sondern die unklare Rechtsfigur der „direkt an
Feindseligkeiten teilnehmen Zivilisten“ selbst
Verobjektivierung:
Als Antwort wurde vorgeschlagen, entweder autonome Waffen nur dort
einzusetzen, wo eine Unterscheidung nicht nötig ist (weil keine Zivilpersonen anwesend sind); oder die
Rahmenbedingungen zu „verobjektivieren“: Angriffe nur Objekte, die aufgrund ihrer Beschaffenheit
militärische Objekte sind, zuzulassen; oder nur auf klar erfassbares Verhalten abzustellen (etwa vorheriges
Abfeuern einer Waffe).
Zweifelsschwelle:
Eine weitere Antwort wäre die Erhöhung der „Zweifelsschwelle“ des Art.
52(3) 1. ZP 3 („Im Zweifelsfall wird vermutet, dass ein in der Regel für zivile Zwecke bestimmtes Objekt, wie
beispielsweise eine Kultstätte, ein Haus, eine sonstige Wohnstätte oder eine Schule, nicht dazu verwendet
wird, wirksam zu militärischen Handlungen beizutragen.“). Ein verstellbarer „Zweifelslevel“ könnte es dann
erlauben, vor dem Einsatz und je nach Umgebung verschieden hohe Aggressivität bzw. Risikobereitschaft
einzustellen - eine hohe (risikoarme) Einstellung mit schneller Feuerbereitschaft im übersichtlichen offenen
Kampf gegen Kombattanten ohne zivile Beteiligung und eine niedrige Einstellung in bewohnten Gebiet.
Maßstab Mensch:
Ob solche Vorschläge dem HVR Genüge tun, bleibt zu bezweifeln. Allerdings
ist im HVR der (fehlbare) Mensch der Maßstab, der ebenfalls nicht immer in der Lage ist, korrekte
Unterscheidungen zu treffen. Folgt daraus, dass eine autonome Maschine, die zumindest statistisch nicht
schlechter im Unterscheiden ist als der durchschnittliche Mensch, dem HVR Genüge tun würde (sog. ArkinTest)?
Verhältnismäßigkeit
Art. 51 (5)(b) 1. ZP: Ein Angriff, bei dem damit zu rechnen ist, dass er auch Verluste an Menschenleben unter
der Zivilbevölkerung, die Verwundung von Zivilpersonen, die Beschädigung ziviler Objekte oder mehrere
2
derartige Folgen zusammen verursacht, die in keinem Verhältnis zum erwarteten konkreten und
unmittelbaren militärischen Vorteil stehen.
Diese Abwägung ist eine komplexe, antizipierende, wertebasierende Einzelfallentscheidung im Lichte von
unmittelbarer und allgemeinerer Gesamtumstände, als deren Ausführender die durchschnittlich informierte
menschliche Person („reasonably well-informed person“) zu sehen ist, welche im Lichte von im
Entscheidungszeitpunkt verfügbaren Informationen agiert. Ob die Programmierung einer solchen komplexen
Entscheidung technisch möglich ist, bleibt umstritten und wohl die größere Hürde als das
Unterscheidungsprinzip.
Der Verhältnismäßigkeitsgrundsatz hat dabei zwei Konsequenzen im Auge: den direkt angerichteten zivilen
Schaden sowie den antizipierten militärischen Erfolg, und eine Abwägung der beiden. Die Berechnung ziviler
Schäden durch autonome Waffen scheint nicht unmöglich (etwa im Lichte der US Praxis der collateral
damage estimate methodology CDEM). Ob ein autonomes System darüber hinaus sinnvolle Berechnungen
über mögliche militärische Vorteile, das zweite Element, anstellen kann, bleibt skeptisch zu beurteilen.
Dahinter stehen aber möglicherweise tiefergreifende Unstimmigkeiten über den subjektiven bzw. objektiven
Charakter dieser Rechtsnorm: verlangt sie als Maßstab den verantwortungsbewußten Kommandanten, der
aus ethischer Gesinnung, mit gesundem Menschenverstand („common sense and good faith“) und Intuition
handelt; oder ist eine objektive Kalkulation von militärischem Erfolg und humanitärem Bedürfnis gefragt?
Vorsichtsmaßnahmen
Art. 57 1. ZP fordert vom Angreifer in Planung und Ausführung sicherzustellen, dass das Ziel ein militärisches
und kein ziviles ist; jene Mittel und Methoden zu wählen, die Schäden an der Zivilbevölkerung minimieren;
von mehreren möglichen jenes Ziel zu wählen, das am wenigsten Schaden unter der Zivilbevölkerung
anrichtet; unverhältnismäßig schädigende Angriffe nicht zu unternehmen oder abzubrechen; und die
Zivilbevölkerung angemessen zu warnen. Die Vorsichtspflicht erstreckt sich gerade auch in mögliche
unvorhergesehene Situationen. Auch hier entscheidet die technische Entwicklung, in welchem Maße
sinnvolle und HVR-konforme Reaktionen auf Unvorhergesehenes überhaupt programmiert werden kann. Die
Verpflichtung, bei der Wahl der Angriffsmittel jenes Mittel zu wählen, das am wenigsten Schäden fordert,
kann in zwei Richtungen gelesen werden: wenn autonome Waffen im Einsatz gegenüber menschlicher
Entscheidung HVR eher verletzen, sind sie nicht einzusetzen. Sollte es allerdings feststellbar sein, dass
autonome Waffen das HVR weniger verletzen, wäre deren Einsatz möglicherweise sogar verpflichtend.
„Meaningful human control“
Diese Bemerkungen sollten qualifiziert werden durch zwei mögliche Entwicklungen: Zum einen ist eine
graduelle und schleichende Autonomisierung von Waffensystemen eher zu erwarten als ein völliges Ersetzen
menschlicher Einwirkung; zum anderen wird es eher darum gehen, das Zusammenspiel von Mensch und
Maschine im Einsatz zu optimieren anstelle menschliche Entscheidungsgewalt völlig auszublenden. Im
Ergebnis geht es daher weniger um radikal-utopische Szenarien menschenähnlicher Killerroboter sondern
um die Konturen einer „meaningful human control“ autonomer Waffensysteme.
3