Autonome Waffen: (Un)vereinbarkeit mit Prinzipien des humanitären Völkerrechts? Gerd Oberleitner, Universität Graz Seminar „Rechtsfragen autonomer Waffensysteme“, Universität Linz, 9.10.2015 Thesenpapier Zum Begriff der Autonomie im Lichte des HVR Zum einen geht es um vollständige Autonomie, also ein Verhalten oder Abläufe, in denen menschliches Zutun nicht vorgesehen ist (man-out-of-the-loop); zum anderen um kritische Autonomie, also den Einsatz autonomer Systeme zur gewollten Anwendung potentiell tödlicher Gewalt, d.h. im Kampfeinsatz (nicht alle autonomen Systeme bergen rechtliche Fragen des HVR in gleicher Dringlichkeit). Mit einer solchen „vollständigen kritischen Autonomie“ ist damit die Fähigkeit eines Waffensystems, auf Basis eingehender Informationen und programmierter Rahmenbedingungen ohne weiteres menschliches Zutun oder ohne dass menschliches Zutun möglich ist, Ziele - insbesondere also auch Menschen auszuwählen und anzugreifen. In diesem Sinne gibt es zurzeit keine autonomen, sondern nur teilautonome Waffensysteme; solche scheinen allenfalls in 25-30 Jahren verfügbar zu sein. Zum „Kompatibilitätscheck“ des Art. 36 AP 1 Art. 36 AP I fordert bei der Einführung neuer Waffen: „Jede Hohe Vertragspartei ist verpflichtet, bei der Prüfung, Entwicklung, Beschaffung oder Einführung neuer Waffen oder neuer Mittel oder Methoden der Kriegführung festzustellen, ob ihre Verwendung stets oder unter bestimmten Umständen durch dieses Protokoll oder durch eine andere auf die Hohe Vertragspartei anwendbare Regel des Völkerrechts verboten wäre.“ Der gewohnheitsrechtliche Charakter und die Staatenpraxis lassen Art. 36 bedeutsam für autonome Waffen erscheinen. Ein Waffensystem, das als solches gegen die Prinzipien des HVR verstößt, wäre jedenfalls unrechtmäßig und bedürfte keines weiteren Verbotes mehr. Allerdings sind zwei Fragen zu bedenken: zum einen sagt die Bestimmung nichts über den Zeitpunkt der Prüfung aus, die hier früh und möglicherweise nur spekulativ erfolgt. Zum anderen zielt Art. 36 auf die Rechtmäßigkeit einer Waffe oder eines Waffensystems als solches ab, nicht auf individuelle Einsätze: die Möglichkeit missbräuchlicher Verwendung eine ansonsten zulässigen Waffe im Einzelfall steht nicht zur Debatte: die Waffe muss per se unfähig sein, dem HVR zu genügen. Dies kann für autonome Waffen nicht so einfach in jedem Fall behauptet werden. „Autonomie“ als Fähigkeit ist eine im Sinne des Art. 36 möglicherweise schwer fassbare Kategorie. Autonome Waffen, wenn sie denn weiterentwickelt werden, mögen grundsätzlich in der Lage sein, HVR zu achten wie auch zu missachten. Unterscheidungsprinzip und das Verbot unterschiedsloser Angriffe Unterscheidungsfähigkeit: Das Unterscheidungsgebot zwischen militärischen Zielen und zivilen Personen und Objekten als der Kern des humanitären Schutzes (Art. 48, 51 und 52 1. ZP) setzt voraus, unterscheiden zu können (also sensorisch Informationen empfangen zu können) und diese zu verarbeiten (software/Algorithmus). Die Unterscheidung zwischen (unbeweglichen und beweglichen) militärischen und 1 zivilen Objekten kann technisch möglich sein (Größe, Form, Farbe, GPS-Koordinaten, Hitze- oder Strahlenemissionen; z.b. Suchzündermunition oder „fire-and-forget“ Waffen. Unterscheidungssituationen: Einfache Merkmale („marker“) sind auf Menschen und deren Verhalten schwer übertragbar: “Kombattanten“ und „Zivilpersonen“ sind faktische Erscheinungen der Realität, die über visuelle Merkmale verfügen können, ebenso wie abstrakte Konzepte oder Beschreibungen der Zugehörigkeit zu einer sozial konstruierten Kategorie. Unterscheiden ist auch nicht auf die Dichotomie zivil-militärisch begrenzt; es ist an weitere, vor Angriffen besonders geschützte Unterkategorien des HVR zu denken (kulturelle Schutzgüter, besondere gefährliche Anlagen, Militärseelsorger oder humanitäre Helfer). Selbst ohne zivile Präsenz, also beim Zusammentreffen mit gegnerischen Soldaten müssten Maschinen erkennen können, wann die Schutzvoraussetzungen für gegnerische Kombattanten vorliegen, also die rechtlich formulierten Konzepte „Verwundung“, „Krankheit“, „Schiffbruch“ und „Kapitulation“ korrekt erkennen. Im Einzelfall stellt dies enorme Anforderungen an die Sensorik, um aus Mimik, Gestik, Emotionen oder Kontext die richtigen Schlüsse zu ziehen. Die Forschung an autonomen Systemen scheint sich nicht einig zu sein bis zu welchem Ausmaß diese Fähigkeit einmal reichen könnte. Zugrundeliegendes Recht: Ein besonderes Problem stellt sich beim Erkennen von Zivilpersonen, die unrechtmäßig an Kampfhandlungen teilnehmen. Das Problem ist hier nicht nur das Unterscheiden anhand von Verhalten ("signature strikes“ als Vorlage?) sondern die unklare Rechtsfigur der „direkt an Feindseligkeiten teilnehmen Zivilisten“ selbst Verobjektivierung: Als Antwort wurde vorgeschlagen, entweder autonome Waffen nur dort einzusetzen, wo eine Unterscheidung nicht nötig ist (weil keine Zivilpersonen anwesend sind); oder die Rahmenbedingungen zu „verobjektivieren“: Angriffe nur Objekte, die aufgrund ihrer Beschaffenheit militärische Objekte sind, zuzulassen; oder nur auf klar erfassbares Verhalten abzustellen (etwa vorheriges Abfeuern einer Waffe). Zweifelsschwelle: Eine weitere Antwort wäre die Erhöhung der „Zweifelsschwelle“ des Art. 52(3) 1. ZP 3 („Im Zweifelsfall wird vermutet, dass ein in der Regel für zivile Zwecke bestimmtes Objekt, wie beispielsweise eine Kultstätte, ein Haus, eine sonstige Wohnstätte oder eine Schule, nicht dazu verwendet wird, wirksam zu militärischen Handlungen beizutragen.“). Ein verstellbarer „Zweifelslevel“ könnte es dann erlauben, vor dem Einsatz und je nach Umgebung verschieden hohe Aggressivität bzw. Risikobereitschaft einzustellen - eine hohe (risikoarme) Einstellung mit schneller Feuerbereitschaft im übersichtlichen offenen Kampf gegen Kombattanten ohne zivile Beteiligung und eine niedrige Einstellung in bewohnten Gebiet. Maßstab Mensch: Ob solche Vorschläge dem HVR Genüge tun, bleibt zu bezweifeln. Allerdings ist im HVR der (fehlbare) Mensch der Maßstab, der ebenfalls nicht immer in der Lage ist, korrekte Unterscheidungen zu treffen. Folgt daraus, dass eine autonome Maschine, die zumindest statistisch nicht schlechter im Unterscheiden ist als der durchschnittliche Mensch, dem HVR Genüge tun würde (sog. ArkinTest)? Verhältnismäßigkeit Art. 51 (5)(b) 1. ZP: Ein Angriff, bei dem damit zu rechnen ist, dass er auch Verluste an Menschenleben unter der Zivilbevölkerung, die Verwundung von Zivilpersonen, die Beschädigung ziviler Objekte oder mehrere 2 derartige Folgen zusammen verursacht, die in keinem Verhältnis zum erwarteten konkreten und unmittelbaren militärischen Vorteil stehen. Diese Abwägung ist eine komplexe, antizipierende, wertebasierende Einzelfallentscheidung im Lichte von unmittelbarer und allgemeinerer Gesamtumstände, als deren Ausführender die durchschnittlich informierte menschliche Person („reasonably well-informed person“) zu sehen ist, welche im Lichte von im Entscheidungszeitpunkt verfügbaren Informationen agiert. Ob die Programmierung einer solchen komplexen Entscheidung technisch möglich ist, bleibt umstritten und wohl die größere Hürde als das Unterscheidungsprinzip. Der Verhältnismäßigkeitsgrundsatz hat dabei zwei Konsequenzen im Auge: den direkt angerichteten zivilen Schaden sowie den antizipierten militärischen Erfolg, und eine Abwägung der beiden. Die Berechnung ziviler Schäden durch autonome Waffen scheint nicht unmöglich (etwa im Lichte der US Praxis der collateral damage estimate methodology CDEM). Ob ein autonomes System darüber hinaus sinnvolle Berechnungen über mögliche militärische Vorteile, das zweite Element, anstellen kann, bleibt skeptisch zu beurteilen. Dahinter stehen aber möglicherweise tiefergreifende Unstimmigkeiten über den subjektiven bzw. objektiven Charakter dieser Rechtsnorm: verlangt sie als Maßstab den verantwortungsbewußten Kommandanten, der aus ethischer Gesinnung, mit gesundem Menschenverstand („common sense and good faith“) und Intuition handelt; oder ist eine objektive Kalkulation von militärischem Erfolg und humanitärem Bedürfnis gefragt? Vorsichtsmaßnahmen Art. 57 1. ZP fordert vom Angreifer in Planung und Ausführung sicherzustellen, dass das Ziel ein militärisches und kein ziviles ist; jene Mittel und Methoden zu wählen, die Schäden an der Zivilbevölkerung minimieren; von mehreren möglichen jenes Ziel zu wählen, das am wenigsten Schaden unter der Zivilbevölkerung anrichtet; unverhältnismäßig schädigende Angriffe nicht zu unternehmen oder abzubrechen; und die Zivilbevölkerung angemessen zu warnen. Die Vorsichtspflicht erstreckt sich gerade auch in mögliche unvorhergesehene Situationen. Auch hier entscheidet die technische Entwicklung, in welchem Maße sinnvolle und HVR-konforme Reaktionen auf Unvorhergesehenes überhaupt programmiert werden kann. Die Verpflichtung, bei der Wahl der Angriffsmittel jenes Mittel zu wählen, das am wenigsten Schäden fordert, kann in zwei Richtungen gelesen werden: wenn autonome Waffen im Einsatz gegenüber menschlicher Entscheidung HVR eher verletzen, sind sie nicht einzusetzen. Sollte es allerdings feststellbar sein, dass autonome Waffen das HVR weniger verletzen, wäre deren Einsatz möglicherweise sogar verpflichtend. „Meaningful human control“ Diese Bemerkungen sollten qualifiziert werden durch zwei mögliche Entwicklungen: Zum einen ist eine graduelle und schleichende Autonomisierung von Waffensystemen eher zu erwarten als ein völliges Ersetzen menschlicher Einwirkung; zum anderen wird es eher darum gehen, das Zusammenspiel von Mensch und Maschine im Einsatz zu optimieren anstelle menschliche Entscheidungsgewalt völlig auszublenden. Im Ergebnis geht es daher weniger um radikal-utopische Szenarien menschenähnlicher Killerroboter sondern um die Konturen einer „meaningful human control“ autonomer Waffensysteme. 3
© Copyright 2024 ExpyDoc