SWR2 Wissen

SWR2 MANUSKRIPT
ESSAYS FEATURES KOMMENTARE VORTRÄGE
SWR2 Wissen
Schießende Roboter
Krieg mit autonomen Waffen
Von Gábor Paál
Sendung: Mittwoch, 20. April 2016, 08.30 Uhr
Redaktion: Sonja Striegl
Regie: Autorenproduktion
Produktion: SWR 2016
Bitte beachten Sie:
Das Manuskript ist ausschließlich zum persönlichen, privaten Gebrauch bestimmt. Jede
weitere Vervielfältigung und Verbreitung bedarf der ausdrücklichen Genehmigung des
Urhebers bzw. des SWR.
Service:
SWR2 Wissen können Sie auch als Live-Stream hören im SWR2 Webradio unter
www.swr2.de oder als Podcast nachhören: http://www1.swr.de/podcast/xml/swr2/wissen.xml
Die Manuskripte von SWR2 Wissen gibt es auch als E-Books für mobile Endgeräte im
sogenannten EPUB-Format. Sie benötigen ein geeignetes Endgerät und eine entsprechende
"App" oder Software zum Lesen der Dokumente. Für das iPhone oder das iPad gibt es z.B.
die kostenlose App "iBooks", für die Android-Plattform den in der Basisversion kostenlosen
Moon-Reader. Für Webbrowser wie z.B. Firefox gibt es auch sogenannte Addons oder
Plugins zum Betrachten von E-Books:
Mitschnitte aller Sendungen der Redaktion SWR2 Wissen sind auf CD erhältlich beim SWR
Mitschnittdienst in Baden-Baden zum Preis von 12,50 Euro.
Bestellungen über Telefon: 07221/929-26030
Bestellungen per E-Mail: [email protected]
Kennen Sie schon das Serviceangebot des Kulturradios SWR2?
Mit der kostenlosen SWR2 Kulturkarte können Sie zu ermäßigten Eintrittspreisen
Veranstaltungen des SWR2 und seiner vielen Kulturpartner im Sendegebiet besuchen.
Mit dem Infoheft SWR2 Kulturservice sind Sie stets über SWR2 und die zahlreichen
Veranstaltungen im SWR2-Kulturpartner-Netz informiert.
Jetzt anmelden unter 07221/300 200 oder swr2.de
MANUSKRIPT
O-Ton 1. - Michael Biontino:
Begrüßung in englischer Sprache
Autor:
Letzte Woche bei den Vereinten Nationen in Genf – fünf Tage lang diskutieren
Delegierte aus 95 Staaten zusammen mit Experten über die Gefahr durch autonome
Waffensysteme. Der deutsche Botschafter bei der Genfer Abrüstungskonferenz,
Michael Biontino, leitet das Treffen. Er möchte erreichen, dass sich die Länder am
Ende wenigstens darauf einigen, weitere Schritte einzuleiten, um irgendwann in den
nächsten Jahren zu einer Ächtung dieser neuartigen Waffen zu kommen. Denn die
meisten der geladenen Experten sprechen sich genau dafür aus. Es handle sich um
die dritte Revolution der Kriegsführung, nach dem Schießpulver und der Atombombe
– dieser Satz fällt immer wieder.
O-Ton 2. - Vadim Kozyulin:
Russischer Teilnehmer der Sitzung in englischer Sprache
Autor:
Autonome Waffen seien sogar noch gefährlicher als Atomwaffen, meint der russische
Politologe Vadim Kozyulin.
Und Jayantha Dhanapala, Diplomat und Abrüstungsexperte aus Sri Lanka ergänzt:
O-Ton 3. - Jayantha Dhanapala:
Teilnehmer aus Sri Lanka in englischer Sprache
Autor:
Die Lehre aus der Geschichte sei doch, dass eine vorbeugende präventive Ächtung
besser sei als rückwirkend Waffen zu verbieten, die schon im Einsatz sind.
Biologische Waffen sind international verboten. Chemische ebenso. Anti-PersonenMinen sind geächtet, die UNO hat sogar Blendlaser als Kriegswaffen verboten. Für
Atomwaffen gibt es zumindest eine internationale Regulierung. Weder reguliert
geschweige denn geächtet sind dagegen vollautonome Kampfwaffen. Oder wie
Menschenrechtsorganisationen sie auch nennen: Killerroboter.
Musik und Geräusche aus Bundeswehrspot, darüber:
Ansage:
„Schießende Roboter – Krieg mit Autonomen Waffen“. Von Gábor Paál.
O-Ton 4. - Frank Sauer:
Wir reden nicht über den Terminator, wir reden nicht über humanoide bewaffnete
Kampfroboter…
Autor:
Frank Sauer, Politikwissenschaftler an der Universität der Bundeswehr München.
2
O-Ton 5. - Frank Sauer:
Sondern wir reden eigentlich über eine vielleicht gar nicht so von außen unbedingt
sichtbare Veränderung von konventionellen Waffensystemen, die ganz normal
aussehen, vielleicht etwas futuristischer wie die Drohnen, die wir heute sehen, wie
die Panzer, die wir heute sehen, die Schiffe, die Unterseeboote. Aber eben
ausgestattet mit einer künstlichen Intelligenz, die den Systemen erlaubt, sehr viel
autonomer Aufgaben zu übernehmen und sich zurecht zu finden, Entscheidungen zu
treffen, eben unter Umständen auch die Entscheidungen Menschen zu töten. Und
davon sind wir nicht so weit entfernt.
Autor:
Autonome Waffen anstelle von Soldaten. Aus Sicht von Armee-Strategen liegen die
Vorteile auf der Hand: Roboter können nicht sterben. Sie gehen im schlimmsten Fall
kaputt, aber man kann sie höheren Risiken aussetzen. Sie können im Zweifel auch
schneller Entscheidungen treffen. Und seien es nur die Sekundenbruchteile, auf die
es im Fall des Falles ankommt. Bisher sind das weitgehend Gedankenspiele, aber
keineswegs unrealistische, meint der Physiker und Politikwissenschaftler Marcel
Dickow, der für die Stiftung Wissenschaft und Politik die Entwicklung beobachtet:
O-Ton 6. - Marcel Dickow:
Die Militärs dieser Welt sind relativ vorsichtig, wenn es um die Entwicklung und
Einführung von Robotern in Streitkräften geht. Vor allen Dingen sind diese
Maschinen quasi Assistenzsysteme, sie übernehmen Aufgaben, die für den
Menschen zum Beispiel zu gefährlich ist, also das Entschärfen von Minen oder
anderen explosiven Stoffen. Sie übernehmen Aufgaben, die für den Menschen zu
anstrengend sind oder zu lang sind, sie können eben viel ausdauernder beobachten
zum Beispiel oder sich in gefährlichem Gelände bewegen. Das ist der Stand der
Technik. Wir sehen wohin die Entwicklung geht, wir sehen zu was künstliche
Intelligenz in 10 oder 20 Jahren möglicherweise fähig ist. Und es gibt ja einen
grundsätzlichen Unterschied zwischen militärischer und ziviler Robotik. Die zivile
Robotik ist dafür da dem Menschen zu helfen, ihn zu unterstützen. Die militärische
Robotik ist ausgerichtet eben Menschen zu töten, im Zweifelsfalle.
Autor:
Die USA schicken heute Kampfdrohnen in den Einsatz gegen Terroristen in aller
Welt. Doch diese werden noch von Piloten in den Steuerzentralen am Boden
kontrolliert. Doch die Navy testet bereits ein unbemanntes Kampfflugzeug, das
deutlich mehr kann. Die X 47-B von Northop Grumman. Sie startet und landet
autonom auf einem Flugzeugträger, kann in der Luft sogar eigenständig ein
Tankflugzeug ansteuern und sich selbst betanken. Aber man muss gar nicht in die
USA schauen.
O-Ton 7. - Bundeswehrspot (reißerische Musik):
Neu in der Truppe: Mantis, das Flugabwehrwaffensystem der Bundeswehr.
Autor:
Ein Werbespot der Bundeswehr. Sie hat Mantis 2007 bei Rheinmetall in Auftrag
gegeben. Seit 2011 steht es zur Verfügung.
3
O-Ton 8. - Bundeswehrspot (weiter):
Mit diesem neuen und einzigartigen Waffensystem geht die Bundeswehr neue Wege.
Auf eine sehr wirkungsvolle Art kann jetzt auf Bedrohungen aus der Luft – wie durch
Raketenartilleriegranaten und Mörsern – reagiert werden. Das verlegbare
Waffensystem ist hochautomatisiert. In vorher definierten Bereichen werden
anfliegende Ziele sofort erfasst und verfolgt. Der Bediener leitet nur noch die
Bekämpfung ein.
Autor:
Flugabwehrsysteme wie Mantis oder auch Patriot erkennen anfliegende feindliche
Raketen weitgehend eigenständig. Wenn sie ihre Granaten abfeuern, werden
Zeitpunkt und Richtung von der Software berechnet, nicht vom Menschen. Trotzdem
ist immer auch ein Offizier beteiligt, der überhaupt erst den Feuerbefehl gibt.
O-Ton 9. - Frank Sauer:
Und gegen die hat deswegen niemand was, weil das ja hoch sinnvolle Systeme sind,
weil sie eben Menschenleben schützen, in dem Fall zum Beispiel Soldaten.
Autor:
Was Frank Sauer dagegen Sorgen bereitet, ist der nächste logische Schritt. Waffen,
die auf die menschliche Entscheidung verzichten. Südkorea hat zum Beispiel rund
eine Milliarde Euro investiert, um eine robotische Schießanlage zur Sicherung der
Grenze zu Nordkorea zu entwickeln.
O-Ton 10. - Frank Sauer:
Die tatsächlich Menschen identifizieren kann, die die demilitarisierte Zone betreten,
die sie auffordert sich zu ergeben und wenn sie das eben nicht eindeutig erkennbar
für das System tun – hat also eine sehr ausgereifte Bilderkennungssoftware – dann
ist es durchaus möglich, das System so zu programmieren, dass es also
selbstständig entscheidet, auf diese Person zu schießen und sie zu töten.
Autor:
Nach einer zweijährigen Testphase entschied sich Südkorea jedoch dagegen, diese
Roboter in Serie herzustellen. Die Prototypen waren für technisch unausgereift
befunden worden. Das war allerdings schon 2008. In den Zeitskalen der
Informationstechnik also fast eine Ewigkeit her.
Musik aus israelischem Armee-Spot
Autor:
Videospots von Armeen klingen immer gleich. Dieser ist nicht von der Bundeswehr,
sondern vom israelischen Verteidigungsministerium. Stolz wird darin das autonome
Patrouillen-Fahrzeug Guardium vorgeführt, entwickelt zur Überwachung der Grenze
zum Gazastreifen. Es sieht von außen aus wie ein Jeep, nur vollgepackt mit
Elektronik, Kameras, Sensoren. Dafür ohne Fahrer. Das Video zeigt, wie das
Fahrzeug Hindernisse umfährt, wie es Menschen aufspürt, die versuchen, nachts
über den Grenzzaun zu klettern. Und es gibt eine gepanzerte Variante. Die nächste
Filmsequenz zeigt in einer Animation einen ganzen Konvoi dieser Fahrzeuge.
Plötzlich explodiert eines von ihnen. Ein Schriftzug wird eingeblendet mit den Worten:
Verlust eines Roboters – nicht menschlichen Lebens.
4
Guardium, so verkündete die Armee bei der Einführung, könnte eines Tages auch
bewaffnet werden. Und, ist das geschehen? Diese Frage hat das israelische
Verteidigungsministerium auf Anfrage der ARD zumindest nicht eindeutig verneint.
Die Bitte, sich das Roboter-Gefährt einmal anschauen zu dürfen, wurde jedoch
verwehrt. Inzwischen sei Guardium auch aus dem Verkehr gezogen und werde in
Kürze durch ein neues System ersetzt, aber darüber wolle man noch nicht reden. Die
Herstellerfirma Elbit Systems in Haifa wiederum darf sich auf Geheiß der Regierung
nicht öffentlich äußern.
O-Ton 11. - Joachim Hertzberg:
Ich würde sagen, wenn ein Auto, ein autonomes Auto an einer Grenze patrouilliert
und selbstständig die Entscheidung trifft, auf irgendjemanden den das Auto für einen
Menschen hält zu schießen, dann würde ich sagen das ist offensiv definitiv.
Autor:
Joachim Hertzberg, Professor für Künstliche Intelligenz an der Universität
Osnabrück.
O-Ton 12. - Joachim Hertzberg:
Also möglicherweise würde der Staat Israel sagen: „Wenn jemand, der das nicht soll,
über unsere Grenze kommt, dann handeln wir in Verteidigung.“ Das ist natürlich die
absehbare politische Debatte, die da entstehen wird: was ist eine offensive
Militäraktion, was ist eine defensive?
Autor:
Offensiv, Defensiv? Manchmal scheint der Fall eindeutig, etwa bei
Flugabwehrsystemen wie Patriot oder Mantis. Sie dienen ausschließlich der Abwehr
von Angriffen, haben insofern einen defensiven Charakter. Sie sind nicht dazu da,
feindliche Stellungen anzugreifen. Doch aus Sicht von Marcel Dickow von der
Stiftung Wissenschaft und Politik ist diese Unterscheidung trügerisch.
O-Ton 13. - Marcel Dickow:
Die Defensivsysteme, die es ja schon gibt, also das Patriot Raketen-Abwehrsystem
zum Beispiel, profitieren ja sehr stark davon, dass sie sehr schnell sind. Man schaltet
sie einmal scharf und danach machen sie im Prinzip alles alleine. Was wir dann
sehen ist, dass wenn ein Gegner solche Defensivsysteme überwinden will, er dann
Offensivsysteme baut, die noch schneller sind.
Autor:
Die nächste Stufe in dieser Eskalationsleiter zeichnet sich schon ab. Ende März 2016
kam im Konflikt zwischen Armenien und Aserbaidschan um die Provinz BergKarabach erstmals die israelische Kamikaze-Drohne Harop zum Einsatz, auch Harpy
2 genannt. Eine Drohne, die keine Munition abfeuert. Denn sie selbst ist die Munition.
Sie stürzt sich auf das ausgesuchte Ziel und explodiert mit 23 Kilo hochexplosivem
Sprengstoff. Sie kann nach Herstellerangaben bis zu sechs Stunden in der Luft
kreisen, sich ihre Ziele vollautonom aussuchen und sich dann auf sie stürzen.
Gedacht ist sie vor allem dafür, gegnerische Flugabwehrsysteme auszuschalten. Die
Sensorik der Harop erkennt nämlich die von ihnen ausgesandten Radarwellen und
kann sie somit als Ziel identifizieren. Auf die autonomen Flugabwehrsysteme folgt
nun also die noch autonomere Anti-Flugabwehrsystem-Drohne.
5
O-Ton 14. - Marcel Dickow:
Wir haben also, alleine schon durch die Entwicklung von Defensivsystemen den
Anreiz zu einer Rüstungsspirale.
Autor:
Die Entwicklung scheint nur allzu logisch. Die so genannte künstliche Intelligenz wird
immer intelligenter. Roboter erkunden den Mars. Roboter operieren Menschen.
Roboter übernehmen Pflegeaufgaben. Roboter erkennen Stimmen und Gesichter
und die Industrie entwickelt fahrerlose Autos. Es wäre geradezu merkwürdig, würde
sich ausgerechnet das Militär diese Techniken nicht zu eigen machen. Und doch gibt
es einen fundamentalen Unterschied. Alle Roboter, die heute im Einsatz sind – ob im
Haushalt, in der Industrie oder auf dem Mars sind für spezielle Umgebungen
gemacht – ein Pflegeroboter wäre auf dem Mars verloren und umgekehrt. Und
Roboter funktionieren bisher nur dann, wenn ihre Umgebung nicht gegen sie arbeitet.
Das gelte auch für die amerikanische Experimentier-Drohne X-47B.
O-Ton 15. - Marcel Dickow:
Das was da zurzeit schon autonom funktioniert, starten, landen, auf dem
Flugzeugträger zum Beispiel, und auftanken, das sind genau Funktionen, die noch
sozusagen kooperativ laufen. Da bin ich also mit meinem Freund zusammen und
habe den Flugzeugträger, auf dem ich starte, lande und das System, das mich aus
demselben Stall auftankt.
Autor:
Kampfroboter dagegen haben es mit einer feindlichen Umwelt zu tun, aus
technischer Sicht eine viel größere Herausforderung.
O-Ton 16. - Marcel Dickow:
Wenn ich einen Gegner finden soll, der sich verteidigt und der sich vielleicht sogar
noch tarnt und nicht entdeckt werden möchte, ist das was anderes, als wenn ich den
Flugzeugträger, der mich vielleicht auf dem Leitstrahl auf seine Oberfläche leitet,
dass ich da lande. Also, hilft der andere mir oder behindert er mich und versucht
mich abzuschießen selber, auf Deutsch gesagt? Ich glaube, das wird noch ein
bisschen länger dauern, bis es wirklich sinnvoll sein wird, für Militärs, diese Arten von
autonomen Waffen einzusetzen. Aber, das ist wichtig jetzt sich darum zu kümmern.
Autor:
Weshalb auch aus Sicht von Joachim Hertzberg das Modell „Terminator“ – also der
eigenständig kämpfende Robotersoldat das unwahrscheinlichste Szenario ist.
O-Ton 17. - Joachim Hertzberg:
Also, es macht eigentlich gar keinen Sinn das Terminator-Beispiel zu bringen, weil
Terminator war ein im Prinzip in sich abgeschlossener Roboter, sowas wie ein
einzelner Mensch. Das ist nicht das Szenario über das wir reden. Wir reden über
vernetzte Systeme, ganz viele Sensoren an ganz vielen Stellen, ganz viele
Waffensysteme an ganz vielen Stellen, die miteinander vernetzt sind und als
komplexes vernetztes System in einen möglichen Kampf eingreifen. Das ist, aus
meiner Sicht, das viel plausiblere Szenario, als dass ich jetzt irgendwie einen
einzelnen Panzer autonomisiere oder einen einzelnen Terminator baue.
6
Autor:
Und Deutschland? Im Koalitionsvertrag von Union und SPD steht, die Regierung
werde sich für eine internationale Ächtung vollautomatischer Waffensysteme
einsetzen. Aber gegen halbautomatische hat sie nichts. Solange am Ende noch ein
Mensch in die Entscheidung eingebunden ist, steht auch die Bundesregierung der
Automatisierung im Militär aufgeschlossen gegenüber.
O-Ton 18. - Ursula von der Leyen:
Nach wie vor ist es immer ein Mensch, der entscheidet, ob eine Waffe ausgelöst wird
oder nicht. Das ist beim Torpedo und U-Boot so, das ist bei der Panzerhaubitze so,
das ist bei der Interkontinentalrakete so, bei der Cruise Missile, und das ist bei der
Drohne nicht anders.
Autor:
Die Drohne, von der Verteidigungsministerin Ursula von der Leyen im Juli 2014 im
Bundestag sprach, gibt es noch nicht. Die Rüstungstochter von Airbus - Airbus
Defence and Space - soll sie entwickeln, im Auftrag Deutschlands, Frankreichs und
Italiens. Man sei aber noch ganz am Anfang, heißt es auf Anfrage bei Airbus
Defence. Die Länder müssten zunächst mal untereinander abstimmen, welche
Anforderungen sie an die Drohne genau stellen wollen. Das sei sinnvoll, denn in der
Vergangenheit kamen bei Entwicklungen von den Bestellerländern immer wieder
Nachforderungen – das soll diesmal anders laufen. Aber das Ziel sei klar: Es solle
explizit keine Kampfdrohne werden, wohl aber eine „bewaffnete Aufklärungsdrohne“.
Und sie soll schnell reagieren können, erläutert die Verteidigungsministerin am
Beispiel einer Situation in Afghanistan.
O-Ton 19. - Ursula von der Leyen:
Am 17. Oktober 2013 hat in Kundus der letzte Konvoi das Camp der Bundeswehr
verlassen. Das waren damals 441 Soldatinnen und Soldaten, in 119 Fahrzeugen,
eine kilometerlange Kolonne, die über zwei Tage durch unübersehbares Gelände
gefahren ist. Eine der größten Operationen der Bundeswehr. Diese Kolonne ist von
allen Seiten geschützt gewesen, sie ist vor allem auch von oben geschützt gewesen.
Insofern, als das eine Aufklärungsdrohne, die wir leasen, dort in der
Vogelperspektive das Gelände überschaut hat. Wäre diese Kolonne angegriffen
worden, so wäre dieser Angriff frühzeitig gesehen worden, aber die Unterstützung
der Bodentruppe, die angegriffen wird aus der Luft, das hätte gedauert, denn es
hätten entweder Hubschrauber oder Flugzeuge angefordert werden müssen, um
dann die Soldatinnen und Soldaten am Boden zu unterstützen, das sind wertvolle
Minuten, die Soldatenleben kosten können. Und, meine Damen und Herren, diese
Schutzlücke, die wollen wir schließen. (Beifall)
O-Ton 20. - Marcel Dickow:
Ja, also da sehen wir eindeutig den Trend hin. Es macht Sinn, bestimmte Dinge
direkt in die Maschine zu verlagern und nicht in die Basisstation am Boden, einfach
deswegen, weil die Signallaufzeit zwischen dem Bediener am Boden und der Drohne
in der Luft zu groß ist, das geht dann über ein oder zwei Satelliten und über eine
Bodenstation. Und wenn diese Maschinen, diese Drohnen anfangen schneller zu
fliegen als sie das bisher tun, wenn sie in der Lage sein sollen, einen Luftkampf zu
bestehen, dann sind die 3, 4, 5 Sekunden oder vielleicht sogar auch nur eine
Sekunde Signallaufzeit hoch und runter schon zu lange, dann muss das System viel
7
schneller reagieren können, zum Beispiel auf ein feindliches Kampfflugzeug. Und
dann muss die Maschine das alleine können. Das heißt, es gibt da einen inhärenten
Trend weg von der Fernsteuerung hin zur Verlagerung von Entscheidungen direkt
auf die Maschine.
Autor:
Verteidigungsministerin von der Leyen beteuert, dass die Drohnen, die im deutschen
Auftrag entwickelt werden, die Entscheidungen zum Schießen nicht eigenmächtig
treffen sollen. Doch nur wenige Länder äußern sich so eindeutig. Und während es
sich bei der Airbus-Entwicklung primär um eine – wenn auch bewaffnete –
Aufklärungsdrohne handelt, zeigen die USA und China bereits Interesse an
automatisierten Kampfdrohnen – wie eben der Weiterentwicklung der
Experimentierdrohne X-47B, die sich autonom in der Luft auftankt.
O-Ton 21. - Frank Sauer:
Und eingeordnet in den rüstungsdynamischen Kontext und sozusagen die Rivalität
zwischen USA und China wird auch relativ klar woher das kommt.
Autor:
Meint Frank Sauer von der Universität der Bundeswehr.
O-Ton 22. - Frank Sauer:
Das ist der Versuch mit Hochtechnologie, seitens der Amerikaner, die Zuwachsraten,
die zweistelligen, die China in sein Militäretat gepumpt hat, auszugleichen. Weil, kein
Land hat so viele Schiffe und Flugzeuge in Dienst gestellt. Und wenn Sie schauen
wie der Aktionsradius von einer X-47B ist, die sich selbstständig auftanken kann, in
der Luft, dann sehen Sie, dass der doppelt oder dreifach so groß ist wie der
bemannter Flugzeuge. Und plötzlich ragt eben Festland-China mit in den
Aktionsradius von einer amerikanischen Flugzeugträgergruppe hinein. Und das ist
natürlich kein Zufall.
Autor:
Das Einsatzgebiet autonomer Waffen wären somit klassische militärische Konflikte
zwischen Staaten und deren Armeen. Für die Jagd auf Terroristen sind Roboter nach
Auffassung des Politikwissenschaftlers Marcel Dickow eher ungeeignet.
O-Ton 23. - Marcel Dickow:
Einfach deswegen, weil es dort überhaupt keine Unterscheidung gibt zwischen
denen, die teilnehmen, am Konflikt, und den Zivilisten. Für den Moment ist es für
Maschinen extrem schwierig, solche Unterscheidungen zwischen Kombattanten, also
zwischen Kampfteilnehmern und Zivilisten wirklich zu treffen. Etwas, mit dem sich
Menschen schon unglaublich schwer tun, wie wir in Afghanistan in den letzten zehn
Jahren beobachtet haben. Ich sehe im Moment eher die klassischen symmetrischen
Szenarien, wo zwei mehr oder weniger hochgerüstete Hightech-Nationen sozusagen
ihre Maschinen gegeneinander auffahren. Das sind die Szenarien, in denen ein
solches Auffahren, ein solches gegeneinander antreten von Robotern tatsächlich
Sinn macht.
8
Autor:
Autonome Drohnen werden also kaum dabei helfen können, Terroristen
aufzuspüren. Terroristen ihrerseits hingegen interessieren die Regeln des
Völkerrechts ohnehin nicht. Dass autonome Waffen nur schwer Soldaten von
Zivilisten unterscheiden können, dürfte somit für sie kein Hinderungsgrund sein,
solche Waffen einzusetzen, wenn sie in ihren Besitz gelangen.
O-Ton 24. - Frank Sauer:
Wichtig wäre schon noch sich vor Augen zu führen, dass wir nicht zwingend nur um
Millionen teure Großwaffensysteme und diese Drohnen, die soundso viele Millionen,
Milliarden Dollar kosten, reden, sondern unter Umständen, über Schwärme von
vielleicht ganz billigen Systemen, vielleicht aus dem 3D-Drucker hundertfach
gedruckte ganz einfache kleine Drohnen, die so rumschwirren können, die aber mit
Software, mit einer gewissen Intelligenz, in Anführungszeichen, versehen sind und
die sich eben an keine Regeln halten. Also der IS setzt heute auch schon Drohnen
ein, nicht weil er eine Rüstungsabteilung hat, sondern weil die einen AmazonAccount haben. Die bestellen die einfach und dann fliegen die die auch.
Autor:
Autonome Angriffswaffen – der Traum also von Terroristen?
O-Ton 25. - Joachim Hertzberg:
Die Technologie so hinzubekommen, dass man einen gezielten Einsatz machen
kann, sowas wie ethnische Säuberungen durch autonome Waffen machen zu lassen,
Beispiel: „Flieg auf den Berg und töte alle Menschen, die da Zuflucht genommen
haben“ oder sowas, ich glaube, das ist in absehbarer Zeit technisch nicht möglich,
aber was relativ bald möglich sein könnte, ist dass man eben diese billigen Drohnen,
die man kaufen kann, mit irgendwelchen einfachen Waffensystemen ausstattet, um
einfach nur rumzuballern, Stress zu machen, Regionen zu destabilisieren.
Autor:
Auch Frank Sauer ist pessimistisch. Selbst wenn nicht Terroristen, sondern staatlich
kontrollierte Armeen mit robotischen Waffen operieren: Die Hoffnung, dass eine
Künstliche militärische Intelligenz weniger Fehler macht als menschliche Offiziere,
hält er für ebenso trügerisch wie die, dass es weniger Tote gibt, wenn nicht Soldaten,
sondern Roboter in den Krieg geschickt werden.
O-Ton 26. - Frank Sauer:
(Und) wenn wir diesen Weg der Hochtechnologie so weiter bestreiten, dass wir nicht
mal mehr körperlich vor Ort sind – was ja heute schon der Fall ist – sondern dass wir
im Prinzip uns auch geistig von unseren Kriegen entkoppeln, weil wir die an die
Maschinen übergeben haben, da frage ich mich schon wann der Mensch überhaupt
noch bemerken soll, wenn’s vielleicht mal zu viel ist mit dem Krieg. Also, wenn
niemand mehr von Krieg in irgendeiner Weise betroffen ist, weil wir ihn völlig
automatisiert und outgesourcet haben, ich glaube nicht, dass das zu weniger
Konflikten führt in der Zukunft.
Autor:
Die Fortschritte der Informationstechnik führen nicht nur zu militärischen Robotern.
Sie münden auch in eine weitere Entwicklung moderner Kriegsführung: Den
9
Cyberwar. Hackerangriffe auf kritische Infrastruktur, auf Kraftwerke, Banken,
Telekommunikationsnetze. Das ist in Ansätzen bereits Realität. Bekannte Beispiele
aus den letzten Jahren waren der Cyberangriff auf eine Atomanlage im Iran, als
dessen Urheber die USA vermutet werden. Ein Cyberangriff auf Sony, für den die
USA Nordkorea verantwortlich machen. Und im vergangenen Jahr ein Cyberangriff
auf den Bundestag von mutmaßlich russischen Hackern. Das waren alles noch keine
militärischen Angriffe, sie zeigen aber, was möglich ist. Die US-Navy bringt ihren
Soldaten schon wieder bei, mithilfe des Sternenhimmels zu navigieren – für den Fall,
dass in einem zukünftigen Konflikt die GPS-Kommunikation gehackt wird. Und nach
Ansicht des Künstliche-Intelligenz-Forschers Joachim Hertzberg wird diese CyberKriegsführung wiederum die Kriegs-Robotik beeinflussen. Denn auch autonome
Drohnen orientieren sich am GPS und künftige Kampfroboter wären miteinander
vernetzt und somit Teil einer verwundbaren Kommunikations-Infrastruktur.
O-Ton 27. - Joachim Hertzberg:
Die ich natürlich defensiv versuche zu schützen, so gut wie’s geht und ich offensiv
versuche so gut anzugreifen wie es geht. Das sind aus meiner Sicht zwei Seiten
mehr oder weniger derselben Medaille letztendlich, wenn es um eine, in
Anführungsstrichen – konsequente Anwendung dieser Technologien in
Waffentechnik geht.
Autor:
Kein Roboter soll schießen, ohne dass ein Soldat das anordnet – das ist, kurz
gesagt, die Position der Bundesregierung. Das US-amerikanische Pentagon hat im
November 2012 eine Direktive erlassen, die auf den ersten Blick die gleiche Position
einnimmt: Auch künftig müsse bei der Entscheidung für die Anwendung tödlicher
Gewalt immer eine angemessene menschliche Kontrolle erfolgen. In der Presse
wurde diese Direktive zum Teil als ein amerikanisches „Moratorium“ für vollautonome
Waffensysteme dargestellt. Doch Experten lesen die Direktive kritischer: Die
Formulierung „angemessene Kontrolle“ schließt ja die Möglichkeit nicht aus, dass es
in bestimmten Situationen angemessen erscheint, die menschliche Kontrolle außer
Kraft zu setzen.
O-Ton 28. - Frank Sauer:
Es gibt ja eine globale Kampagne, die darauf abzielt im Rahmen der UN einen
völkerrechtlich bindenden Vertrag zu erwirken, der autonome Offensivsysteme
verbietet, diese Kampagne argumentiert eben genau, vor dem Hintergrund dieser
Direktive, dass wir nicht angemessene menschliche Kontrolle brauchen, sondern –
und jetzt wird’s natürlich schwierig, ja – wir brauchen bedeutsame menschliche
Kontrolle. Der Mensch muss in diese Entscheidung eingebunden werden, aber in
einer Art und Weise, dass er wirklich versteht was er da tut.
Autor:
Wenn niemand mehr das Geschehen verstehen würde – wer könnte dann überhaupt
zur Rechenschaft gezogen werden, wenn etwa eine Drohne versehentlich Zivilisten
bombardiert?
O-Ton 29. - Marcel Dickow:
Klassischerweise würde man sagen es gibt einen Befehlshaber, der setzt robotische
autonome Systeme ein, also ist er auch dafür verantwortlich. Aber, so einfach ist die
10
Rechnung natürlich nicht, denn kein Offizier kann wirklich verstehen wie die
Maschine funktioniert. Das bringt dann den Hersteller, den Programmierer mit ins
Boot. Der kann natürlich eigentlich nicht haftbar dafür gemacht werden, wie die
Streitkräfte das einsetzen. Also ich sehe hier durchaus ein Vakuum. Das ist einer der
Gründe, warum es in den Streitkräften große Vorbehalte gibt gegenüber autonomer
und vor allen Dingen robotischer Systeme, weil sie eben das Potential haben, die
klassische Funktionsweise von Streitkräften mit Befehl und Befehlsketten, mit
Hierarchien auszuhebeln.
Autor:
All diese Argumente werden längst auch auf internationaler Ebene ausgetauscht.
„Letale Autonome Waffensysteme“, wie sie im Fachjargon heißen, stehen inzwischen
regelmäßig auf der Tagesordnung, wenn sich die Mitgliedsstaaten der UNKonvention zur Kontrolle konventioneller Waffen treffen. Bislang jedoch nur in Form
eines reinen Gedankenaustauschs. Daraus sollen nun konkrete Verhandlungen
werden, um Kampfroboter international zu ächten. Zumindest hoffen das die
Vertreter von Menschenrechts-Organisationen wie Human Rights Watch. In Genf im
November 2015 wurden sie jedoch in doppelter Hinsicht enttäuscht. Nicht nur lehnten
die Mitgliedsstaaten solche formalen Verhandlungen mehrheitlich ab. Die Vertreter
der Nicht-Regierungsorganisationen wurden sogar von einer informellen Beratung
ausgeschlossen. Ein sehr ungewöhnlicher Vorgang. Stephen Goose von Human
Rights Watch zeigte sich empört.
O-Ton 30. - Stephen Goose (mit Übersetzung):
Ich bin seit 1994 bei Waffenkonventionsverhandlungen dabei. Ganz am Anfang
waren die NGOs noch unerwünscht, aber schon als die Landminenkonvention
verhandelt wurde, wurde den Beteiligten klar, dass die NGOs einen wichtigen Beitrag
leisten. Seit 1996 sind sie willkommen und immer dabei. Und jetzt plötzlich wirft uns
Großbritannien aus dem Raum - und kein anderes Land hat dem widersprochen!
Autor:
Inzwischen hat sich die Stimmung deutlich gebessert. Als sich die Vertreter von 95
Staaten in der vergangenen Woche erneut in Genf trafen, zeigten sich auch die
großen Militärnationen wie China und die USA wesentlich gesprächsbereiter als in
der Vergangenheit. Doch der Weg ist mühsam.
O-Ton 31. - Michael Biontino:
Gespräch in englischer Sprache
Autor:
Mit hohem Engagement versuchte der Leiter des Treffens, der deutsche Botschafter
Michael Biontino alle Länder zu einer Kompromissformel für das weitere Vorgehen zu
gewinnen. Bis in die Nacht hinein überarbeitete Biontino seine Entwürfe und führte
Einzelgespräche – am letzten Tag schließlich fand sich ein Konsens. Kurz gesagt,
besteht er darin, dass in den kommenden zwei Jahren Regierungsexperten formale
Verhandlungen vorbereiten und dafür die Vorarbeit leisten. Zum Beispiel
völkerrechtliche Fragen erörtern und klären, wie man „tödliche autonome Waffen“
genau definieren soll. Die Menschenrechtsaktivistin und Friedensnobelpreisträgerin
Jody Williams ist froh über das Ergebnis. Es sei zwar noch lange kein Verbot, aber
11
es bereitet den Weg dahin – das weiß sie, denn ähnlich lief es in den 90er Jahren
auch, als sie erfolgreich die Kampagne zum Verbot der Landminen geleitet hat.
O-Ton 32. - Jody Williams (Voiceover):
Wir sind begeistert darüber, dass sich im Laufe der Woche die Zahl der Länder, die
sich für ein Verbot von Killerrobotern ausspricht, von 9 auf 14 erhöht hat.
Autor:
Auch Marcel Dickow, der für die Stiftung Wissenschaft und Politik das Treffen in Genf
verfolgt hat, empfand es als einen Durchbruch.
O-Ton 33. - Marcel Dickow:
Die Staatengemeinschaft ist einen kleinen Schritt weitergekommen. Also, immer
mehr Staaten kennen sich mit dem Thema aus. Langfristig wird es wahrscheinlich
eine Ächtung geben - in irgendeiner Form. Einfach deswegen, weil dann auch
Staaten wie die USA einsehen werden, dass es nicht in ihrem Interesse ist, dass alle
Staaten auf dieser Welt solche Systeme besitzen und sie unreglementiert einsetzen.
Autor:
Doch wie umfangreich wird dieses Verbot sein und werden sich wirklich alle Länder
dazu bekennen? Das ist noch offen, und Marcel Dickow räumt auch ein: bis es
soweit ist, geht die technische Entwicklung in den Militärlabors dieser Welt weiter.
O-Ton 34. - Marcel Dickow:
Das war die große Hoffnung, dass man dieses eine Mal etwas präventiv ächten
kann, bevor die Technologie soweit ist. Dieses Fenster ist immer noch offen. Der
Weg dafür ist nicht verbaut. Aber es sieht im Moment nicht danach aus. Also es wird
wahrscheinlich wohl erst wieder erste Systeme geben müssen, erste Einsätze geben
müssen, die Menschen müssen damit ihre Erfahrungen sammeln, bevor sie dann zu
der Erkenntnis kommen, dass es vielleicht doch keine so gute Idee war.
********************
12