SWR2 MANUSKRIPT ESSAYS FEATURES KOMMENTARE VORTRÄGE SWR2 Wissen Schießende Roboter Krieg mit autonomen Waffen Von Gábor Paál Sendung: Mittwoch, 20. April 2016, 08.30 Uhr Redaktion: Sonja Striegl Regie: Autorenproduktion Produktion: SWR 2016 Bitte beachten Sie: Das Manuskript ist ausschließlich zum persönlichen, privaten Gebrauch bestimmt. Jede weitere Vervielfältigung und Verbreitung bedarf der ausdrücklichen Genehmigung des Urhebers bzw. des SWR. Service: SWR2 Wissen können Sie auch als Live-Stream hören im SWR2 Webradio unter www.swr2.de oder als Podcast nachhören: http://www1.swr.de/podcast/xml/swr2/wissen.xml Die Manuskripte von SWR2 Wissen gibt es auch als E-Books für mobile Endgeräte im sogenannten EPUB-Format. Sie benötigen ein geeignetes Endgerät und eine entsprechende "App" oder Software zum Lesen der Dokumente. Für das iPhone oder das iPad gibt es z.B. die kostenlose App "iBooks", für die Android-Plattform den in der Basisversion kostenlosen Moon-Reader. Für Webbrowser wie z.B. Firefox gibt es auch sogenannte Addons oder Plugins zum Betrachten von E-Books: Mitschnitte aller Sendungen der Redaktion SWR2 Wissen sind auf CD erhältlich beim SWR Mitschnittdienst in Baden-Baden zum Preis von 12,50 Euro. Bestellungen über Telefon: 07221/929-26030 Bestellungen per E-Mail: [email protected] Kennen Sie schon das Serviceangebot des Kulturradios SWR2? Mit der kostenlosen SWR2 Kulturkarte können Sie zu ermäßigten Eintrittspreisen Veranstaltungen des SWR2 und seiner vielen Kulturpartner im Sendegebiet besuchen. Mit dem Infoheft SWR2 Kulturservice sind Sie stets über SWR2 und die zahlreichen Veranstaltungen im SWR2-Kulturpartner-Netz informiert. Jetzt anmelden unter 07221/300 200 oder swr2.de MANUSKRIPT O-Ton 1. - Michael Biontino: Begrüßung in englischer Sprache Autor: Letzte Woche bei den Vereinten Nationen in Genf – fünf Tage lang diskutieren Delegierte aus 95 Staaten zusammen mit Experten über die Gefahr durch autonome Waffensysteme. Der deutsche Botschafter bei der Genfer Abrüstungskonferenz, Michael Biontino, leitet das Treffen. Er möchte erreichen, dass sich die Länder am Ende wenigstens darauf einigen, weitere Schritte einzuleiten, um irgendwann in den nächsten Jahren zu einer Ächtung dieser neuartigen Waffen zu kommen. Denn die meisten der geladenen Experten sprechen sich genau dafür aus. Es handle sich um die dritte Revolution der Kriegsführung, nach dem Schießpulver und der Atombombe – dieser Satz fällt immer wieder. O-Ton 2. - Vadim Kozyulin: Russischer Teilnehmer der Sitzung in englischer Sprache Autor: Autonome Waffen seien sogar noch gefährlicher als Atomwaffen, meint der russische Politologe Vadim Kozyulin. Und Jayantha Dhanapala, Diplomat und Abrüstungsexperte aus Sri Lanka ergänzt: O-Ton 3. - Jayantha Dhanapala: Teilnehmer aus Sri Lanka in englischer Sprache Autor: Die Lehre aus der Geschichte sei doch, dass eine vorbeugende präventive Ächtung besser sei als rückwirkend Waffen zu verbieten, die schon im Einsatz sind. Biologische Waffen sind international verboten. Chemische ebenso. Anti-PersonenMinen sind geächtet, die UNO hat sogar Blendlaser als Kriegswaffen verboten. Für Atomwaffen gibt es zumindest eine internationale Regulierung. Weder reguliert geschweige denn geächtet sind dagegen vollautonome Kampfwaffen. Oder wie Menschenrechtsorganisationen sie auch nennen: Killerroboter. Musik und Geräusche aus Bundeswehrspot, darüber: Ansage: „Schießende Roboter – Krieg mit Autonomen Waffen“. Von Gábor Paál. O-Ton 4. - Frank Sauer: Wir reden nicht über den Terminator, wir reden nicht über humanoide bewaffnete Kampfroboter… Autor: Frank Sauer, Politikwissenschaftler an der Universität der Bundeswehr München. 2 O-Ton 5. - Frank Sauer: Sondern wir reden eigentlich über eine vielleicht gar nicht so von außen unbedingt sichtbare Veränderung von konventionellen Waffensystemen, die ganz normal aussehen, vielleicht etwas futuristischer wie die Drohnen, die wir heute sehen, wie die Panzer, die wir heute sehen, die Schiffe, die Unterseeboote. Aber eben ausgestattet mit einer künstlichen Intelligenz, die den Systemen erlaubt, sehr viel autonomer Aufgaben zu übernehmen und sich zurecht zu finden, Entscheidungen zu treffen, eben unter Umständen auch die Entscheidungen Menschen zu töten. Und davon sind wir nicht so weit entfernt. Autor: Autonome Waffen anstelle von Soldaten. Aus Sicht von Armee-Strategen liegen die Vorteile auf der Hand: Roboter können nicht sterben. Sie gehen im schlimmsten Fall kaputt, aber man kann sie höheren Risiken aussetzen. Sie können im Zweifel auch schneller Entscheidungen treffen. Und seien es nur die Sekundenbruchteile, auf die es im Fall des Falles ankommt. Bisher sind das weitgehend Gedankenspiele, aber keineswegs unrealistische, meint der Physiker und Politikwissenschaftler Marcel Dickow, der für die Stiftung Wissenschaft und Politik die Entwicklung beobachtet: O-Ton 6. - Marcel Dickow: Die Militärs dieser Welt sind relativ vorsichtig, wenn es um die Entwicklung und Einführung von Robotern in Streitkräften geht. Vor allen Dingen sind diese Maschinen quasi Assistenzsysteme, sie übernehmen Aufgaben, die für den Menschen zum Beispiel zu gefährlich ist, also das Entschärfen von Minen oder anderen explosiven Stoffen. Sie übernehmen Aufgaben, die für den Menschen zu anstrengend sind oder zu lang sind, sie können eben viel ausdauernder beobachten zum Beispiel oder sich in gefährlichem Gelände bewegen. Das ist der Stand der Technik. Wir sehen wohin die Entwicklung geht, wir sehen zu was künstliche Intelligenz in 10 oder 20 Jahren möglicherweise fähig ist. Und es gibt ja einen grundsätzlichen Unterschied zwischen militärischer und ziviler Robotik. Die zivile Robotik ist dafür da dem Menschen zu helfen, ihn zu unterstützen. Die militärische Robotik ist ausgerichtet eben Menschen zu töten, im Zweifelsfalle. Autor: Die USA schicken heute Kampfdrohnen in den Einsatz gegen Terroristen in aller Welt. Doch diese werden noch von Piloten in den Steuerzentralen am Boden kontrolliert. Doch die Navy testet bereits ein unbemanntes Kampfflugzeug, das deutlich mehr kann. Die X 47-B von Northop Grumman. Sie startet und landet autonom auf einem Flugzeugträger, kann in der Luft sogar eigenständig ein Tankflugzeug ansteuern und sich selbst betanken. Aber man muss gar nicht in die USA schauen. O-Ton 7. - Bundeswehrspot (reißerische Musik): Neu in der Truppe: Mantis, das Flugabwehrwaffensystem der Bundeswehr. Autor: Ein Werbespot der Bundeswehr. Sie hat Mantis 2007 bei Rheinmetall in Auftrag gegeben. Seit 2011 steht es zur Verfügung. 3 O-Ton 8. - Bundeswehrspot (weiter): Mit diesem neuen und einzigartigen Waffensystem geht die Bundeswehr neue Wege. Auf eine sehr wirkungsvolle Art kann jetzt auf Bedrohungen aus der Luft – wie durch Raketenartilleriegranaten und Mörsern – reagiert werden. Das verlegbare Waffensystem ist hochautomatisiert. In vorher definierten Bereichen werden anfliegende Ziele sofort erfasst und verfolgt. Der Bediener leitet nur noch die Bekämpfung ein. Autor: Flugabwehrsysteme wie Mantis oder auch Patriot erkennen anfliegende feindliche Raketen weitgehend eigenständig. Wenn sie ihre Granaten abfeuern, werden Zeitpunkt und Richtung von der Software berechnet, nicht vom Menschen. Trotzdem ist immer auch ein Offizier beteiligt, der überhaupt erst den Feuerbefehl gibt. O-Ton 9. - Frank Sauer: Und gegen die hat deswegen niemand was, weil das ja hoch sinnvolle Systeme sind, weil sie eben Menschenleben schützen, in dem Fall zum Beispiel Soldaten. Autor: Was Frank Sauer dagegen Sorgen bereitet, ist der nächste logische Schritt. Waffen, die auf die menschliche Entscheidung verzichten. Südkorea hat zum Beispiel rund eine Milliarde Euro investiert, um eine robotische Schießanlage zur Sicherung der Grenze zu Nordkorea zu entwickeln. O-Ton 10. - Frank Sauer: Die tatsächlich Menschen identifizieren kann, die die demilitarisierte Zone betreten, die sie auffordert sich zu ergeben und wenn sie das eben nicht eindeutig erkennbar für das System tun – hat also eine sehr ausgereifte Bilderkennungssoftware – dann ist es durchaus möglich, das System so zu programmieren, dass es also selbstständig entscheidet, auf diese Person zu schießen und sie zu töten. Autor: Nach einer zweijährigen Testphase entschied sich Südkorea jedoch dagegen, diese Roboter in Serie herzustellen. Die Prototypen waren für technisch unausgereift befunden worden. Das war allerdings schon 2008. In den Zeitskalen der Informationstechnik also fast eine Ewigkeit her. Musik aus israelischem Armee-Spot Autor: Videospots von Armeen klingen immer gleich. Dieser ist nicht von der Bundeswehr, sondern vom israelischen Verteidigungsministerium. Stolz wird darin das autonome Patrouillen-Fahrzeug Guardium vorgeführt, entwickelt zur Überwachung der Grenze zum Gazastreifen. Es sieht von außen aus wie ein Jeep, nur vollgepackt mit Elektronik, Kameras, Sensoren. Dafür ohne Fahrer. Das Video zeigt, wie das Fahrzeug Hindernisse umfährt, wie es Menschen aufspürt, die versuchen, nachts über den Grenzzaun zu klettern. Und es gibt eine gepanzerte Variante. Die nächste Filmsequenz zeigt in einer Animation einen ganzen Konvoi dieser Fahrzeuge. Plötzlich explodiert eines von ihnen. Ein Schriftzug wird eingeblendet mit den Worten: Verlust eines Roboters – nicht menschlichen Lebens. 4 Guardium, so verkündete die Armee bei der Einführung, könnte eines Tages auch bewaffnet werden. Und, ist das geschehen? Diese Frage hat das israelische Verteidigungsministerium auf Anfrage der ARD zumindest nicht eindeutig verneint. Die Bitte, sich das Roboter-Gefährt einmal anschauen zu dürfen, wurde jedoch verwehrt. Inzwischen sei Guardium auch aus dem Verkehr gezogen und werde in Kürze durch ein neues System ersetzt, aber darüber wolle man noch nicht reden. Die Herstellerfirma Elbit Systems in Haifa wiederum darf sich auf Geheiß der Regierung nicht öffentlich äußern. O-Ton 11. - Joachim Hertzberg: Ich würde sagen, wenn ein Auto, ein autonomes Auto an einer Grenze patrouilliert und selbstständig die Entscheidung trifft, auf irgendjemanden den das Auto für einen Menschen hält zu schießen, dann würde ich sagen das ist offensiv definitiv. Autor: Joachim Hertzberg, Professor für Künstliche Intelligenz an der Universität Osnabrück. O-Ton 12. - Joachim Hertzberg: Also möglicherweise würde der Staat Israel sagen: „Wenn jemand, der das nicht soll, über unsere Grenze kommt, dann handeln wir in Verteidigung.“ Das ist natürlich die absehbare politische Debatte, die da entstehen wird: was ist eine offensive Militäraktion, was ist eine defensive? Autor: Offensiv, Defensiv? Manchmal scheint der Fall eindeutig, etwa bei Flugabwehrsystemen wie Patriot oder Mantis. Sie dienen ausschließlich der Abwehr von Angriffen, haben insofern einen defensiven Charakter. Sie sind nicht dazu da, feindliche Stellungen anzugreifen. Doch aus Sicht von Marcel Dickow von der Stiftung Wissenschaft und Politik ist diese Unterscheidung trügerisch. O-Ton 13. - Marcel Dickow: Die Defensivsysteme, die es ja schon gibt, also das Patriot Raketen-Abwehrsystem zum Beispiel, profitieren ja sehr stark davon, dass sie sehr schnell sind. Man schaltet sie einmal scharf und danach machen sie im Prinzip alles alleine. Was wir dann sehen ist, dass wenn ein Gegner solche Defensivsysteme überwinden will, er dann Offensivsysteme baut, die noch schneller sind. Autor: Die nächste Stufe in dieser Eskalationsleiter zeichnet sich schon ab. Ende März 2016 kam im Konflikt zwischen Armenien und Aserbaidschan um die Provinz BergKarabach erstmals die israelische Kamikaze-Drohne Harop zum Einsatz, auch Harpy 2 genannt. Eine Drohne, die keine Munition abfeuert. Denn sie selbst ist die Munition. Sie stürzt sich auf das ausgesuchte Ziel und explodiert mit 23 Kilo hochexplosivem Sprengstoff. Sie kann nach Herstellerangaben bis zu sechs Stunden in der Luft kreisen, sich ihre Ziele vollautonom aussuchen und sich dann auf sie stürzen. Gedacht ist sie vor allem dafür, gegnerische Flugabwehrsysteme auszuschalten. Die Sensorik der Harop erkennt nämlich die von ihnen ausgesandten Radarwellen und kann sie somit als Ziel identifizieren. Auf die autonomen Flugabwehrsysteme folgt nun also die noch autonomere Anti-Flugabwehrsystem-Drohne. 5 O-Ton 14. - Marcel Dickow: Wir haben also, alleine schon durch die Entwicklung von Defensivsystemen den Anreiz zu einer Rüstungsspirale. Autor: Die Entwicklung scheint nur allzu logisch. Die so genannte künstliche Intelligenz wird immer intelligenter. Roboter erkunden den Mars. Roboter operieren Menschen. Roboter übernehmen Pflegeaufgaben. Roboter erkennen Stimmen und Gesichter und die Industrie entwickelt fahrerlose Autos. Es wäre geradezu merkwürdig, würde sich ausgerechnet das Militär diese Techniken nicht zu eigen machen. Und doch gibt es einen fundamentalen Unterschied. Alle Roboter, die heute im Einsatz sind – ob im Haushalt, in der Industrie oder auf dem Mars sind für spezielle Umgebungen gemacht – ein Pflegeroboter wäre auf dem Mars verloren und umgekehrt. Und Roboter funktionieren bisher nur dann, wenn ihre Umgebung nicht gegen sie arbeitet. Das gelte auch für die amerikanische Experimentier-Drohne X-47B. O-Ton 15. - Marcel Dickow: Das was da zurzeit schon autonom funktioniert, starten, landen, auf dem Flugzeugträger zum Beispiel, und auftanken, das sind genau Funktionen, die noch sozusagen kooperativ laufen. Da bin ich also mit meinem Freund zusammen und habe den Flugzeugträger, auf dem ich starte, lande und das System, das mich aus demselben Stall auftankt. Autor: Kampfroboter dagegen haben es mit einer feindlichen Umwelt zu tun, aus technischer Sicht eine viel größere Herausforderung. O-Ton 16. - Marcel Dickow: Wenn ich einen Gegner finden soll, der sich verteidigt und der sich vielleicht sogar noch tarnt und nicht entdeckt werden möchte, ist das was anderes, als wenn ich den Flugzeugträger, der mich vielleicht auf dem Leitstrahl auf seine Oberfläche leitet, dass ich da lande. Also, hilft der andere mir oder behindert er mich und versucht mich abzuschießen selber, auf Deutsch gesagt? Ich glaube, das wird noch ein bisschen länger dauern, bis es wirklich sinnvoll sein wird, für Militärs, diese Arten von autonomen Waffen einzusetzen. Aber, das ist wichtig jetzt sich darum zu kümmern. Autor: Weshalb auch aus Sicht von Joachim Hertzberg das Modell „Terminator“ – also der eigenständig kämpfende Robotersoldat das unwahrscheinlichste Szenario ist. O-Ton 17. - Joachim Hertzberg: Also, es macht eigentlich gar keinen Sinn das Terminator-Beispiel zu bringen, weil Terminator war ein im Prinzip in sich abgeschlossener Roboter, sowas wie ein einzelner Mensch. Das ist nicht das Szenario über das wir reden. Wir reden über vernetzte Systeme, ganz viele Sensoren an ganz vielen Stellen, ganz viele Waffensysteme an ganz vielen Stellen, die miteinander vernetzt sind und als komplexes vernetztes System in einen möglichen Kampf eingreifen. Das ist, aus meiner Sicht, das viel plausiblere Szenario, als dass ich jetzt irgendwie einen einzelnen Panzer autonomisiere oder einen einzelnen Terminator baue. 6 Autor: Und Deutschland? Im Koalitionsvertrag von Union und SPD steht, die Regierung werde sich für eine internationale Ächtung vollautomatischer Waffensysteme einsetzen. Aber gegen halbautomatische hat sie nichts. Solange am Ende noch ein Mensch in die Entscheidung eingebunden ist, steht auch die Bundesregierung der Automatisierung im Militär aufgeschlossen gegenüber. O-Ton 18. - Ursula von der Leyen: Nach wie vor ist es immer ein Mensch, der entscheidet, ob eine Waffe ausgelöst wird oder nicht. Das ist beim Torpedo und U-Boot so, das ist bei der Panzerhaubitze so, das ist bei der Interkontinentalrakete so, bei der Cruise Missile, und das ist bei der Drohne nicht anders. Autor: Die Drohne, von der Verteidigungsministerin Ursula von der Leyen im Juli 2014 im Bundestag sprach, gibt es noch nicht. Die Rüstungstochter von Airbus - Airbus Defence and Space - soll sie entwickeln, im Auftrag Deutschlands, Frankreichs und Italiens. Man sei aber noch ganz am Anfang, heißt es auf Anfrage bei Airbus Defence. Die Länder müssten zunächst mal untereinander abstimmen, welche Anforderungen sie an die Drohne genau stellen wollen. Das sei sinnvoll, denn in der Vergangenheit kamen bei Entwicklungen von den Bestellerländern immer wieder Nachforderungen – das soll diesmal anders laufen. Aber das Ziel sei klar: Es solle explizit keine Kampfdrohne werden, wohl aber eine „bewaffnete Aufklärungsdrohne“. Und sie soll schnell reagieren können, erläutert die Verteidigungsministerin am Beispiel einer Situation in Afghanistan. O-Ton 19. - Ursula von der Leyen: Am 17. Oktober 2013 hat in Kundus der letzte Konvoi das Camp der Bundeswehr verlassen. Das waren damals 441 Soldatinnen und Soldaten, in 119 Fahrzeugen, eine kilometerlange Kolonne, die über zwei Tage durch unübersehbares Gelände gefahren ist. Eine der größten Operationen der Bundeswehr. Diese Kolonne ist von allen Seiten geschützt gewesen, sie ist vor allem auch von oben geschützt gewesen. Insofern, als das eine Aufklärungsdrohne, die wir leasen, dort in der Vogelperspektive das Gelände überschaut hat. Wäre diese Kolonne angegriffen worden, so wäre dieser Angriff frühzeitig gesehen worden, aber die Unterstützung der Bodentruppe, die angegriffen wird aus der Luft, das hätte gedauert, denn es hätten entweder Hubschrauber oder Flugzeuge angefordert werden müssen, um dann die Soldatinnen und Soldaten am Boden zu unterstützen, das sind wertvolle Minuten, die Soldatenleben kosten können. Und, meine Damen und Herren, diese Schutzlücke, die wollen wir schließen. (Beifall) O-Ton 20. - Marcel Dickow: Ja, also da sehen wir eindeutig den Trend hin. Es macht Sinn, bestimmte Dinge direkt in die Maschine zu verlagern und nicht in die Basisstation am Boden, einfach deswegen, weil die Signallaufzeit zwischen dem Bediener am Boden und der Drohne in der Luft zu groß ist, das geht dann über ein oder zwei Satelliten und über eine Bodenstation. Und wenn diese Maschinen, diese Drohnen anfangen schneller zu fliegen als sie das bisher tun, wenn sie in der Lage sein sollen, einen Luftkampf zu bestehen, dann sind die 3, 4, 5 Sekunden oder vielleicht sogar auch nur eine Sekunde Signallaufzeit hoch und runter schon zu lange, dann muss das System viel 7 schneller reagieren können, zum Beispiel auf ein feindliches Kampfflugzeug. Und dann muss die Maschine das alleine können. Das heißt, es gibt da einen inhärenten Trend weg von der Fernsteuerung hin zur Verlagerung von Entscheidungen direkt auf die Maschine. Autor: Verteidigungsministerin von der Leyen beteuert, dass die Drohnen, die im deutschen Auftrag entwickelt werden, die Entscheidungen zum Schießen nicht eigenmächtig treffen sollen. Doch nur wenige Länder äußern sich so eindeutig. Und während es sich bei der Airbus-Entwicklung primär um eine – wenn auch bewaffnete – Aufklärungsdrohne handelt, zeigen die USA und China bereits Interesse an automatisierten Kampfdrohnen – wie eben der Weiterentwicklung der Experimentierdrohne X-47B, die sich autonom in der Luft auftankt. O-Ton 21. - Frank Sauer: Und eingeordnet in den rüstungsdynamischen Kontext und sozusagen die Rivalität zwischen USA und China wird auch relativ klar woher das kommt. Autor: Meint Frank Sauer von der Universität der Bundeswehr. O-Ton 22. - Frank Sauer: Das ist der Versuch mit Hochtechnologie, seitens der Amerikaner, die Zuwachsraten, die zweistelligen, die China in sein Militäretat gepumpt hat, auszugleichen. Weil, kein Land hat so viele Schiffe und Flugzeuge in Dienst gestellt. Und wenn Sie schauen wie der Aktionsradius von einer X-47B ist, die sich selbstständig auftanken kann, in der Luft, dann sehen Sie, dass der doppelt oder dreifach so groß ist wie der bemannter Flugzeuge. Und plötzlich ragt eben Festland-China mit in den Aktionsradius von einer amerikanischen Flugzeugträgergruppe hinein. Und das ist natürlich kein Zufall. Autor: Das Einsatzgebiet autonomer Waffen wären somit klassische militärische Konflikte zwischen Staaten und deren Armeen. Für die Jagd auf Terroristen sind Roboter nach Auffassung des Politikwissenschaftlers Marcel Dickow eher ungeeignet. O-Ton 23. - Marcel Dickow: Einfach deswegen, weil es dort überhaupt keine Unterscheidung gibt zwischen denen, die teilnehmen, am Konflikt, und den Zivilisten. Für den Moment ist es für Maschinen extrem schwierig, solche Unterscheidungen zwischen Kombattanten, also zwischen Kampfteilnehmern und Zivilisten wirklich zu treffen. Etwas, mit dem sich Menschen schon unglaublich schwer tun, wie wir in Afghanistan in den letzten zehn Jahren beobachtet haben. Ich sehe im Moment eher die klassischen symmetrischen Szenarien, wo zwei mehr oder weniger hochgerüstete Hightech-Nationen sozusagen ihre Maschinen gegeneinander auffahren. Das sind die Szenarien, in denen ein solches Auffahren, ein solches gegeneinander antreten von Robotern tatsächlich Sinn macht. 8 Autor: Autonome Drohnen werden also kaum dabei helfen können, Terroristen aufzuspüren. Terroristen ihrerseits hingegen interessieren die Regeln des Völkerrechts ohnehin nicht. Dass autonome Waffen nur schwer Soldaten von Zivilisten unterscheiden können, dürfte somit für sie kein Hinderungsgrund sein, solche Waffen einzusetzen, wenn sie in ihren Besitz gelangen. O-Ton 24. - Frank Sauer: Wichtig wäre schon noch sich vor Augen zu führen, dass wir nicht zwingend nur um Millionen teure Großwaffensysteme und diese Drohnen, die soundso viele Millionen, Milliarden Dollar kosten, reden, sondern unter Umständen, über Schwärme von vielleicht ganz billigen Systemen, vielleicht aus dem 3D-Drucker hundertfach gedruckte ganz einfache kleine Drohnen, die so rumschwirren können, die aber mit Software, mit einer gewissen Intelligenz, in Anführungszeichen, versehen sind und die sich eben an keine Regeln halten. Also der IS setzt heute auch schon Drohnen ein, nicht weil er eine Rüstungsabteilung hat, sondern weil die einen AmazonAccount haben. Die bestellen die einfach und dann fliegen die die auch. Autor: Autonome Angriffswaffen – der Traum also von Terroristen? O-Ton 25. - Joachim Hertzberg: Die Technologie so hinzubekommen, dass man einen gezielten Einsatz machen kann, sowas wie ethnische Säuberungen durch autonome Waffen machen zu lassen, Beispiel: „Flieg auf den Berg und töte alle Menschen, die da Zuflucht genommen haben“ oder sowas, ich glaube, das ist in absehbarer Zeit technisch nicht möglich, aber was relativ bald möglich sein könnte, ist dass man eben diese billigen Drohnen, die man kaufen kann, mit irgendwelchen einfachen Waffensystemen ausstattet, um einfach nur rumzuballern, Stress zu machen, Regionen zu destabilisieren. Autor: Auch Frank Sauer ist pessimistisch. Selbst wenn nicht Terroristen, sondern staatlich kontrollierte Armeen mit robotischen Waffen operieren: Die Hoffnung, dass eine Künstliche militärische Intelligenz weniger Fehler macht als menschliche Offiziere, hält er für ebenso trügerisch wie die, dass es weniger Tote gibt, wenn nicht Soldaten, sondern Roboter in den Krieg geschickt werden. O-Ton 26. - Frank Sauer: (Und) wenn wir diesen Weg der Hochtechnologie so weiter bestreiten, dass wir nicht mal mehr körperlich vor Ort sind – was ja heute schon der Fall ist – sondern dass wir im Prinzip uns auch geistig von unseren Kriegen entkoppeln, weil wir die an die Maschinen übergeben haben, da frage ich mich schon wann der Mensch überhaupt noch bemerken soll, wenn’s vielleicht mal zu viel ist mit dem Krieg. Also, wenn niemand mehr von Krieg in irgendeiner Weise betroffen ist, weil wir ihn völlig automatisiert und outgesourcet haben, ich glaube nicht, dass das zu weniger Konflikten führt in der Zukunft. Autor: Die Fortschritte der Informationstechnik führen nicht nur zu militärischen Robotern. Sie münden auch in eine weitere Entwicklung moderner Kriegsführung: Den 9 Cyberwar. Hackerangriffe auf kritische Infrastruktur, auf Kraftwerke, Banken, Telekommunikationsnetze. Das ist in Ansätzen bereits Realität. Bekannte Beispiele aus den letzten Jahren waren der Cyberangriff auf eine Atomanlage im Iran, als dessen Urheber die USA vermutet werden. Ein Cyberangriff auf Sony, für den die USA Nordkorea verantwortlich machen. Und im vergangenen Jahr ein Cyberangriff auf den Bundestag von mutmaßlich russischen Hackern. Das waren alles noch keine militärischen Angriffe, sie zeigen aber, was möglich ist. Die US-Navy bringt ihren Soldaten schon wieder bei, mithilfe des Sternenhimmels zu navigieren – für den Fall, dass in einem zukünftigen Konflikt die GPS-Kommunikation gehackt wird. Und nach Ansicht des Künstliche-Intelligenz-Forschers Joachim Hertzberg wird diese CyberKriegsführung wiederum die Kriegs-Robotik beeinflussen. Denn auch autonome Drohnen orientieren sich am GPS und künftige Kampfroboter wären miteinander vernetzt und somit Teil einer verwundbaren Kommunikations-Infrastruktur. O-Ton 27. - Joachim Hertzberg: Die ich natürlich defensiv versuche zu schützen, so gut wie’s geht und ich offensiv versuche so gut anzugreifen wie es geht. Das sind aus meiner Sicht zwei Seiten mehr oder weniger derselben Medaille letztendlich, wenn es um eine, in Anführungsstrichen – konsequente Anwendung dieser Technologien in Waffentechnik geht. Autor: Kein Roboter soll schießen, ohne dass ein Soldat das anordnet – das ist, kurz gesagt, die Position der Bundesregierung. Das US-amerikanische Pentagon hat im November 2012 eine Direktive erlassen, die auf den ersten Blick die gleiche Position einnimmt: Auch künftig müsse bei der Entscheidung für die Anwendung tödlicher Gewalt immer eine angemessene menschliche Kontrolle erfolgen. In der Presse wurde diese Direktive zum Teil als ein amerikanisches „Moratorium“ für vollautonome Waffensysteme dargestellt. Doch Experten lesen die Direktive kritischer: Die Formulierung „angemessene Kontrolle“ schließt ja die Möglichkeit nicht aus, dass es in bestimmten Situationen angemessen erscheint, die menschliche Kontrolle außer Kraft zu setzen. O-Ton 28. - Frank Sauer: Es gibt ja eine globale Kampagne, die darauf abzielt im Rahmen der UN einen völkerrechtlich bindenden Vertrag zu erwirken, der autonome Offensivsysteme verbietet, diese Kampagne argumentiert eben genau, vor dem Hintergrund dieser Direktive, dass wir nicht angemessene menschliche Kontrolle brauchen, sondern – und jetzt wird’s natürlich schwierig, ja – wir brauchen bedeutsame menschliche Kontrolle. Der Mensch muss in diese Entscheidung eingebunden werden, aber in einer Art und Weise, dass er wirklich versteht was er da tut. Autor: Wenn niemand mehr das Geschehen verstehen würde – wer könnte dann überhaupt zur Rechenschaft gezogen werden, wenn etwa eine Drohne versehentlich Zivilisten bombardiert? O-Ton 29. - Marcel Dickow: Klassischerweise würde man sagen es gibt einen Befehlshaber, der setzt robotische autonome Systeme ein, also ist er auch dafür verantwortlich. Aber, so einfach ist die 10 Rechnung natürlich nicht, denn kein Offizier kann wirklich verstehen wie die Maschine funktioniert. Das bringt dann den Hersteller, den Programmierer mit ins Boot. Der kann natürlich eigentlich nicht haftbar dafür gemacht werden, wie die Streitkräfte das einsetzen. Also ich sehe hier durchaus ein Vakuum. Das ist einer der Gründe, warum es in den Streitkräften große Vorbehalte gibt gegenüber autonomer und vor allen Dingen robotischer Systeme, weil sie eben das Potential haben, die klassische Funktionsweise von Streitkräften mit Befehl und Befehlsketten, mit Hierarchien auszuhebeln. Autor: All diese Argumente werden längst auch auf internationaler Ebene ausgetauscht. „Letale Autonome Waffensysteme“, wie sie im Fachjargon heißen, stehen inzwischen regelmäßig auf der Tagesordnung, wenn sich die Mitgliedsstaaten der UNKonvention zur Kontrolle konventioneller Waffen treffen. Bislang jedoch nur in Form eines reinen Gedankenaustauschs. Daraus sollen nun konkrete Verhandlungen werden, um Kampfroboter international zu ächten. Zumindest hoffen das die Vertreter von Menschenrechts-Organisationen wie Human Rights Watch. In Genf im November 2015 wurden sie jedoch in doppelter Hinsicht enttäuscht. Nicht nur lehnten die Mitgliedsstaaten solche formalen Verhandlungen mehrheitlich ab. Die Vertreter der Nicht-Regierungsorganisationen wurden sogar von einer informellen Beratung ausgeschlossen. Ein sehr ungewöhnlicher Vorgang. Stephen Goose von Human Rights Watch zeigte sich empört. O-Ton 30. - Stephen Goose (mit Übersetzung): Ich bin seit 1994 bei Waffenkonventionsverhandlungen dabei. Ganz am Anfang waren die NGOs noch unerwünscht, aber schon als die Landminenkonvention verhandelt wurde, wurde den Beteiligten klar, dass die NGOs einen wichtigen Beitrag leisten. Seit 1996 sind sie willkommen und immer dabei. Und jetzt plötzlich wirft uns Großbritannien aus dem Raum - und kein anderes Land hat dem widersprochen! Autor: Inzwischen hat sich die Stimmung deutlich gebessert. Als sich die Vertreter von 95 Staaten in der vergangenen Woche erneut in Genf trafen, zeigten sich auch die großen Militärnationen wie China und die USA wesentlich gesprächsbereiter als in der Vergangenheit. Doch der Weg ist mühsam. O-Ton 31. - Michael Biontino: Gespräch in englischer Sprache Autor: Mit hohem Engagement versuchte der Leiter des Treffens, der deutsche Botschafter Michael Biontino alle Länder zu einer Kompromissformel für das weitere Vorgehen zu gewinnen. Bis in die Nacht hinein überarbeitete Biontino seine Entwürfe und führte Einzelgespräche – am letzten Tag schließlich fand sich ein Konsens. Kurz gesagt, besteht er darin, dass in den kommenden zwei Jahren Regierungsexperten formale Verhandlungen vorbereiten und dafür die Vorarbeit leisten. Zum Beispiel völkerrechtliche Fragen erörtern und klären, wie man „tödliche autonome Waffen“ genau definieren soll. Die Menschenrechtsaktivistin und Friedensnobelpreisträgerin Jody Williams ist froh über das Ergebnis. Es sei zwar noch lange kein Verbot, aber 11 es bereitet den Weg dahin – das weiß sie, denn ähnlich lief es in den 90er Jahren auch, als sie erfolgreich die Kampagne zum Verbot der Landminen geleitet hat. O-Ton 32. - Jody Williams (Voiceover): Wir sind begeistert darüber, dass sich im Laufe der Woche die Zahl der Länder, die sich für ein Verbot von Killerrobotern ausspricht, von 9 auf 14 erhöht hat. Autor: Auch Marcel Dickow, der für die Stiftung Wissenschaft und Politik das Treffen in Genf verfolgt hat, empfand es als einen Durchbruch. O-Ton 33. - Marcel Dickow: Die Staatengemeinschaft ist einen kleinen Schritt weitergekommen. Also, immer mehr Staaten kennen sich mit dem Thema aus. Langfristig wird es wahrscheinlich eine Ächtung geben - in irgendeiner Form. Einfach deswegen, weil dann auch Staaten wie die USA einsehen werden, dass es nicht in ihrem Interesse ist, dass alle Staaten auf dieser Welt solche Systeme besitzen und sie unreglementiert einsetzen. Autor: Doch wie umfangreich wird dieses Verbot sein und werden sich wirklich alle Länder dazu bekennen? Das ist noch offen, und Marcel Dickow räumt auch ein: bis es soweit ist, geht die technische Entwicklung in den Militärlabors dieser Welt weiter. O-Ton 34. - Marcel Dickow: Das war die große Hoffnung, dass man dieses eine Mal etwas präventiv ächten kann, bevor die Technologie soweit ist. Dieses Fenster ist immer noch offen. Der Weg dafür ist nicht verbaut. Aber es sieht im Moment nicht danach aus. Also es wird wahrscheinlich wohl erst wieder erste Systeme geben müssen, erste Einsätze geben müssen, die Menschen müssen damit ihre Erfahrungen sammeln, bevor sie dann zu der Erkenntnis kommen, dass es vielleicht doch keine so gute Idee war. ******************** 12
© Copyright 2024 ExpyDoc