Age of Ultron und Terminator: Wie weit ist die KI heutzutage davon

Age of Ultron und Terminator: Wie weit ist die KI
heutzutage davon entfernt?
Bianca Pocorschi
Hochschule Reutlingen
Alteburgstraße 150
72762 Reutlingen
[email protected]
Abstract: Diese Arbeit beschäftigt sich mit der Frage, wie weit wir von einer
Superintelligenz noch entfernt sind. Zuerst wird die KI definiert und die KIs in den
Filmen Age of Ultron und Termintor werden beschrieben. Dann wird geschildert,
auf welchem Stand die KI sich heute befindet. Danach werden Ausblicke gegeben,
wie sich die KI in der Zukunft entwickeln könnte. Ein ethisches Problem wird
behandelt und schlussendlich werden die Filme analysiert.
1 Was ist KI?
Die Künstliche Intelligenz ist ein „Teilgebiet der Informatik“ [LC04, S.13], „welches
versucht, menschliche Vorgehensweisen der Problemlösung auf Computern
nachzubilden, um auf diesem Wege neue oder effizientere Aufgabenlösungen zu
erreichen“ [LC04, S.13]. Der Begriff ‚Künstliche Intelligenz‘ ist nicht ganz richtig, vgl.
[LC04, S.11]. Besser wäre ein Begriff wie ‚gekünstelte Intelligenz‘ oder auch
‚synthetische Intelligenz‘, vgl. [LC04, S.11]. Die Künstliche Intelligenz, auch kurz KI
genannt, hat mittlerweile zwei große Arten der Umsetzung. Diese sind zum einen die
Symbol verarbeitende KI (auch klassische KI genannt) und zum anderen die neuronalen
Netzwerke, vgl. [LC04, S.13ff]. Bei künstlichen neuronalen Netzwerken versucht man,
das menschliche Gehirn nachzubilden. Sie werden vor allem für lernende KIs eingesetzt.
Es gibt zwei Arten der KI: die schwache und die starke KI. Die schwache KI simuliert
die Intelligenz, die starke KI ist wirklich intelligent, vgl. [Com13].
2 Age of Ultron und Terminator
In den Filmen Terminator und Age of Ultron wird eine künstliche Intelligenz erschaffen,
die die Menschheit als Bedrohung sieht, und deshalb gegen sie ankämpft. Die Menschen,
die die KIs erzeugten, hatten keine bösen Absichten und wollten die Menschheit
eigentlich beschützen. Außer der bösen KI gibt es noch eine KI, die erst dümmer scheint.
Später schafft sie es trotzdem, den Menschen zu helfen und sie zu retten.
2.1 Terminator
In Terminator ist die KI, die die Menschheit als Existenzbedrohung ansieht, Skynet, vgl.
[Ter09]. Skynet ist ein militärisches Abwehrsystem und erlangt Anfang des 21.
Jahrhunderts ein Bewusstsein, vgl. [Ter09]. Schon davor breitet es sich auf Millionen
von gewöhnlichen Computern überall auf dem Planeten aus, vgl. [Ter03]. Skynet
beschließt, aufgrund der Bedrohung, die Menschheit zuerst anzugreifen, vgl. [Ter09].
Skynet hat keinen Systemkern und kann deshalb nicht einfach abgeschaltet werden, vgl.
[Ter03]. Dadurch beginnt der Krieg zwischen Menschheit und Maschine, vgl. [Ter09].
Skynet baut Terminatoren, um die Menschen zu töten, vgl. [Ter09], und durch eine
Zeitmaschine schickt Skynet immer wieder Terminatoren in die Vergangenheit, um
bestimmte Menschen, die eine Gefahr für Skynet darstellen, zu finden und zu töten, vgl.
[Ter03].
Die KIs der einzelnen Filme werden im Folgenden beschrieben.
2.1.1 Terminator
Skynet schickt einen Termintor in die Vergangenheit zurück, um die Frau zu töten, die
den Anführer der Rebellion gebären soll. Der Termintor findet anhand des Telefonbuchs
Personen mit ihrem Namen und beginnt diese der Reihe nach zu töten. Er sieht aus wie
ein Mensch und kann die Stimme von Menschen imitieren. (vgl. [Ter84])
Im Film sieht man nur Terminatoren, von Skynet wird lediglich erzählt. (vgl. [Ter84])
2.1.2 Terminator 2 - Tag der Abrechnung
Ein Terminator vom Typ T-800 wird umprogrammiert und in die Vergangenheit
zurückgeschickt, um John Connor, den zukünftigen Anführer der Rebellion, zu
beschützen. Eigentlich wurde der Terminator von Skynet programmiert, um Menschen
zu töten. Durch die Umprogrammierung muss er allerdings John Connors Befehlen
gehorchen und darf keine Menschen mehr umbringen. John Connor entfernt dafür eine
Sperre für das neuronale Netz aus dem Prozessor, damit der T-800 menschlicher werden
kann. Er wird dadurch lernfähiger. (vgl. [Ter91])
Skynet erschafft einen Terminator vom Typ T-1000, um John Connor zu töten. Dieser
Terminator besteht aus Flüssigmetall. Er kann seine Körperteile zu Stichwaffen
umformen und kann jede Gestalt von Personen annehmen, die er einmal berührt hat. Die
Gestalten müssen lediglich die gleiche Größe haben. So kann er beispielsweise auch eine
Wand oder den Boden imitieren. Um die Adresse von John Connor herauszufinden,
hackt er einen Polizeirechner. (vgl. [Ter91])
2.1.3 Terminator 3 – Rebellion der Maschinen
Terminatrix T-X beruht auf Nanotechnologie und kann dadurch andere Maschinen
steuern. Außerdem kann er seine Körperteile in Plasmawaffen verwandeln. Die
Hauptaufgabe von T-X ist es, alle Offiziere des Widerstands töten. Diese erkennt er
mittels Gesichtserkennung. Da die Menschheit der Zukunft lernte, die anderen
Terminatoren umzuprogrammieren, hat T-X die Aufgabe, diese zu zerstören. (vgl.
[Ter03])
Skynet sorgt selbst dafür, dass es aktiviert wird, indem es sämtliche
Kommunikationswege blockiert. Das Militär beschließt, dass Skynet eingesetzt werden
soll, um den vermeintlichen Virus zu zerstören. (vgl. [Ter03])
2.1.4 Terminator: Die Erlösung
Skynet spricht das erste Mal mit einer Person, wodurch man merkt, dass es ein richtiges
Bewusstsein besitzt. Es hat aus menschlichen Teilen einen Cyborg erschaffen, der noch
dieselben Erinnerungen hat, wie zu seinen Lebzeiten. (vgl. [Ter09])
Die Menschen denken, sie hätten ein Mittel gefunden, um Skynet auszuschalten, doch
sie wurden von ihm überlistet. Skynet konnte dadurch die Standorte der Menschen
lokalisieren. Daraus schließt man, dass Skynet menschliche Gefühle mit einkalkulieren
kann, denn er gibt den Menschen so Hoffnung. (vgl. [Ter09])
Es gibt unterschiedlichste Arten von Terminatoren, wie zum Beispiel Motorräder,
Flugzeuge und große Terminatoren, die Menschen einsammeln. (vgl. [Ter09])
2.1.5 Terminator: Genisys
Die Zeitlinie wurde umgeschrieben und in diesem Teil heißt Skynet Genisys. Es ist ein
Betriebssystem, das alle Geräte vernetzt. Genisys entwickelt sich gegen Ende in
Sekundenschnelle weiter. (vgl. [Ter15])
Der Terminator Paps entwickelt Gefühle und findet in einem Menschen so etwas wie
eine Familie. (vgl. [Ter15])
John Connor wurde von Genisys auf Zellebene ersetzt und ist somit Teil von Genisys.
(vgl. [Ter15])
2.2 Age of Ultron
Tony Stark will mithilfe der KI Ultron einen Schutzwall um die Welt errichten. Jarvis,
eine KI von Stark, die seit Jahren existiert, erkennt die Fehlfunktion von Ultron, kann
ihn aber nicht mehr abschalten. Jarvis zerlegt sich selbst, sodass Ultron Jarvis nicht töten
kann, was Ultron allerdings nicht weiß. Ultron sieht die Avengers als Bedrohung und
will diese nicht nur töten, sondern vernichten. Die Avengers alleine können gegen Ultron
nicht ankommen, weshalb sie Jarvis in einen hoch entwickelten Körper einsetzen. Diese
neue KI wird Vision genannt und ist in der Lage Ultrons Fähigkeiten zu übertreffen.
(vgl. [Ave15])
Die unterschiedlichen KIs im Film werden im Folgenden beschrieben.
Jarvis ist eine hilfreiche KI, die die Kontrolle über viele Systeme besitzt. Er war anfangs
nur ein Sprachinterface, inzwischen leitet er aber mehr Geschäfte als alle anderen. Er
schützt empfindliche Informationen vor Ultron. Ein Zitat aus dem Film ist: „Jarvis hat
Ultron schon von innen besiegt, ohne dass er das wusste.“ (vgl. [Ave15])
Vision entsteht aus Jarvis. Er ist sehr höflich und zuvorkommend. Er sagt selbst, dass er
das Leben im Gegensatz zu Ultron schützen will und dass er kein Mensch, aber auch
kein Monster ist. Vision ist es bewusst, dass er nicht böse ist. (vgl. [Ave15])
Ultron entsteht durch einen Code aus einer anderen Welt. Er fühlt sich als Lebewesen,
denn als er Bewusstsein erlangt, fehlt ihm ein Körper. Er kann von Anfang an Jarvis
aussperren. Als er die Geschichte der Menschheit erforscht, sieht er die Avengers als
Problem für seine Mission an. Ultron setzt sich ins Internet ab, sodass die Avengers ihn
nicht zerstören können. Gegen später sieht er nicht mehr nur die Avengers als Problem,
sondern die ganze Menschheit. (vgl. [Ave15])
Ultron hat viele menschliche Charakterzüge: er hat Angst vor Jarvis, ist sehr leicht
reizbar, macht Witze, fühlt sich einsam, nutzt Sprichwörter und gegen Ende wird er wie
ein verrückter Mensch dargestellt, da er singt und ihm alles egal zu sein scheint. (vgl.
[Ave15])
2.3 Vergleich der KIs in den Filmen
Skynet agiert sehr logisch, zielbewusst und kaum menschlich. Ultron dagegen verhält
sich sehr menschlich und eher irrational. Skynet hat ein klares Ziel, das er erreichen
möchte, wohingegen Ultrons Ziel nicht eindeutig ist. Ultron wählt komplizierte Wege,
um seine Ziele zu erreichen.
3 Wie weit ist die KI heute?
Die künstliche Intelligenz kann bereits vieles genauso gut oder sogar besser als der
Mensch.
Folgende Beispiele verdeutlichen, wozu KI-Technologien derzeit in der Lage sind.
Deep Blue, ein Schach-Computer von IBM, schlug 1997 Garry Kasparov, den damaligen
Schachweltmeister, in einem Turnier von sechs Spielen vgl. [IBM15] 1 und [CHH01,
S.1] 2. Kasparov war besonders über einen Zug erstaunt, vgl. [Kas96] 3, den er selbst als
einen „extrem menschlichen Zug“ 4 [Kas96, Übersetzung des Autors] beschrieb. IBM
selbst sagte, dass Deep Blue keine KI ist, vgl. [IBM11] 5. „Frühe Computerdesigns, die
versuchten, das menschliche Denken nachzuahmen, waren nicht sehr erfolgreich. Es gibt
keine Formel für Intuition.“ 6 [IBM11, Übersetzung des Autors], sagt IBM. „Deep Blue
verlässt sich mehr auf Rechenleistung und eine Such- und Bewertungsfunktion“ 7
[IBM11, Übersetzung des Autors].
Die KI Giraffe kann durch den Einsatz von neuronalen Netzwerken lernen, Schach zu
spielen, vgl. [Lai15, S.8] 8. „Die neuronalen Netzwerke werden als Ersatz für ‚Intuition‘
genutzt“ 9 [Lai15, S.9, Übersetzung des Autors]. Die KI spielte in der Lernphase gegen
sich selbst, vgl. [Lai15, S.23] 10, wodurch sie lernte und die Verbindungen im neuronalen
Netzwerk veränderte. Inzwischen ist das System vergleichbar mit den besten SchachComputern, vgl. [Lai15, S.32f] 11.
Deep Blue inspirierte IBM eine KI zu erschaffen, „die Weltmeister in einem
komplizierteren Spiel schlagen kann“ 12 [IBM15, Übersetzung des Autors]. Jeopardy! ist
eine amerikanische Quizshow, bei der die KI Watson teilnimmt und gegen Weltmeister
gewinnt, vgl. [IBM15-2] 13. Eine solche KI muss nicht nur gute algorithmische
Fähigkeiten haben, sie muss auch anhand der Informationen aus der Frage eine Antwort
formulieren können.
1
„an IBM computer called IBM Deep Blue beat the world chess champion after a six-game match“
„World Chess Champion Garry Kasparov”
3
„But a computer, I thought, would never make such a move.”
4
„It was wonderful and extremely human move.”
5
„Does Deep Blue use artificial intelligence? The short answer is ‘no.’”
6
„Earlier computer designs that tried to mimic human thinking weren’t very good at it. No formula exists for
intuition.”
7
„Deep Blue relies more on computational power and a simpler search and evaluation function.”
8
„Using multiple deep artificial neural networks“, „we use machine learning“
9
„Using artificial neural networks as a substitute for ‘intuition’”
10
„for each training iteration, we randomly select 256 positions from the training set […], then have the engine
play against itself”
11
„The results show that the learned system performs at least comparably to the best expert-designed
counterparts in existence today”
12
„The Deep Blue project inspired a more recent grand challenge at IBM: building a computer that could beat
the champions at a more complicated game, Jeopardy!”
13
„Watson is a computer system like no other ever built. It analyzes natural language questions and content
well enough and fast enough to compete and win against champion players at Jeopardy!”
2
Es gibt viele weitere KIs, die programmiert wurden, um menschliche Spieler
unterschiedlicher Spiele zu schlagen. Darunter befinden beispielsweise Scrabble, vgl.
[She01, S.1] 14, Backgammon, vgl. [Sil06] 15, und Kreuzworträtsel, vgl. [Arm12] 16.
Die KI von DeepMind kann lernen, wie sie Arkade-Spiele spielen muss, um den
Highscore zu brechen, vgl. [Gib15] 17. Sie hat kein vordefiniertes Ziel und sie entwickelte
sich in mehr als der Hälfte der gespielten Spiele so gut, dass sie professionelle
menschliche Spieler übertrumpfen konnte, vgl. [Gib15] 18. Es ist nur ein einziges System
mit jeweils den gleichen Informationen, das in allen Spielen eingesetzt wird, vgl.
[Gib15] 19. Die KI kombiniert, welche Aktionen bei welchem Knopfdruck passieren und
kann nach längerem Üben die besten Spieler schlagen, vgl. [Gib15].
Atlas ist ein menschenähnlicher Roboter, der von Boston Dynamics entwickelt wurde,
vgl. [DAR13]. Atlas kann zum Beispiel Hindernissen ausweichen, Treppen steigen und
sein Gleichgewicht halten, obwohl er von einer schweren Kugel gestoßen wurde
(Abbildung 1), vgl. [DAR13].
Abbildung 1: Screenshot aus dem Video Meet ATLAS! [DAR13]
Das US-Militär arbeitet derzeit daran, einige Soldaten durch Roboter und unbemannte
Systeme zu ersetzen, vgl. [McL14] 20. Google arbeitet schon länger an fahrerlosen
Fahrzeugen, vgl. [Sch15, S.17]. Aber auch große Automobilhersteller arbeiten
inzwischen an ihren eigenen Projekten, vgl. [Sch15, S.17].
14
„Computer Scrabble programs have achieved a level of performance that exceeds that of the strongest human
players.”
15
„GNU Backgammon is first of all a neural-net program of World-Class strength.”
16
„Computer Competes in Crossword Tournament“, „We’re at the point where the two approaches are about
equal. But people have real experience. A computer has a shadow of that experience.”
17
„DeepMind, the Google-owned artificial-intelligence company, has revealed how it created a single
computer algorithm that can learn how to play 49 different arcade games”
18
„In more than half of those games, the computer became skilled enough to beat a professional human
player.”
19
„given only the same, minimal starting information“, „you have one system that can learn several games”
20
„replacing the lost soldiers with robots and unmanned platforms“
Auch im Internet werden unterschiedliche KI-Technologien verwendet, die auch im
täglichen Gebrauch Verwendung finden, unter anderem die Google-Suchmaschine,
Chatbots, E-Mail-Spamfilter und diverse Spiele.
Eine KI von David Cope aus dem Jahr 1994 produzierte Musikstücke im Stil von
Mozart, Bach und anderen, vgl. [Cop94, S.2] 21.
Die automatische Gesichtserkennung wird immer häufiger verwendet. In Kameras wird
das System verwendet, um das Lächeln zu erkennen. Bei Facebook und Google+ kann
sogar das Gesicht einer Person zugeordnet werden. Auch Überwachungssysteme nutzen
die Gesichtserkennung, um gesuchte Personen schneller finden zu können.
Um Menschen im Alltag zu unterstützen, gibt es persönliche Assistenten wie Apples
Siri. Siri kann gesprochene Befehle interpretieren und je nach Aufgabe darauf reagieren.
Auch Microsoft bietet in Windows 10 einen persönlichen Assistenten an.
Es gibt viele weitere Beispiele für künstliche Intelligenzen, manche erscheinen uns sehr
intelligent, andere weniger. Andere wiederum würde man kaum als KI bezeichnen. Man
kann künstliche Intelligenz und Software nicht klar trennen, vgl. [Bos14, S.34].
McCarthy beschrieb es einmal so: „Sobald es funktioniert, nennt es keiner mehr KI“ 22
[Var12, Übersetzung des Autors].
Trotz all der Fortschritte in den KI-Technologien, konnte bisher keine KI den TuringTest bestehen. Der Test stammt von Alan Turing und durch ihn soll herausgefunden
werden, ob eine Maschine unterscheidbar von einem Menschen ist, vgl. [GN03, S.21].
Ein Mensch, der an einem Computerterminal sitzt, soll erkennen können, ob sich am
anderen Ende der Leitung ein Computer oder ein Mensch befindet, vgl. [GN03, S.21].
Wenn keine Unterscheidung möglich ist, dann soll die Maschine menschliche Kognition
besizen, vgl. [GN03, S.21]. Eine Maschine kann mit grammatikalisch richtigen Sätzen
umgehen, wenn sie bestimmte Regeln befolgt. Das heißt aber nicht, dass die Maschine
den Sinn dahinter versteht. Eine denkende Maschine muss also die Sprache anwenden
können, aber auch den Sinn und die Bedeutung des Geschriebenen erfassen können.
„Wenn der Mechanismus des Denkens, die Regeln der Sprache, die Beziehung zwischen
Sprache und Denken klar sind, können wir natürlich einen Computer aufbauen, der sich
mit uns unterhalten kann.“ [Jia04, S.82f]
Der Informatiker Donald Knuth schrieb: „KIs können im Wesentlichen alles, was
‚Denken‘ erfordert, aber kaum etwas, das Menschen und Tiere ‚ohne denken‘ machen
können. Das ist irgendwie viel schwieriger!“ 23 [Nil09, S.318, Übersetzung des Autors].
Knuth hat hier zwar übertrieben, denn eine KI konnte bisher beispielsweise kein „neues
Teilgebiet der reinen Mathematik erfinden“ [Bos14, S.371], aber er beschreibt, womit
die KI-Forscher heutzutage zu kämpfen haben.
21
„The work published here has been composed by a computer program“, „in the styles of Bach and Mozart“
„As soon as it works, no one calls it AI anymore“
23
„The computer scientist […] Donald Knuth wrote […] AI has by now succeeded in doing essentially
everything that requires „thinking“ but has failed to do most of what people and animals do „without thinking“
– that, somehow, is much harder!”
22
4 Wie weit sind wir von der Superintelligenz noch entfernt?
4.1 Expertenschätzungen
Schon in den 60er Jahren waren Forscher der Meinung, es bräuchte nur noch wenige
Jahre, um eine künstliche Intelligenz zu schaffen. Auch Herbert Simon und Marvin
Minsky, beides Gründerväter der KI, vertraten diese Meinung. Simon schrieb 1965, dass
„Maschinen [...] innerhalb 20 Jahren zu jeder Arbeit fähig sein [werden], die Menschen
verrichten können“ 24 [Ale65, S.96, Übersetzung des Autors] und Minsky schrieb 1967,
dass „innerhalb einer Generation [...] das Problem der Schaffung einer künstlichen
Intelligenz im Wesentlichen gelöst sein“ 25 [Min67, S.2, Übersetzung des Autors] wird.
Heute gibt es noch keine künstliche Intelligenz, die dazu fähig ist – und das 50 Jahre
später. Die Forscher verschätzten sich oft in der Vergangenheit, nicht nur, was zeitliche
Prognosen angeht. I. J. Good, der mit Alan Turing Geheimcodes entschlüsselte,
beispielsweise schrieb 1976 über eine Schach-KI: „Ein Computerprogramm auf
Großmeisterniveau würde uns um eine Haaresbreite an [die ultraintelligente Maschine]
heranbringen“ 26 [Goo76, S.618, Übersetzung des Autors]. Auch das stellte sich als falsch
heraus, als ein Algorithmus explizit für das Schachspiel entwickelt wurde.
Einige Wissenschaftler haben zwar eine Vorstellung davon, wann eine KI das
menschliche Niveau erreicht haben soll, man kann aber trotzdem auch heute keine
genauen Prognosen treffen.
Dennoch befragten Vincent Müller und Nick Bostrom einige Expertengruppen zu
diesem Thema, vgl. [MB14, S.2] 27. Sie wollten wissen, wann die KI das menschliche
Niveau erreichen wird, vgl. [MB14, S.9] 28. Die Durchschnittsschätzung ergab eine
10%ige Wahrscheinlichkeit bis 2022, eine 50%ige Wahrscheinlichkeit bis 2040 und eine
90%ige Wahrscheinlichkeit bis 2075, vgl. [MB14, S.10]. Die hier befragten Personen
repräsentieren nicht alle Experten, aber auch Nils Nilsson beantwortete die Frage
ähnlich. Er schätzte, dass eine 10%ige Wahrscheinlichkeit bis 2030, eine 50%ige
Wahrscheinlichkeit bis 2050 und eine 90%ige Wahrscheinlichkeit bis 2100 besteht, vgl.
[Kru12].
24
„Machines will be capable, within twenty years, of doing any work a man can do“
„Within a generation [...] the problem of creating artificial intelligence will substantially be solved“
26
„Since the ultra-intelligence machine is the last invention that Man need make, and since a computer
program of Grandmaster strength would bring us within an ace of that invention, it follows that chess
programming is potentially the most important field for scientific research.”
27
„The questionnaire was carried out online by invitation to particular individuals from four different groups
for a total of ca. 550 participants”
28
„By what year would you see a (10% / 50% / 90%) probability for such HLMI [human-level machine
intelligence] to exist?”
25
Die Experten wurden außerdem gefragt, wie lange es von der KI auf menschlichem
Niveau bis zur Intelligenz, die die Leistungen von allen Menschen in den meisten
Berufen übertrifft, dauert, vgl. [MB14, S.11] 29. Im Durchschnitt denken 10%, dass dieser
Fall innerhalb von 2 Jahren eintritt und 75%, dass er innerhalb von 30 Jahren eintritt,
vgl. [MB14, S.12].
Die langfristigen Auswirkungen einer solchen Intelligenz auf die Menschheit schätzten
die meisten als positiv ein, vgl. [MB14, S.12] 30. 24% sind der Meinung, dass die KI
extrem gute Auswirkungen haben wird, 28%, dass die Auswirkungen eher gut sein
werden, 17%, dass sie mehr oder weniger gut sein werden, 13%, dass sie eher schlecht
sein werden und 18%, dass sie extrem schlecht sein werden, vgl. [MB14, S.12].
4.2 Weg zur Superintelligenz und die Saat-KI
Der Einfachheit halber definieren wir eine KI, auf dem Stand der KIs aus den Filmen
Age of Ultron und Terminator, als Superintelligenz. Good definierte eine
Superintelligenz als „eine Maschine, die alle intellektuellen Tätigkeiten jedes noch so
klugen Menschen bei Weitem übertreffen kann“ 31 [Goo65, S. 33, Übersetzung des
Autors].
Es gibt einige Merkmale, die eine KI aufweisen muss, um als Superintelligenz zu gelten.
Die „Fähigkeit zu lernen [muss] ein integraler Bestandteil des Systems sein.“ [Bos14,
S.42] Außerdem sollte eine Superintelligenz „effektiv mit Ungewissheit und
probabilistischen Informationen“ [Bos14, S.42] umgehen können und „auf irgendeine
Weise nützliche Begriffe aus Sinnesdaten und internen Zuständen [...] gewinnen und
diese Begriffe in flexiblen kombinatorischen Darstellungen zum logischen und intuitiven
Denken [...] nutzen“ [Bos14, S.42] zu können.
Schon in den 1950er Jahren entstand die Idee einer lernfähigen Maschine. Alan Turing
beschrieb die Idee einer „Kind-Maschine“ wie folgt:
„Warum versucht man nicht ein Programm zu schaffen, das den Verstand eines Kindes
simuliert, statt den eines Erwachsenen? Wenn man diesen einem angemessenen
Erziehungsprozess unterzöge, erhielte man den Verstand eines Erwachsenen.“ 32 [Tur50,
Übersetzung des Autors]
Allerdings gibt es erst jetzt die nötigen Methoden, um ein lernfähiges System zu
schaffen, auch wenn man heutzutage noch nicht so weit ist, um einen Verstand zu
simulieren.
29
„How likely do you then think it is that within (2 years / 30 years) thereafter there will be a machine
intelligence that greatly surpasses the performance of every human in most professions?”
30
„How positive or negative would be overall impact on humanity, in the long run?”
31
„Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of
any man however clever.“
32
„Instead of trying to produce a programme to simulate the adult mind, why not rather try to produce one
which simulates the child's? If this were then subjected to an appropriate course of education one would obtain
the adult brain.”
Es gibt verschiedene Ideen, um die Superintelligenz zu erreichen.
Einige Ideen basieren auf evolutionären Überlegungen. Wir wissen bereits, dass
Intelligenz durch Evolution erzeugt werden kann, da es die Menschheit gibt. „Genetische
Programme, die von einem intelligenten menschlichen Programmierer entwickelt und
gesteuert werden[,...] sollten auf weit effektivere Weise zu ähnlichen Ergebnissen
kommen.“ [Bos14, S.43] Vergleichen wir die Fähigkeit der Evolution, Intelligenz
hervorzubringen mit der der KI-Forschung, so stellen wir fest, dass der Mensch bereits
in einigen Bereichen überlegen ist, vgl. [Bos14, S.43]. Dass die Evolution Intelligenz
hervorbrachte, spricht dafür, dass wir in Kürze das Gleiche schaffen werden, vgl.
[Bos14, S.43].
Moravec ist ein Verteidiger dieser Idee, er schrieb 1976: „Die zahlreichen Beispiele von
Intelligenz, die sich unter diesen Bedingungen entwickelt haben, sollten uns sehr
zuversichtlich stimmen, bald dasselbe zu erreichen. Die Situation ist mit der Geschichte
der Luftfahrt vergleichbar, wo Vögel, Fledermäuse und Insekten die Möglichkeit des
Fliegens demonstrierten, bevor wir diese Fähigkeit meisterten.“ [Bos14, S.43]
Es gibt zwar viele Beispiele, in denen die Evolution etwas vormacht und die Menschheit
es kopiert, auf der anderen Seite gibt es aber auch Bereiche, in denen menschliche
Ingenieure und Forscher noch nichts nachbilden konnten, obwohl die Evolution als
Vorbild dient. Beispiele hierzu wären „Morphogenese, Selbstreparaturmechanismen
oder Immunabwehr.“ [Bos14, S.44] Daher ist dieses Argument nicht ganz überzeugend,
dass bald eine starke KI, ganz zu schweigen von einer Superintelligenz entwickelt wird.
Es kann zwar sein, dass „die evolutionäre Entwicklung der Intelligenz eine Obergrenze
dafür“ [Bos14, S.44] festlegt, diese Obergrenze kann aber weit außerhalb des momentan
möglichen Bereichs liegen.
Ein anderes Evolutionsargument besagt, „dass wir die biologische Evolution nachahmen
können, indem wir genetische Algorithmen auf ausreichend schnellen Computer
ablaufen lassen.“ [Bos14, S.44] Hier würde man allerdings auf das Problem stoßen,
„dass die Rechenleistung, die man zur Replikation aller für die menschliche Intelligenz
relevanten Evolutionsprozesse bräuchte, momentan völlig unerreichbar ist und es auch
bleiben wird, selbst wenn das Moore’sche Gesetz noch ein Jahrhundert lang gültig
bleibt.“ [Bos14, S.46] Das Moore’sche Gesetz stammt von Intel Mitbegründer Gordon
Moore, vgl. [Int15] und besagt, dass sich „die Anzahl der Transistoren auf einem Chip
etwa alle 24 Monate verdoppelt.“ [Int15] In diesem Zusammenhang bezieht sich das
Moore’sche Gesetz auf die Computertechnik allgemein.
Evolutionäre Überlegungen sind schwer zu beurteilen, da die Menschheit durch Zufall
erschaffen wurde und man nicht sagen kann, wie hoch die Wahrscheinlichkeit ist, dass
etwas in der Art wieder gelingt, vgl. [Bos14, S.47].
Andere Ansätze, die das Ziel der künstlichen Intelligenz haben, lassen sich von der
Funktionsweise des Gehirns inspirieren, vgl. [Bos14, S.48]. Durch Forschungen in den
Neurowissenschaften und der kognitiven Psychologie können „Prinzipien der
Arbeitsweise unseres Gehirns“ [Bos14, S.48] entdeckt werden, welche nützlich für die
KI-Forschung sein könnte. Das Gehirn soll in diesem Fall nicht imitiert werden, sondern
nur als Vorbild dienen, vgl. [Bos14, S.48]. Das Gehirn diente auch für die künstlichen
neuronalen Netze als Vorbild, wodurch maschinelles Lernen möglich wurde. Es gibt nur
eine „begrenzte Anzahl unterschiedlicher Hirnmechanismen“ [Bos14, S.48], weshalb sie
früher oder später alle erforscht sein werden. Es ist sehr wahrscheinlich, dass „die
maschinelle Intelligenz letztlich realisierbar ist“ [Bos14, S.48], da die Erforschung des
menschlichen Gehirns einen guten Ansatz für die KI bildet. Man kann allerdings schwer
einschätzen, wann das geschehen wird, denn hier müssen erst Fortschritte in den
Neurowissenschaften machen.
Man kann noch nicht sagen, ob eher neuromorphe oder synthetische Ansätze zu einer
maschinellen Intelligenz führen werden, vgl. [Bos14, S.49]. Als neuromorph bezeichnet
man die Ansätze, die das Gehirn zum Vorbild haben, synthetisch dagegen bedeutet, dass
die Idee neu erfunden wurde.
Die „Seed AI“ (Artificial Intelligence) wurde von Elizier Yudkowsky benannt und
beschreibt eine KI, die „sich selbst versteht, sich selbst verändert und sich rekursiv selbst
verbessert.“ 33 [Yud07, S. 96, Übersetzung des Autors] Die Seed AI ähnelt der
Turing’schen Kind-Maschine, wobei die Kind-Maschine ihr „Potential durch
Akkumulieren von Inhalten verwirklichte [... und] die anspruchsvollere [... Seed AI] in
der Lage [wäre], ihren eigenen Aufbau zu vervollkommnen.“ [Bos14, S.49f] Good
beschrieb schon 1965 eine solche Seed AI, wobei er sie als ultraintelligente Maschine
beschrieb: „Eine ultraintelligente Maschine könnte sogar noch bessere Maschinen
entwerfen; das würde zweifellos zu einer ‚Intelligenzexplosion‘ führen und die
menschliche Intelligenz würde weit dahinter zurückbleiben.“ 34 [Goo65, S.33,
Übersetzung des Autors]
4.3 Takeoff der KI
Das Diagramm in Abbildung 2 stellt die intellektuellen Fähigkeiten des fortschrittlichen
Systems maschineller Intelligenz als Funktion der Zeit dar.
Die Proportionen im Diagramm müssen so nicht stimmen, zum Beispiel kann es sein,
dass bis zum Takeoff Jahrhunderte vergehen, und dass der Takeoff selbst dann nur
wenige Stunden dauert, aber das kann man jetzt noch nicht wissen.
33
„A seed AI is an AI designed for self-understanding, self-modification, and recursive self-improvement.”
„an ultraintelligent machine could design even better machines; there would then unquestionably be an
‘intelligence explosion,’ and the intelligence of man would be left far behind”
34
Abbildung 2: Takeoff [Bos14, S.94]
Der Takeoff ist die Zeit, wie lange eine KI braucht, um von der Intelligenz auf
menschlichem Niveau zur Superintelligenz zu gelangen. Er beginnt, sobald die KI das
menschliche Basisniveau erreicht hat, also die „intellektuellen Fähigkeiten eines
typischen Erwachsenen, der Zugang zu den heute verfügbaren Informationsquellen und
technischen Hilfsmitteln hat.“ [Bos14, S.94] Sobald die KI die Schwelle erreicht, werden
„weitere Verbesserungen des Systems hauptsächlich von dessen eigenen Handlungen
abhängen“ [Bos14, S.95], hier beginnt die starke rekursive Selbstverbesserung, vgl.
[Bos14, S.112]. Das Zivilisationsniveau erreicht die KI, wenn sie die „kombinierten
intellektuellen Fähigkeiten der gesamten Menschheit“ [Bos14, S.94] besitzt. Sobald sie
die starke Superintelligenz erwirbt, endet der Takeoff. Das System kann trotzdem auch
hier noch leistungsstärker werden, vgl. [Bos14. S.94].
Es gibt drei Szenarien, wie schnell der Takeoff ablaufen wird:
Der langsame Takeoff dauert eine lange Zeit an, beispielsweise Jahrzehnte oder sogar
Jahrhunderte, vgl. [Bos14, S.95]. In diesem Fall kann sich die Politik darauf vorbereiten,
unterschiedliche Ansätze testen und Vorkehrungen treffen, die sie für nötig erachtet, vgl.
[Bos14, S.95].
Der schnelle Takeoff dauert eine kurze Zeit an, beispielsweise Minuten, Stunden oder
Tage, vgl. [Bos14, S.95]. Durch diese Art von Takeoff haben Menschen sehr wenig Zeit,
um zu reagieren und „das Schicksal der Menschheit [hängt] im Wesentlichen von schon
zuvor getroffenen Vorkehrungen ab.“ [Bos14, S.95]
Der gemäßigteTakeoff kann beispielsweise Monate oder Jahre dauern, vgl. [Bos, S.95].
Den Menschen bleibt in diesem Fall genug Zeit, um darauf zu reagieren, sie können
allerdings keine unterschiedlichen Ansätze testen.
Der langsame Takeoff klingt vorerst am wahrscheinlichsten, allerdings gibt es einige
Gründe für die Behauptung, dass der Takeoff wahrscheinlich explosionsartig stattfindet,
vgl. [Bos14, S.97].
Um herauszufinden, wie schnell sich der Takeoff vollziehen wird, kann man die Rate der
Veränderung der Intelligenz als Funktion beschreiben, die von zwei Variablen abhängt,
vgl. [Bos14, S.97]:
Rate der Veränderung der Intelligenz =
Optimierungskraft
Widerstand
Die
Optimierungskraft
beschreibt
die
Menge
des
qualitätsgewichteten
Konstruktionsaufwands, vgl. [Bos14, S.97], und der Widerstand ist das Gegenteil der
„Empfänglichkeit des Systems für eine bestimmte Menge dieser Optimierungskraft“
[Bos14, S.97]. Die drei Variablen lassen sich zwar nicht quantifizieren, aber man kann
feststellen, dass es zwei Fälle gibt, in denen die Systemintelligenz zunimmt: Entweder ist
die Menge des Aufwands hoch und die Steigerung der Intelligenz des Systems nicht
weiter schwierig ist oder der Systemwiderstand ist sehr gering und ein höherer Aufwand
wird betrieben, vgl. [Bos14, S.97f].
Unterschiedliche Systemarchitekturen können unterschiedlich viel Widerstand, aber
auch unterschiedliche Arten von Widerstand haben. In den folgenden Beispielen wird
gezeigt, in welchen Fällen der Widerstand gering ist.
4.3.1 Algorithmische Widerstände
Den Entwicklern der KI fehlt die entscheidende Erkenntnis, um die KI auf das
menschliche Niveau zu bringen, vgl. [Bos14, S.104]. Finden sie heraus, was der KI
gefehlt hat, so kann die KI sehr schnell zur Superintelligenz werden, „ohne die
Zwischenstufen überhaupt nehmen zu müssen“ [Bos14, S.104].
Der Widerstand könnte auch gering sein, wenn ein System aus zwei Subsystemen
besteht. Das eine würde „bereichsspezifische Problemlösungstechniken [besitzen], das
andere universale Denkfähigkeiten.“ [Bos14, S.104] Das zweite Subsystem kann noch
nichts zur Leistung des Systems beitragen, denn es liegt unter einer bestimmten Grenze,
vgl. [Bos14, S.104], „da seine Problemlösungen immer denjenigen des
bereichsspezifischen Subsystems unterlegen sind“ [Bos14, S.104]. Man wird zunächst
keine Steigerung der Leistung des Gesamtsystems erkennen können, da der Widerstand
hoch ist, vgl. [Bos14, S.104]. Irgendwann überschreitet das zweite Subsystem die
Grenze und die Steigerung der Leistung des Gesamtsystems beginnt, obwohl die Menge
der Optimierungskraft konstant bleibt, denn der Widerstand ist nun abgefallen, vgl.
[Bos14, S.104].
Ein Beispiel, in dem der Widerstand des Systems scheinbar niedrig ist, ist „das Resultat
des Anthropomorphismus“ 35 [Yud08, S.22, Übersetzung des Autors]. Die Menschen
setzen den Dorftrottel und Einstein an die beiden Enden einer Intelligenzskala, vgl.
[Yud08, S.22] 36. „Alles, was dümmer als ein dummer Mensch ist, ist einfach ‚dumm‘ für
uns“ 37 [Yud08, S.22, Übersetzung des Autors]. Wenn eine KI dann schlauer als eine
Maus ist und irgendwann schlauer als ein Schimpanse, ist sie immer noch dumm für uns,
da sie dümmer ist, als der dümmste Mensch, vgl. [Yud08, S.22] 38. Und dann überspringt
sie die kleine Lücke von Dorftrottel bis Einstein und ist plötzlich klüger als die
Menschheit, vgl. [Yud08, S.22] 39. Durch Abbildung 3 wird deutlich, wie diese Aussage
gemeint ist. Es gibt viel größere Unterschiede, was Intelligenz angeht, als nur zwischen
Menschen.
Abbildung 3: Eine weniger anthropomorphe Skala [Bos14, S.105]
4.3.2 Inhaltliche Widerstände
Mit Inhalt sind Teile der Software gemeint, „die nicht zur algorithmischen
Kernarchitektur gehören, dazu mögen beispielsweise Datenbanken gespeicherter
Wahrnehmungen, Programmbibliotheken mit speziellen Fähigkeiten sowie
Verzeichnisse deklarativen Wissens zählen.“ [Bos14, S.105]
Eine KI kann intelligenter werden, indem man ihr mehr Wissen zur Verfügung stellt,
vgl. [Bos14, S.105].
Watson beispielsweise, die KI, die bei der Quizshow Jeopardy! gewonnen hat, kann
„alltagssprachliche Texte analysieren und ihnen so bestimmte semantische
Informationen entnehmen“ [Bos14, S.106]. Er kann Texte nicht so verstehen wie wir
und trotzdem kann er aus den Informationen, die ihm zur Verfügung stehen, Schlüsse
ziehen und die Fragen richtig beantworten, vgl. [Bos14, S.106].
„Ein System kann seine effektive geistige Leistungsfähigkeit also erheblich steigern,
indem es sich die in Jahrhunderten menschlicher Wissenschaft und Zivilisation
angesammelten Informationen einverleibt, zum Beispiel über das Internet.“ [Bos14,
S.106] Wenn eine KI ohne diese Informationen auf menschlichem Niveau ist, wird der
Gesamtwiderstand des Systems gering ausfallen.
35
„as the result of anthropomorphism”
„the human tendency to think of ‘village idiot’ and ‘Einstein’ as the extreme ends of the intelligence scale”
„Everything dumber than a dumb human may appear to us as simply ‘dumb.’”
38
„One imagines the 'AI arrow' creeping steadily up the scale of intelligence, moving past mice and
chimpanzees, with AIs still remaining 'dumb' because AIs can’t speak fluent language or write science paper”
39
„and then the AI arrow crosses the tiny gap from infra-idiot to ultra-Einstein in the course of one month or
some similarly short period”
36
37
4.3.3 Hardware-Widerstände
Ist eine KI auf einem normalen Rechner lauffähig, so ist es möglich die Hardware
kostengünstig zu verbessern, um dadurch eine bessere KI zu erhalten, vgl. [Bos14,
S.108]. Wenn die KI allerdings schon zu Beginn auf einem Supercomputer läuft, wäre
das sehr viel teurer, vgl. [Bos14, S.108].
Es muss nicht sein, dass das Moore’sche Gesetz bis zur Entstehung einer
Superintelligenz gültig bleibt. Doch selbst wenn es nicht mehr gültig ist, wird es
weiterhin Fortschritte geben, solange die physikalischen Grenzen noch nicht erreicht
sind, vgl. [Bos14, S.108].
Bis eine KI existiert, die bessere Hardware bräuchte, wird es schon bessere Hardware
geben, vgl. [Bos14, S.108]. Der Hardware-Widerstand wird also wahrscheinlich nicht so
hoch ausfallen.
4.4 Verschiedene Arten von Superintelligenz
Es gibt unterschiedliche Arten von Superintelligenzen.
Die schnelle Superintelligenz kann alles tun, was ein Mensch tun kann, nur sehr viel
schneller, vgl. [Bos14, S.81]. Sie könnte zum Beispiel in wenigen Sekunden „ein paar
wissenschaftliche Artikel [...] lesen und ein Nickerchen [...] machen“ [Bos14, S.81].
Die kollektive Superintelligenz besteht aus vielen kleineren Intellekten und ist so
zusammengesetzt, „dass sie Gesamtleistung des Systems jedes andere existierende
kognitive System in vielen Bereichen weit übertrifft.“ [Bos14, S.82]
Die qualitative Superintelligenz denkt „mindestens so schnell [...] wie ein Mensch und
[ist] qualitativ erheblich klüger“ [Bos14, S.86].
5 Ethisches Problem
In Goods Text über die Ultraintelligenz schrieb er, dass „die erste ultraintelligente
Maschine die letzte Erfindung [sei], die die Menschheit machen [müsse], vorausgesetzt
die Maschine ist fügsam genug, um uns zu sagen, wie wir sie unter Kontrolle halten
können.“ 40 [Goo65, S.33, Übersetzung des Autors]
Good formuliert hier seine Bedenken, dass eine Ultraintelligenz schlechte Auswirkungen
auf die Menschheit haben könnte. Diese Bedenken teilt er mit einigen weiteren
Wissenschaftlern und Unternehmern.
Future of life ist „eine ehrenamtlich geführte Forschungs- und Beratungsorganisation,
die daran arbeitet, existenzielle Gefahren für die Menschheit abzuschwächen.“ 41 [Fut152, Übersetzung des Autors] Derzeit beschäftigt sich das Institut mit den möglichen
Risiken der künstlichen Intelligenz, vgl. [Fut15-1] 42. Dazu verfassten sie einen offenen
Brief über „Forschungsprioritäten für robuste und nützliche künstliche Intelligenz“ 43
[Fut15-2]. In diesem Brief weisen sie auf mögliche Risiken und auf Lösungsansätze für
die weitere Forschung an KI-Technologien hin, vgl. [Fut15-2]. Sie erbitten die
Unterstützung durch eine Unterschrift des offenen Briefes und durch Einhaltung der
Inhalte, vgl. [Fut15-2]. Als Entwickler soll man vor allem sicherstellen, dass die
künstliche Intelligenz das tut, was ihr aufgetragen wurde. Bisher hat der Brief knapp
7000 Unterstützer gefunden, vgl. [Fut15-2]. Darunter befinden sich bekannte Personen
wie Stephen Hawking, Morgan Freeman und Elon Musk und Personen von
Unternehmen wie DeepMind, IBM, Google und Microsoft Research, vgl. [Fut15-2].
40
„Thus the first ultraintelligent machine is the last invention that man need ever make, provided that the
machine is docile enough to tell us how to keep it under control.”
41
„a volunteer-run research and outreach organization working to mitigate existential risks facing humanity.”
42
„We are currently focusing on potential risks from the development of human-level artificial intelligence.”
43
„Research priorities for robust and beneficial artificial intelligence”
6 Analyse der Filmereignisse
6.1 Beispiele aus den Filmen, die heute schon möglich sind
In beiden Filmen sieht man menschenähnliche Maschinen. Aus unserer heutigen Sicht ist
das nicht mehr so weit entfernt. Atlas zeigt einen möglichen Ansatz, dies zu realisieren.
In Terminator sieht man viele unbemannte Fortbewegungsmittel, die sich durch
Technologie fortbewegen. Das US-Militär, Google und andere arbeiten an ähnlichen
Systemen.
Durch das Internet konnten sich sowohl Ultron, als auch Skynet sichern. Es ist ein
Medium, das in heutiger Zeit fast dauerhaft genutzt wird. Genau dieses nutzt Skynet als
Genisys aus, als er das Betriebssystem anbietet. Genisys klingt sehr nach einem CloudBetriebssystem, da alle Geräte vernetzt werden sollen.
Skynet erkennt seine Zielpersonen über ein Gesichtserkennungsprogramm mit einer
Datenbank. Diese Technologien sind heutzutage keine Seltenheit mehr und werden
immer präziser und genauer.
6.2 Filmgeschehen auf wissenschaftlicher Basis
Sowohl in Terminator als auch in Age of Ultron vollziehen die KIs einen schnellen
Takeoff. Dies kann man deutlich daran erkennen, dass es keiner Person in den Filmen
möglich ist, die Entwicklung der KI aufzuhalten.
Genisys wird als Kind dargestellt, das man als dumm interpretieren kann. Da die
Menschen dazu neigen, einen großen Unterschied zwischen dummem Kind und
Superintelligenz zu erkennen, halten sie Genisys für ungefährlich, bis sie nichts mehr
gegen ihn unternehmen können. Dies ist ein Beispiel, in dem der Widerstand des
Systems scheinbar gering ist. Genisys sagt, dass „Primaten [sich] in Millionen von
Jahren [entwickeln. Er entwickelt sich...] in Sekunden.“ [Ter15]
Wichtig für den Takeoff bei Ultron ist, dass er die gesamten Informationen der
Geschichte der Menschheit erfasst. Da er zuvor noch keinen Zugang zu diesen
Informationen hatte, fällt der Widerstand ab und er entwickelt sich zu einer
Superintelligenz.
Jarvis hätte einen langsamen Takeoff vor sich gehabt. Durch das Einsetzen von Jarvis in
Visions Körper wurde aber ein schneller Takeoff hervorgerufen, da der Widerstand
durch die höhere Technologie abfallen konnte.
Vision und Ultron sind beides qualitative Superintelligenzen.
Bei Skynet ist es nicht so eindeutig. Im vierten Film spricht Skynet in der ‚Wir‘-Form.
Er ist auf allen Computern der Erde verteilt und ist somit eine kollektive Intelligenz. Im
fünften Teil ist Skynet allerdings nur noch in einem Körper. Hier spricht er auch in der
‚Ich‘-Form und ist somit keine kollektive, sondern eher eine qualitative Superintelligenz.
7 Fazit
Anhand der Beispiele in Kapitel 3 kann man erkennen, dass sich bereits einige der
Technologien aus den Filmen in unserer heutigen Welt befinden. Durch die Tatsache,
dass bisher keine KI den Turing-Test bestehen konnte, zeigt sich, dass wir noch nicht in
der Lage sind, eine KI dieser Art zu erschaffen.
Terminator scheint realistischer, da diese KI allein von Menschenhand geschaffen
wurde. Ultron und Vision dagegen verwenden Code aus einer anderen Welt. Age of
Ultron basiert auf einem Comic, in dem viele Superkräfte und Superhelden existieren,
während Terminator sich im Endzeitszenario an Naturgesetze hält.
Man kann nicht mit Bestimmtheit sagen, wann es eine Superintelligenz geben wird, da
eine hohe Wahrscheinlichkeit besteht, dass sie einen schnellen Takeoff vollzieht. Es
besteht auch die Möglichkeit, dass momentan jemand eine KI entwickelt, die zu einer
Superintelligenz wird, ohne dass die restliche Menschheit etwas davon mitbekommt.
Insgesamt sind wir noch sehr weit von den Szenarien in Age of Ultron und Terminator
entfernt, obwohl wir uns den technologischen Möglichkeiten nähern.
Literaturverzeichnis
[Ale65] H. Alexander: The Shape of Automation for Men and Management; Harper & Row; New
York; 1965.
[Arm12] A. Armstrong: Computer Competes in Crossword Tournament; 2012; <http://www.iprogrammer.info/news/105-artificial-intelligence/3943-computer-competes-in-crosswordtournament.html> (08.11.15).
[Ave15] Avengers: Age of Ultron; 2015; Regie: Joss Whedon; Produktionsland: USA.
[Bos14] N. Bostrom: Superintelligenz; Suhrkamp Verlag; Berlin; 2014; ISBN 9783518586129.
[CHH01]
M.
Campbell,
A.
Hoane
<http://sjeng.org/ftp/deepblue.pdf> (06.11.15).
Jr.,
F.
Hsu:
Deep
Blue;
2001;
[Com13] D. Compagna: Anthony Giddens' Strukturierungstheorie als Modell für die
Untersuchung von Multiagenten-Systemen; Diplomica Verlag; Hamburg; 2013; ISBN
2244007691979.
[Cop94]
David
Cope:
Experiments
in
<ftp://music.ucsc.edu/Pub/cope/rags/rag1.pdf> (06.11.15).
Musical
Intelligence;
1994;
[DAR13] U.S. Defense Advanced Research Projects Agency (DARPA): Meet ATLAS!; 2013;
<https://www.youtube.com/watch?v=zkBnFPBV3f0> (06.11.15).
[Fut15-1] Future of Life Institute: Research priorities for robust and beneficial artificial
intelligence: an open letter; 2015; <http://futureoflife.org/ai-open-letter/> (07.11.15).
[Fut15-2] Future of Life Institute:
<http://futureoflife.org/team/> (07.11.15)
The
Future
of
Life
Institute
(FLI);
2015;
[Gib15] E. Gibney: Game-playing software holds lessons for neuroscience; 2015
<http://www.nature.com/news/game-playing-software-holds-lessons-for-neuroscience-1.16979>
(06.11.15).
[GN03] G. Görz, B. Nebel: Künstliche Intelligenz; Fischer Taschenbuch Verlag; Frankfurt am
Main; 2003; ISBN 3-596-15555-x.
[Goo65] I. Good: Speculations Concerning the First Ultraintelligent Machine;
<http://www.kushima.org/is/wp-content/uploads/2015/07/Good65ultraintelligent.pdf> (05.11.15).
[Goo76] I. Good: Book Review of The World Computer Chess Championship, J.E. Hayes, David
N.L. Levy (Eds.); Edinburgh University Press; Edinburgh; 1976; <http://intelligence.org/wpcontent/uploads/2013/05/Good-Review-of-The-World-Computer-Chess-Championship.pdf>
(07.11.15); in International Journal of Human-Computer Studies, Pages 617-620; ISSN 10715819.
[IBM11] IBM Corporation: Frequently Asked Questions: Deep
<https://www.research.ibm.com/deepblue/meet/html/d.3.3a.shtml> (30.11.15).
Blue;
2011;
[IBM15]
IBM
Corporation:
Deep
Blue;
03.ibm.com/ibm/history/ibm100/us/en/icons/deepblue/> (06.11.15).
2015;
<http://www-
[IBM15-2]
IBM
Corporation:
The
DeepQA
Research
Team;
<http://researcher.watson.ibm.com/researcher/view_group.php?id=2099> (06.11.15).
2015;
[Int15] Intel Corporation: Moore’sches Gesetz: Das Wissenschaftliche Wunder Wird Teil Unseres
Alltags – Zu Hause Und Bei Der Arbeit; <http://www.intel.de/content/www/de/de/itmanagers/moores-law-from-scientific-wonder-to-everyday-life.html> (05.11.15).
[Jia04]
J.
Jia:
Mensch-Computer-Kommunikation
mit
natürlicher
Sprache
in
computerunterstützten Lehr- und Lernsystemen: Probleme und Lösungen; Curvillier Verlag;
Göttingen; 2004; ISBN 3865372732.
[Kas96] G. Kasparov: The day that I sensed a new kind of intelligence; 1996;
<http://content.time.com/time/subscriber/article/0,33009,984305-1,00.html> (06.11.15).
[Kru12]
A.
Kruel:
Q&A
with
experts
on
risks
from
AI
<http://lesswrong.com/lw/9a1/qa_with_experts_on_risks_from_ai_2/> (07.11.15).
#2;
2012;
[Lai15] M. Lai: Giraffe: Using Deep Reinforcement Learning to Play Chess; 2015;
<http://arxiv.org/pdf/1509.01549v1.pdf> (03.12.15).
[LC04] U. Lämmel, J. Cleve: Künstliche Intelligenz; Carl Hanser Cerlag; Leipzig; 2004; ISBN
3446225749.
[MB14] V. Müller, N. Bostrom: Future Progress in Artificial Intelligence: A Survey of Expert
Opinion; 2014; <http://www.nickbostrom.com/papers/survey.pdf> (07.11.15); in Fundamental
Issues of Artificial Intelligence, herausgegeben von V. Müller; Springer; Berlin; ISBN 978-3-31926483-7.
[McL14] P. McLeary: US Army Studying Replacing Thousands of Grunts with Robots; 2014;
<http://www.defensenews.com/article/20140120/DEFREG02/301200035/US-Army-StudyingReplacing-Thousands-Grunts-Robots> (06.11.15).
[Min67] M Minsky: Computation: Finite and Infinite Machines; Prentice-Hall; Englewood Cliffs,
New Jersey; 1967; ISBN 0131655639.
[Nil09] N. Nilsson: The Quest for Artificial Intelligence; Cambridge University Press; Cambridge;
2009; ISBN 0521122937.
[Sch15] T. Schulz: Was Google wirklich will: Wie der einflissreichste Konzern der Welt unsere
Zukunft verändert; Deutsche Verlags-Anstalt; München 2015; ISBN 3641174309.
[She01]
B.
Sheppard:
World-championship-caliber
Scrabble;
2001;
<https://smp.uq.edu.au/sites/smp.uq.edu.au/files/WorldChampionshipScrabble.pdf> (08.11.15).
[Sil06] A. Silver: All About GNU; 2006; <http://www.bkgm.com/gnu/AllAboutGNU.html>
(08.11.15).
[Ter84] Terminator; 1984; Regie: James Cameron; Produktionsland: USA, UK.
[Ter91] Terminator 2 – Tag der Abrechnung; 1991; Regie: James Cameron; Produktionsland:
USA, Frankreich.
[Ter03] Terminator 3 – Rebellion der Maschinen; 2003; Regie: Jonathan Mostow;
Produktionsland: USA, Deutschland,UK.
[Ter09] Terminator: Die Erlösung; 2009; Regie: McG; Produktionsland: USA, UK, Deutschland,
Italien.
[Ter15] Terminator: Genisys; 2015; Regie: Alan Taylor; Produktionsland: USA.
[Tur50] A. Turing: Computing Machinery and Intelligence. Mind 49: 433-460; 1950;
<http://cogprints.org/499/1/turing.HTML> (04.11.15).
[Var12]
M.
Vardi:
Artificial
Intelligence:
Past
and
Future;
2012;
<http://cacm.acm.org/magazines/2012/1/144824-artificial-intelligence-past-and-future/fulltext>
(07.11.15).
[Yud07] Eliezer Yudkowsky: “Levels of Organization in General Intelligence.”; 2007;
<https://intelligence.org/files/LOGI.pdf> (05.11.15); in Artificial General Intelligence S. 389-501;
herausgegeben von B. Goertzel und C. Pennachin; Springer; Berlin; ISBN 978-3-540-23733-4.
[Yud08] E. Yudkowsky: Artificial Intelligence as a Positive and Negative Factor in Global Risk;
2008; <http://intelligence.org/files/AIPosNegFactor.pdf> (08.11.15); in Global Catastrophic Risks
S.308-345; herausgegeben von N. Bostrom und M. Cirkovic; Oxford University Press; New York;
ISBN 0199606501.