SWR2 Aula

SWR2 MANUSKRIPT
ESSAYS FEATURES KOMMENTARE VORTRÄGE
SWR2 Aula
Nur mit Gefühl
Roboter und Emotionen
Von Elisabeth André
Sendung: Donnerstag, 5. Mai 2016, 8.30 Uhr
Redaktion: Ralf Caspary
Produktion: SWR 2016
Bitte beachten Sie:
Das Manuskript ist ausschließlich zum persönlichen, privaten Gebrauch bestimmt. Jede
weitere Vervielfältigung und Verbreitung bedarf der ausdrücklichen Genehmigung des
Urhebers bzw. des SWR.
Service:
SWR2 Aula können Sie auch als Live-Stream hören im SWR2 Webradio unter www.swr2.de
oder als Podcast nachhören: http://www1.swr.de/podcast/xml/swr2/aula.xml
Die Manuskripte von SWR2 Aula gibt es auch als E-Books für mobile Endgeräte im
sogenannten EPUB-Format. Sie benötigen ein geeignetes Endgerät und eine entsprechende
"App" oder Software zum Lesen der Dokumente. Für das iPhone oder das iPad gibt es z.B.
die kostenlose App "iBooks", für die Android-Plattform den in der Basisversion kostenlosen
Moon-Reader. Für Webbrowser wie z.B. Firefox gibt es auch sogenannte Addons oder
Plugins zum Betrachten von E-Books:
Mitschnitte aller Sendungen der Redaktion SWR2 Aula sind auf CD erhältlich beim SWR
Mitschnittdienst in Baden-Baden zum Preis von 12,50 Euro.
Bestellungen über Telefon: 07221/929-26030
Kennen Sie schon das Serviceangebot des Kulturradios SWR2?
Mit der kostenlosen SWR2 Kulturkarte können Sie zu ermäßigten Eintrittspreisen
Veranstaltungen des SWR2 und seiner vielen Kulturpartner im Sendegebiet besuchen.
Mit dem Infoheft SWR2 Kulturservice sind Sie stets über SWR2 und die zahlreichen
Veranstaltungen im SWR2-Kulturpartner-Netz informiert.
Jetzt anmelden unter 07221/300 200 oder swr2.de
1
Ansage:
Mit dem Thema: "Mehr Gefühl – Roboter, Computer und Künstliche Intelligenz".
Ach, sie ist so schön, die neue digitale Welt. In der Industrie 4.0 arbeiten glückliche
Roboter zusammen mit glücklichen Menschen, die eigentlich nur noch zusehen
müssen, wie sich die elektronischen Sklaven schinden müssen, Pflegeheime sind
voller Pflegeroboter, die die Heiminsassen rund um die Uhr bespaßen, und wenn wir
im Auto sitzen, lassen wir uns fahren.
So sieht die Vision aus, die ja auch schon zum Teil Realität geworden ist. Wir sollten
über die Frage sprechen, wie entwickelt sich die Künstliche Intelligenz weiter, wie
sieht die nächste Generation der Supercomputer aus. Ich begrüße zum Aula
Gespräch die Informatikerin Professor Elisabet Andre,
Interview:
André:
Guten Morgen, Herr Caspary.
Caspary:
Frau André, Künstliche Intelligenz, über die wir heute reden, ist ja eigentlich ein
schillernder und problematischer Begriff, weil wir uns Intelligenz nur aus
menschlicher Perspektive, im menschlichen Gewand vorstellen können. Ist das ein
Fehler?
André:
Das ist erst mal ein guter Anhaltspunkt. Wir haben alle eine Vorstellung davon, was
Intelligenz überhaupt ist, zumindest ein intuitives Verständnis davon. Daran können
wir uns orientieren, wenn wir Intelligenz durch Maschinen simulieren wollen. Eine
andere Intelligenz zu simulieren, die sich wesentlich von der menschlichen
unterscheidet, ist schwierig. Wir haben zwar mittlerweile schon Computer, die über
menschliche Fähigkeiten hinausgehen, denken Sie beispielsweise an einen SchachComputer. Aber nichtsdestotrotz sind das Fähigkeiten, die den menschlichen ähnlich
sind. Der Begriff Künstliche Intelligenz ist vielleicht etwas ungünstig gewählt und wird
auch sehr kontrovers diskutiert. Man fragt sich: Ist die Maschine wirklich intelligent?
Fehlen ihr nicht wesentliche Merkmale menschlicher Intelligenz. Man hätte einen
anderen Begriff wählen können, mir fällt aber auch kein besserer ein.
Caspary:
Lassen Sie uns kurz bei Computern bleiben, deren Fähigkeiten über die menschliche
hinausgehen. Sie haben eben Schach-Computer angesprochen, und neulich gab es
in Seoul/Südkorea das "Go-Spiele-Duell", wo ein Computer einen meisterlichen
Schüler geschlagen hat. War das für Sie ein Meilenstein der Künstlichen Intelligenz?
André:
Das hat natürlich sehr viel Aufmerksamkeit erregt. Aber ich bin mir nicht so sicher, ob
wir da in die richtige Richtung gehen. Wenn Sie als Gelegenheitsspieler sich z. B.
einen Schach-Computer zulegen würden, dürfte es Ihnen wahrscheinlich keinen
großen Spaß machen, mit dem Computer zu spielen, wenn er Sie sofort besiegt. Die
2
größere Kunst besteht also eigentlich darin, dass der Computer seine Spielstärke so
anpasst, dass Sie den optimalen Spielspaß dabei haben.
Caspary:
Sie meinen, der Computer könnte sich auf mein Fähigkeitspotenzial einstellen?
André:
Genau. Der Computer merkt, wenn der Nutzer das Interesse verliert und demotiviert
ist, und passt seine Spielstärke entsprechend an. Oder umgekehrt: Der Spieler
braucht eine Herausforderung, dann zieht auch der Computer ein bisschen an. Wenn
man das allgemein bei Computer-Spielen schaffen würde, hätte das direkt einen
Sucht-Effekt.
Caspary:
Das gibt es aber noch nicht, wenn ich Sie richtig verstanden habe? Das wären
Computer mit einem Schuss an Empathie?
André:
Ja, Empathie benötigt man dazu. In Ansätzen wird genau das erforscht. Aber
natürlich ist es sehr schwierig, das genau auszubalancieren. Gelungen ist es noch
nicht.
Caspary:
Wie sind Schach- bzw. Go-Computer programmiert? Wo liegen deren "mentale"
Vorteile? Können sie 50.000 Züge im Voraus berechnen, haben sie eine besondere
Strategie?
André:
Der große Vorteil liegt darin, dass ein Computer heute sehr viele Daten speichern
kann, aus denen er lernen kann. Er kann auch sehr viele Züge, mehr Züge als ein
Mensch, im Voraus berechnen und berücksichtigen, welchen Zug ein Mensch
vermutlich als nächstes machen würde. Das liegt an der höheren Speicherkapazität
und verbesserten Rechenleistung.
Beim Computer ist die Anzahl der Schritte, die vorausberechnet werden können,
wesentlich größer.
Caspary:
Was hat sich in den letzten 20 Jahren im Bereich Künstliche Intelligenz verändert?
Welche Innovationen gibt es?
André:
In letzter Zeit ist ein Verfahren weiterentwickelt worden, das man früher zwar schon
angewandt hat, allerdings nur mit mäßigem Erfolg. Ich spreche von neuronalen
Netzen und Deep Learning. Das muss man sich so vorstellen, dass man früher sehr
viel Arbeit investiert hat, um z. B. bei der Bildverarbeitung gute Merkmale zu
erkennen. Wenn Sie automatisch ein Gesicht erkennen müssten, dann würden Sie
sich zunächst überlegen, was sind charakteristische Merkmale eines Gesichts.
Vermutlich fallen Ihnen sofort Augen, Nase und Mund ein. Unter veränderten
Beleuchtungsbedingungen oder aus unterschiedlicher Perspektive sieht ein Gesicht
jedoch ganz anders aus. Und deshalb ist dieses Merkmals-Engineering sehr
3
komplex. Das können Maschinen übernehmen, insbesondere mit Deep LearningMethoden.
Fortschritte wurden aber auch in der Spracherkennung gemacht. Das liegt darin,
dass wir heutzutage viel mehr Daten haben als noch vor einigen Jahren. Wir können
uns deshalb auch Sprachen zuwenden, die bisher weniger im Fokus waren. Wir
beschäftigen uns beispielsweise in einem EU-Projekt mit polnischer Sprache und mit
türkischer Sprache. Das hätten wir früher nicht gekonnt. Und in dem Fall sogar
Türkisch, was von Türken, die in Deutschland leben, gesprochen wird. Das
unterscheidet sich von dem Türkisch, das in der Türkei gesprochen wird. Dialekte zu
erkennen ist also auch möglich.
Caspary:
Computer können Sprachen, Sprachmuster und Sprachsemantik erkennen, und das
dient zu Übersetzungszwecken?
André:
Übersetzungen sind ein Beispiel. Oder aber die Maschine reagiert direkt auf eine
sprachliche Äußerung. Man könnte dem Computer in einem Dialekt, zum Beispiel auf
Bayrisch oder Saarländisch, Instruktionen geben und der Computer führt diese
Anweisungen direkt aus.
Caspary:
Könnte er das Bayrische vom Saarländischen unterscheiden?
André:
Ja. Vorausgesetzt man hat genügend Daten und hat das System darauf trainiert.
Caspary:
Sie haben vorhin das Beispiel Gesichtererkennung genannt. Das ist wirklich
interessant. Den Techniker, der mir gerade gegenüber sitzt, kenne ich seit mehreren
Jahren. Wenn ich ihn nur von der Seite sehen würde oder nur einen kleinen
Ausschnitt seines Gesichts, würde ich es sofort zuordnen können. Das heißt, ich
habe ein Muster von ihm abgespeichert, das ich ohne große Mühe abrufen könnte.
Das kann ein Computer nicht?
André:
Das wäre eine sehr schwierige Aufgabe und hängt davon ab, worauf der Computer
trainiert ist. Wenn er beispielsweise auf das Gesicht Ihres Kollegen trainiert wäre und
genügend Daten hätte, also z. B. Daten seines Gesichts aus unterschiedlichen
Perspektiven, dann würde das schon funktionieren. Die Kunst besteht darin,
möglichst viele Daten zu sammeln.
Caspary:
Ich verstehe: Der Roboter hätte tausend verschiedene Gesichtsansichten meines
Kollegen gespeichert und könnte die mit dem realen Bild, das ihm gegenüber ist,
abgleichen.
André:
Genau. Gleichzeitig laufen aber auch komplexe Prozesse des maschinellen Lernens
ab, so dass der Computer nicht nur vergleicht, sondern tatsächlich lernt.
4
Caspary:
Wie hängt das Ganze jetzt mit den neuronalen Netzen zusammen? Das Vorbild der
neuronalen Netze ist das menschliche Gehirn, weil die Hirnforschung sagt, unser
Gehirn funktioniert auf Grundlage von Netzwerken.
André:
Neuronale Netze sind sehr gut darin, spezielle Muster zu erkennen. Heutzutage ist
man in der Lage, sehr komplexe hierarchische Architekturen zu bauen. Und mit
diesen Architekturen ist es möglich, Merkmale auf unterschiedlichen
Abstraktionsebenen zu erkennen. Zum Beispiel beim Gesicht einfache
Helligkeitsunterschiede bis hin zu recht komplexen Formen wie Augen, Mund, Nase.
Das System lernt praktisch selbstständig, was das für Merkmale sind. Bei den
meisten Verfahren ist es so, dass ein Mensch erst noch dieses Feature-Engineering
macht und sich überlegt, was die charakteristischen Merkmale sind. Bei der
Emotionserkennung aus der Stimme geht es um die Frage, wie Emotionen in der
Stimme zum Ausdruck gebracht werden. Ist es die Tonhöhe, die Intensität, die
Verteilung von Frequenzen usw.? Mit den tiefen neuronalen Netzen geht das
automatisch.
Neuronale Netze sind aber nur ein Verfahren von vielen möglichen. In letzter Zeit hat
man damit die Erkennungsraten in einigen Bereichen sehr verbessern können,
weshalb sich jetzt alle auf dieses Verfahren stürzen.
Caspary:
Welche Verfahren gibt es noch?
André:
Beispielsweise ein Verfahren mit dem Namen "Support Vector Maschines". Man
kann auch versuchen, durch eher Wissens-basierte Verfahren zu arbeiten, das heißt,
dass der Computer Schlüsse zieht. Das ist vielleicht auch für den Menschen eher
nachzuvollziehen. Wenn Sie ein neuronales Netz trainiert haben, liefert es in den
meisten Fällen hoffentlich korrekte Ergebnisse, aber eben nicht in allen Fällen. Dann
können Sie aber nicht mehr nachvollziehen, warum ausgerechnet in dem Fall das
System versagt und das Gesicht Ihres Kollegen nicht erkannt hat. Das ist ein
Problem der Nachvollziehbarkeit der Ergebnisse. Bei Methoden des maschinellen
Lernens kann man vielleicht Vermutungen anstellen, wo der Fehler lag und die
Vermutungen führen dazu, dass man das Verfahren verändert. Aber dann treten
möglicherweise an anderen Stellen wieder Fehler auf. Das heißt, man kann zwar
Schlussfolgerungen anstellen, warum ein Fehler auftrat, aber meistens hat man
keine absolute Sicherheit. Es sei denn, man hat grobe Fehler gemacht bei der
Umsetzung des Verfahrens.
Caspary:
Können Sie erklären, inwieweit die neuronalen Netzwerke imstande sind zu lernen
und was Lernen in diesem Zusammenhang heißt?
André:
Lernen heißt, dass man anhand von vorgegebenen Daten oder Beispielen
selbstständig neue Erkenntnisse gewinnen kann. Das System bekommt also neue
Daten und sollte in der Lage sein, anhand dieser neuen Daten die richtigen
5
Ergebnisse zu liefern. Wenn man bestimmte Bereiche trainiert, dann kann man
erwarten, dass das System, vorausgesetzt das Verfahren taugt etwas, bei ähnlichen
Beispielen aus einem ähnlichen Bereich mit ähnlichen Daten gut funktioniert. Die
große Kunst besteht darin, dass sich das System an unvorhergesehene Situationen
anpasst. Angenommen, man hat ein System im Straßenverkehr auf bestimmte
Hindernisse trainiert, Stichwort: autonomes Fahren. Hindernisse können andere
Fahrzeuge, Busse oder Personen sein. Was passiert beispielsweise, wenn ein
Flugobjekt auftaucht, mit dem vorher nicht zu rechnen war? Oder wenn das System
nicht auf Schnee trainiert ist und es schneit plötzlich. Das könnte zu Problemen
führen.
Caspary:
Autonomes Fahren ist zur Zeit in aller Munde. Was meinen Sie? Kann man sich in 20
Jahren wirklich in ein solches Auto setzen und sich fahren lassen?
André:
Auf bestimmten Strecken ist das im Moment schon möglich. Auch in
Touristengegenden, in denen es steil bergauf geht, wird schon viel autonom
gemacht. Oft sitzt nur noch eine Person zur Beruhigung der Fahrgäste mit dabei. Das
wird sicherlich noch weiter ausgebaut. Automobilfirmen arbeiten schon daran, und
ich glaube, das wird keine 20 Jahre mehr dauern.
Caspary:
Das bedeutet auch einen kulturellen Paradigmenwechsel. Ein Auto zu besitzen und
zu fahren ist ja in unserer Kultur ein Zeichen von Autonomie: Ich fahre, ich bin der
Lenker. Das würde dann ja hinfällig.
André:
Ein autonomes System müsste erkennen, wenn der Mensch selber fahren möchte,
weil die Strecke gerade schön ist, der Mensch ausgeruht ist, keine Büroarbeiten
anfallen und er ist auch in der Lage zu fahren. Deshalb sollte man darauf hinarbeiten,
dass kreative Tätigkeiten, Dinge, die dem Menschen Spaß machen wie z. B.
Autofahren oder Gartenarbeit, dem Menschen überlassen werden. Es wird ja auch
immer mal wieder darüber diskutiert, ob über 80-Jährige überhaupt noch einen
Führerschein haben sollten. Für sie wäre autonomes Fahren vielleicht eine super
Sache. Genauso auch für ältere Menschen, die auf dem Land leben. So könnten sie
ihre Unabhängigkeit bewahren.
Caspary:
Ich möchte nochmal auf das Thema Empathie zu sprechen kommen, auf die
Möglichkeiten eines Computers, Emotionen zu erkennen. Ist ein Roboter fähig,
Gefühle zu antizipieren oder zu lesen? Angenommen, ich sitze in meinem
autonomen Fahrzeug und sage keinen Ton, trotzdem erkennt das System, wenn ich
selbst fahren will. Erkennt das Auto das, indem es meine Mimik liest?
André:
Das könnte man so realisieren. Man könnte aber dem Menschen noch etwas mehr
Kontrolle geben. Beispielsweise der Mensch fährt und der Roboter erkennt
Ermüdungserscheinungen.
6
Caspary:
Warum eigentlich Roboter? Das Auto wird doch durch ein Computersystem gelenkt.
André:
Von einem Roboter erwartet man, dass er einen physikalischen Körper hat und in der
Lage ist, autonom auf die Umwelt zu reagieren. Und das autonome Fahrzeug hätte
diese Eigenschaften.
Caspary:
Bleiben wir bei Robotern. In Japan werden zum Teil schon Pflege-Roboter
eingesetzt. Wie weit sind die Entwicklungen, Roboter in Richtung menschliche
Intelligenz zu führen?
André:
Wenn Roboter im sozialen Bereich eingesetzt werden, müssen sie schon ein
gewisses Maß an emotionaler Kompetenz mitbringen, der Roboter muss fühlen,
wenn der Nutzer frustriert oder erschöpft ist. Im Pflege-Bereich dienen Roboter auch
dazu, die Leute aufzumuntern. Man hat z. B. in Japan mit einer Plüsch-Robbe gute
Erfolge bei Demenzkranken erzielt. Roboter können tatsächlich zur
Stimmungsaufhellung beitragen. Wir haben das selber gemerkt in einem Altenheim in
Augsburg, wo wir eine Studie mit einem Roboter durchgeführt haben. Zuerst hatten
die älteren Menschen schon etwas Berührungsängste und wollten wissen, wer denn
da ersetzt werden sollte. Aber später war der Roboter das Highlight.
Caspary:
Was konnte der?
André:
Er war eher als Gefährte konzipiert und konnte sich unterhalten. Eine ältere Dame
hat gemeint, solange er nur sprechen kann, kann er ja auch keinen Schaden
anrichten. Wie gesagt, er hat zur Stimmungsaufhellung beigetragen und allgemein zu
einer verbesserten Lebensqualität. Und in dem Fall hat der Roboter auch niemanden
ersetzt, sondern er war einfach ein weiterer Bewohner des Altenheims. Es hat
eigentlich auch nie jemand alleine mit dem Roboter interagiert, sondern es war
immer eine Gruppe von Leuten, die sich mit ihm beschäftigt haben. Der Roboter war
sozusagen in die Gruppe integriert, fast wie ein interaktives Spielzeug.
Caspary:
Der Roboter hat niemanden ersetzt, sagen Sie. Das wird ja immer gemutmaßt, dass
der Einsatz von Robotern dazu dient, Kosten zu sparen.
André:
Ich denke, das ist generell eine falsche Herangehensweise. Man sollte sich eher
darüber Gedanken machen, wie der psychologische Zustand von Menschen
verbessert werden kann. Meistens wird an Produktivität und Effizienz gedacht. Auch
hier kann ich ein Beispiel aus dem Altenheim nennen. Eine Dame, die dort
ehrenamtlich tätig ist, hat mir erzählt, dass es so schwierig sei, die Bewohner aus
ihren Zimmern herauszubringen und zu aktivieren. Dann hatten wir die Idee, den
Roboter dazu zu verwenden, die Leute zu ermuntern, mal in den Aufenthaltsraum
oder in den Garten zu gehen, Gymnastik zu machen usw. Wir hielten das für eine
7
gute Idee und haben sie einem Dienstleistungsunternehmen vorgestellt, das sich mit
Technologien für Altenheime beschäftigt. Dort hielt man das eigentlich für keine gute
Anwendung, denn eigentlich wolle man ja gar nicht, dass die Leute aus den Zimmern
rauskommen, weil das nur Stress und Arbeit verursache. Ich will damit sagen, man
kann mit einem Roboter einen Mehrwert schaffen, aber häufig gehen die Gedanken
in die Richtung, wie Prozesse effizienter gestaltet werden können.
Caspary:
Aber das Beispiel zeigt doch auch, Roboter haben eher eine dienende Funktion. Wir
haben ja immer noch die Horror-Vorstellung von Robotern als sich selbst
replizierende Maschinen, die den Menschen in emotionaler, intelligenter Hinsicht
überragen und die Weltherrschaft übernehmen. Das kennen wir aus den Szenarien
von Science-Fiction-Filmen. In der Realität geht es aber um die dienende Funktion,
oder?
André:
Ja, im Moment schon. Niemand will von einem Roboter dominiert werden, und es ist
ganz wichtig, dass der Mensch die Kontrolle über die Maschine behält. Kontrolle
heißt auch, dass ich verstehe, was mein Diener macht. Wenn Sie z. B. einen Roboter
als Haushaltshilfe oder als Finanzberater zuhause hätten, dann wollen Sie ja schon
wissen, was er mit Ihren Finanzen macht oder wie er Ihre Klimaanlage einstellt.
Transparenz und Kontrollierbarkeit ist sehr wichtig.
Caspary:
Werden wir in 50 Jahren Hilfsroboter zuhause haben, was meinen Sie?
André:
Das auf jeden Fall.
Caspary:
Ist das dann auch bezahlbar?
André:
Je höher der Bedarf ist und je mehr Stückzahlen gebraucht werden, umso mehr
Menschen werden sich einen solchen Roboter leisten können. Es gibt ja jetzt schon
einfache Formen: z. B. Staubsauger oder Rasenmäher, die selbstständig arbeiten.
So teuer sind sie nicht.
Caspary:
Was würden Sie sich für die nächste Zukunft wünschen auf dem Gebiet der Robotik?
André:
Ich würde mir wünschen, dass man die Bedürfnisse des Menschen im Vordergrund
behält und nicht immer in Richtung Produktivität, Effizienzsteigerung denkt oder
daran, wie Menschen ersetzt werden können. Das gilt nicht für Tätigkeiten, die
sowieso keiner machen will. Da wäre ein Roboter vielleicht schon sinnvoll. Aber es
gibt ja auch viele Tätigkeiten, die erstens besser von einem Menschen durchgeführt
werden und wo auch der Mensch das gerne tun möchte. Generell finde ich es beim
Einsatz von Technik wichtig, sich zu überlegen, was der Mensch braucht, und ganz
wegzugehen von Produktionssteigerungsgedanken. Das kann nämlich auch nach
hinten losgehen. Ich denke, wenn man das Wohl des Menschen im Vordergrund
8
behält und eher versucht, kreative neue Anwendungen zu finden, dann kann ein
Roboter eine Lebensverbesserung bedeuten.
Caspary:
Ich hoffe, Ihr Wunsch wird gehört und es wird so sein, dass die menschlichen
Bedürfnisse an erster Stelle stehen. Vielen Dank, Frau André.
André:
Vielen Dank.
*****
Elisabeth André studierte Informatik an der Universität des Saarlandes, wo sie auch
promovierte. Nach einem Forschungsaufenthalt am Deutschen Forschungszentrum
für Künstliche Intelligenz wurde sie als C4-Professorin an die Universität Augsburg
berufen.
9