SWR2 MANUSKRIPT ESSAYS FEATURES KOMMENTARE VORTRÄGE SWR2 Aula Nur mit Gefühl Roboter und Emotionen Von Elisabeth André Sendung: Donnerstag, 5. Mai 2016, 8.30 Uhr Redaktion: Ralf Caspary Produktion: SWR 2016 Bitte beachten Sie: Das Manuskript ist ausschließlich zum persönlichen, privaten Gebrauch bestimmt. Jede weitere Vervielfältigung und Verbreitung bedarf der ausdrücklichen Genehmigung des Urhebers bzw. des SWR. Service: SWR2 Aula können Sie auch als Live-Stream hören im SWR2 Webradio unter www.swr2.de oder als Podcast nachhören: http://www1.swr.de/podcast/xml/swr2/aula.xml Die Manuskripte von SWR2 Aula gibt es auch als E-Books für mobile Endgeräte im sogenannten EPUB-Format. Sie benötigen ein geeignetes Endgerät und eine entsprechende "App" oder Software zum Lesen der Dokumente. Für das iPhone oder das iPad gibt es z.B. die kostenlose App "iBooks", für die Android-Plattform den in der Basisversion kostenlosen Moon-Reader. Für Webbrowser wie z.B. Firefox gibt es auch sogenannte Addons oder Plugins zum Betrachten von E-Books: Mitschnitte aller Sendungen der Redaktion SWR2 Aula sind auf CD erhältlich beim SWR Mitschnittdienst in Baden-Baden zum Preis von 12,50 Euro. Bestellungen über Telefon: 07221/929-26030 Kennen Sie schon das Serviceangebot des Kulturradios SWR2? Mit der kostenlosen SWR2 Kulturkarte können Sie zu ermäßigten Eintrittspreisen Veranstaltungen des SWR2 und seiner vielen Kulturpartner im Sendegebiet besuchen. Mit dem Infoheft SWR2 Kulturservice sind Sie stets über SWR2 und die zahlreichen Veranstaltungen im SWR2-Kulturpartner-Netz informiert. Jetzt anmelden unter 07221/300 200 oder swr2.de 1 Ansage: Mit dem Thema: "Mehr Gefühl – Roboter, Computer und Künstliche Intelligenz". Ach, sie ist so schön, die neue digitale Welt. In der Industrie 4.0 arbeiten glückliche Roboter zusammen mit glücklichen Menschen, die eigentlich nur noch zusehen müssen, wie sich die elektronischen Sklaven schinden müssen, Pflegeheime sind voller Pflegeroboter, die die Heiminsassen rund um die Uhr bespaßen, und wenn wir im Auto sitzen, lassen wir uns fahren. So sieht die Vision aus, die ja auch schon zum Teil Realität geworden ist. Wir sollten über die Frage sprechen, wie entwickelt sich die Künstliche Intelligenz weiter, wie sieht die nächste Generation der Supercomputer aus. Ich begrüße zum Aula Gespräch die Informatikerin Professor Elisabet Andre, Interview: André: Guten Morgen, Herr Caspary. Caspary: Frau André, Künstliche Intelligenz, über die wir heute reden, ist ja eigentlich ein schillernder und problematischer Begriff, weil wir uns Intelligenz nur aus menschlicher Perspektive, im menschlichen Gewand vorstellen können. Ist das ein Fehler? André: Das ist erst mal ein guter Anhaltspunkt. Wir haben alle eine Vorstellung davon, was Intelligenz überhaupt ist, zumindest ein intuitives Verständnis davon. Daran können wir uns orientieren, wenn wir Intelligenz durch Maschinen simulieren wollen. Eine andere Intelligenz zu simulieren, die sich wesentlich von der menschlichen unterscheidet, ist schwierig. Wir haben zwar mittlerweile schon Computer, die über menschliche Fähigkeiten hinausgehen, denken Sie beispielsweise an einen SchachComputer. Aber nichtsdestotrotz sind das Fähigkeiten, die den menschlichen ähnlich sind. Der Begriff Künstliche Intelligenz ist vielleicht etwas ungünstig gewählt und wird auch sehr kontrovers diskutiert. Man fragt sich: Ist die Maschine wirklich intelligent? Fehlen ihr nicht wesentliche Merkmale menschlicher Intelligenz. Man hätte einen anderen Begriff wählen können, mir fällt aber auch kein besserer ein. Caspary: Lassen Sie uns kurz bei Computern bleiben, deren Fähigkeiten über die menschliche hinausgehen. Sie haben eben Schach-Computer angesprochen, und neulich gab es in Seoul/Südkorea das "Go-Spiele-Duell", wo ein Computer einen meisterlichen Schüler geschlagen hat. War das für Sie ein Meilenstein der Künstlichen Intelligenz? André: Das hat natürlich sehr viel Aufmerksamkeit erregt. Aber ich bin mir nicht so sicher, ob wir da in die richtige Richtung gehen. Wenn Sie als Gelegenheitsspieler sich z. B. einen Schach-Computer zulegen würden, dürfte es Ihnen wahrscheinlich keinen großen Spaß machen, mit dem Computer zu spielen, wenn er Sie sofort besiegt. Die 2 größere Kunst besteht also eigentlich darin, dass der Computer seine Spielstärke so anpasst, dass Sie den optimalen Spielspaß dabei haben. Caspary: Sie meinen, der Computer könnte sich auf mein Fähigkeitspotenzial einstellen? André: Genau. Der Computer merkt, wenn der Nutzer das Interesse verliert und demotiviert ist, und passt seine Spielstärke entsprechend an. Oder umgekehrt: Der Spieler braucht eine Herausforderung, dann zieht auch der Computer ein bisschen an. Wenn man das allgemein bei Computer-Spielen schaffen würde, hätte das direkt einen Sucht-Effekt. Caspary: Das gibt es aber noch nicht, wenn ich Sie richtig verstanden habe? Das wären Computer mit einem Schuss an Empathie? André: Ja, Empathie benötigt man dazu. In Ansätzen wird genau das erforscht. Aber natürlich ist es sehr schwierig, das genau auszubalancieren. Gelungen ist es noch nicht. Caspary: Wie sind Schach- bzw. Go-Computer programmiert? Wo liegen deren "mentale" Vorteile? Können sie 50.000 Züge im Voraus berechnen, haben sie eine besondere Strategie? André: Der große Vorteil liegt darin, dass ein Computer heute sehr viele Daten speichern kann, aus denen er lernen kann. Er kann auch sehr viele Züge, mehr Züge als ein Mensch, im Voraus berechnen und berücksichtigen, welchen Zug ein Mensch vermutlich als nächstes machen würde. Das liegt an der höheren Speicherkapazität und verbesserten Rechenleistung. Beim Computer ist die Anzahl der Schritte, die vorausberechnet werden können, wesentlich größer. Caspary: Was hat sich in den letzten 20 Jahren im Bereich Künstliche Intelligenz verändert? Welche Innovationen gibt es? André: In letzter Zeit ist ein Verfahren weiterentwickelt worden, das man früher zwar schon angewandt hat, allerdings nur mit mäßigem Erfolg. Ich spreche von neuronalen Netzen und Deep Learning. Das muss man sich so vorstellen, dass man früher sehr viel Arbeit investiert hat, um z. B. bei der Bildverarbeitung gute Merkmale zu erkennen. Wenn Sie automatisch ein Gesicht erkennen müssten, dann würden Sie sich zunächst überlegen, was sind charakteristische Merkmale eines Gesichts. Vermutlich fallen Ihnen sofort Augen, Nase und Mund ein. Unter veränderten Beleuchtungsbedingungen oder aus unterschiedlicher Perspektive sieht ein Gesicht jedoch ganz anders aus. Und deshalb ist dieses Merkmals-Engineering sehr 3 komplex. Das können Maschinen übernehmen, insbesondere mit Deep LearningMethoden. Fortschritte wurden aber auch in der Spracherkennung gemacht. Das liegt darin, dass wir heutzutage viel mehr Daten haben als noch vor einigen Jahren. Wir können uns deshalb auch Sprachen zuwenden, die bisher weniger im Fokus waren. Wir beschäftigen uns beispielsweise in einem EU-Projekt mit polnischer Sprache und mit türkischer Sprache. Das hätten wir früher nicht gekonnt. Und in dem Fall sogar Türkisch, was von Türken, die in Deutschland leben, gesprochen wird. Das unterscheidet sich von dem Türkisch, das in der Türkei gesprochen wird. Dialekte zu erkennen ist also auch möglich. Caspary: Computer können Sprachen, Sprachmuster und Sprachsemantik erkennen, und das dient zu Übersetzungszwecken? André: Übersetzungen sind ein Beispiel. Oder aber die Maschine reagiert direkt auf eine sprachliche Äußerung. Man könnte dem Computer in einem Dialekt, zum Beispiel auf Bayrisch oder Saarländisch, Instruktionen geben und der Computer führt diese Anweisungen direkt aus. Caspary: Könnte er das Bayrische vom Saarländischen unterscheiden? André: Ja. Vorausgesetzt man hat genügend Daten und hat das System darauf trainiert. Caspary: Sie haben vorhin das Beispiel Gesichtererkennung genannt. Das ist wirklich interessant. Den Techniker, der mir gerade gegenüber sitzt, kenne ich seit mehreren Jahren. Wenn ich ihn nur von der Seite sehen würde oder nur einen kleinen Ausschnitt seines Gesichts, würde ich es sofort zuordnen können. Das heißt, ich habe ein Muster von ihm abgespeichert, das ich ohne große Mühe abrufen könnte. Das kann ein Computer nicht? André: Das wäre eine sehr schwierige Aufgabe und hängt davon ab, worauf der Computer trainiert ist. Wenn er beispielsweise auf das Gesicht Ihres Kollegen trainiert wäre und genügend Daten hätte, also z. B. Daten seines Gesichts aus unterschiedlichen Perspektiven, dann würde das schon funktionieren. Die Kunst besteht darin, möglichst viele Daten zu sammeln. Caspary: Ich verstehe: Der Roboter hätte tausend verschiedene Gesichtsansichten meines Kollegen gespeichert und könnte die mit dem realen Bild, das ihm gegenüber ist, abgleichen. André: Genau. Gleichzeitig laufen aber auch komplexe Prozesse des maschinellen Lernens ab, so dass der Computer nicht nur vergleicht, sondern tatsächlich lernt. 4 Caspary: Wie hängt das Ganze jetzt mit den neuronalen Netzen zusammen? Das Vorbild der neuronalen Netze ist das menschliche Gehirn, weil die Hirnforschung sagt, unser Gehirn funktioniert auf Grundlage von Netzwerken. André: Neuronale Netze sind sehr gut darin, spezielle Muster zu erkennen. Heutzutage ist man in der Lage, sehr komplexe hierarchische Architekturen zu bauen. Und mit diesen Architekturen ist es möglich, Merkmale auf unterschiedlichen Abstraktionsebenen zu erkennen. Zum Beispiel beim Gesicht einfache Helligkeitsunterschiede bis hin zu recht komplexen Formen wie Augen, Mund, Nase. Das System lernt praktisch selbstständig, was das für Merkmale sind. Bei den meisten Verfahren ist es so, dass ein Mensch erst noch dieses Feature-Engineering macht und sich überlegt, was die charakteristischen Merkmale sind. Bei der Emotionserkennung aus der Stimme geht es um die Frage, wie Emotionen in der Stimme zum Ausdruck gebracht werden. Ist es die Tonhöhe, die Intensität, die Verteilung von Frequenzen usw.? Mit den tiefen neuronalen Netzen geht das automatisch. Neuronale Netze sind aber nur ein Verfahren von vielen möglichen. In letzter Zeit hat man damit die Erkennungsraten in einigen Bereichen sehr verbessern können, weshalb sich jetzt alle auf dieses Verfahren stürzen. Caspary: Welche Verfahren gibt es noch? André: Beispielsweise ein Verfahren mit dem Namen "Support Vector Maschines". Man kann auch versuchen, durch eher Wissens-basierte Verfahren zu arbeiten, das heißt, dass der Computer Schlüsse zieht. Das ist vielleicht auch für den Menschen eher nachzuvollziehen. Wenn Sie ein neuronales Netz trainiert haben, liefert es in den meisten Fällen hoffentlich korrekte Ergebnisse, aber eben nicht in allen Fällen. Dann können Sie aber nicht mehr nachvollziehen, warum ausgerechnet in dem Fall das System versagt und das Gesicht Ihres Kollegen nicht erkannt hat. Das ist ein Problem der Nachvollziehbarkeit der Ergebnisse. Bei Methoden des maschinellen Lernens kann man vielleicht Vermutungen anstellen, wo der Fehler lag und die Vermutungen führen dazu, dass man das Verfahren verändert. Aber dann treten möglicherweise an anderen Stellen wieder Fehler auf. Das heißt, man kann zwar Schlussfolgerungen anstellen, warum ein Fehler auftrat, aber meistens hat man keine absolute Sicherheit. Es sei denn, man hat grobe Fehler gemacht bei der Umsetzung des Verfahrens. Caspary: Können Sie erklären, inwieweit die neuronalen Netzwerke imstande sind zu lernen und was Lernen in diesem Zusammenhang heißt? André: Lernen heißt, dass man anhand von vorgegebenen Daten oder Beispielen selbstständig neue Erkenntnisse gewinnen kann. Das System bekommt also neue Daten und sollte in der Lage sein, anhand dieser neuen Daten die richtigen 5 Ergebnisse zu liefern. Wenn man bestimmte Bereiche trainiert, dann kann man erwarten, dass das System, vorausgesetzt das Verfahren taugt etwas, bei ähnlichen Beispielen aus einem ähnlichen Bereich mit ähnlichen Daten gut funktioniert. Die große Kunst besteht darin, dass sich das System an unvorhergesehene Situationen anpasst. Angenommen, man hat ein System im Straßenverkehr auf bestimmte Hindernisse trainiert, Stichwort: autonomes Fahren. Hindernisse können andere Fahrzeuge, Busse oder Personen sein. Was passiert beispielsweise, wenn ein Flugobjekt auftaucht, mit dem vorher nicht zu rechnen war? Oder wenn das System nicht auf Schnee trainiert ist und es schneit plötzlich. Das könnte zu Problemen führen. Caspary: Autonomes Fahren ist zur Zeit in aller Munde. Was meinen Sie? Kann man sich in 20 Jahren wirklich in ein solches Auto setzen und sich fahren lassen? André: Auf bestimmten Strecken ist das im Moment schon möglich. Auch in Touristengegenden, in denen es steil bergauf geht, wird schon viel autonom gemacht. Oft sitzt nur noch eine Person zur Beruhigung der Fahrgäste mit dabei. Das wird sicherlich noch weiter ausgebaut. Automobilfirmen arbeiten schon daran, und ich glaube, das wird keine 20 Jahre mehr dauern. Caspary: Das bedeutet auch einen kulturellen Paradigmenwechsel. Ein Auto zu besitzen und zu fahren ist ja in unserer Kultur ein Zeichen von Autonomie: Ich fahre, ich bin der Lenker. Das würde dann ja hinfällig. André: Ein autonomes System müsste erkennen, wenn der Mensch selber fahren möchte, weil die Strecke gerade schön ist, der Mensch ausgeruht ist, keine Büroarbeiten anfallen und er ist auch in der Lage zu fahren. Deshalb sollte man darauf hinarbeiten, dass kreative Tätigkeiten, Dinge, die dem Menschen Spaß machen wie z. B. Autofahren oder Gartenarbeit, dem Menschen überlassen werden. Es wird ja auch immer mal wieder darüber diskutiert, ob über 80-Jährige überhaupt noch einen Führerschein haben sollten. Für sie wäre autonomes Fahren vielleicht eine super Sache. Genauso auch für ältere Menschen, die auf dem Land leben. So könnten sie ihre Unabhängigkeit bewahren. Caspary: Ich möchte nochmal auf das Thema Empathie zu sprechen kommen, auf die Möglichkeiten eines Computers, Emotionen zu erkennen. Ist ein Roboter fähig, Gefühle zu antizipieren oder zu lesen? Angenommen, ich sitze in meinem autonomen Fahrzeug und sage keinen Ton, trotzdem erkennt das System, wenn ich selbst fahren will. Erkennt das Auto das, indem es meine Mimik liest? André: Das könnte man so realisieren. Man könnte aber dem Menschen noch etwas mehr Kontrolle geben. Beispielsweise der Mensch fährt und der Roboter erkennt Ermüdungserscheinungen. 6 Caspary: Warum eigentlich Roboter? Das Auto wird doch durch ein Computersystem gelenkt. André: Von einem Roboter erwartet man, dass er einen physikalischen Körper hat und in der Lage ist, autonom auf die Umwelt zu reagieren. Und das autonome Fahrzeug hätte diese Eigenschaften. Caspary: Bleiben wir bei Robotern. In Japan werden zum Teil schon Pflege-Roboter eingesetzt. Wie weit sind die Entwicklungen, Roboter in Richtung menschliche Intelligenz zu führen? André: Wenn Roboter im sozialen Bereich eingesetzt werden, müssen sie schon ein gewisses Maß an emotionaler Kompetenz mitbringen, der Roboter muss fühlen, wenn der Nutzer frustriert oder erschöpft ist. Im Pflege-Bereich dienen Roboter auch dazu, die Leute aufzumuntern. Man hat z. B. in Japan mit einer Plüsch-Robbe gute Erfolge bei Demenzkranken erzielt. Roboter können tatsächlich zur Stimmungsaufhellung beitragen. Wir haben das selber gemerkt in einem Altenheim in Augsburg, wo wir eine Studie mit einem Roboter durchgeführt haben. Zuerst hatten die älteren Menschen schon etwas Berührungsängste und wollten wissen, wer denn da ersetzt werden sollte. Aber später war der Roboter das Highlight. Caspary: Was konnte der? André: Er war eher als Gefährte konzipiert und konnte sich unterhalten. Eine ältere Dame hat gemeint, solange er nur sprechen kann, kann er ja auch keinen Schaden anrichten. Wie gesagt, er hat zur Stimmungsaufhellung beigetragen und allgemein zu einer verbesserten Lebensqualität. Und in dem Fall hat der Roboter auch niemanden ersetzt, sondern er war einfach ein weiterer Bewohner des Altenheims. Es hat eigentlich auch nie jemand alleine mit dem Roboter interagiert, sondern es war immer eine Gruppe von Leuten, die sich mit ihm beschäftigt haben. Der Roboter war sozusagen in die Gruppe integriert, fast wie ein interaktives Spielzeug. Caspary: Der Roboter hat niemanden ersetzt, sagen Sie. Das wird ja immer gemutmaßt, dass der Einsatz von Robotern dazu dient, Kosten zu sparen. André: Ich denke, das ist generell eine falsche Herangehensweise. Man sollte sich eher darüber Gedanken machen, wie der psychologische Zustand von Menschen verbessert werden kann. Meistens wird an Produktivität und Effizienz gedacht. Auch hier kann ich ein Beispiel aus dem Altenheim nennen. Eine Dame, die dort ehrenamtlich tätig ist, hat mir erzählt, dass es so schwierig sei, die Bewohner aus ihren Zimmern herauszubringen und zu aktivieren. Dann hatten wir die Idee, den Roboter dazu zu verwenden, die Leute zu ermuntern, mal in den Aufenthaltsraum oder in den Garten zu gehen, Gymnastik zu machen usw. Wir hielten das für eine 7 gute Idee und haben sie einem Dienstleistungsunternehmen vorgestellt, das sich mit Technologien für Altenheime beschäftigt. Dort hielt man das eigentlich für keine gute Anwendung, denn eigentlich wolle man ja gar nicht, dass die Leute aus den Zimmern rauskommen, weil das nur Stress und Arbeit verursache. Ich will damit sagen, man kann mit einem Roboter einen Mehrwert schaffen, aber häufig gehen die Gedanken in die Richtung, wie Prozesse effizienter gestaltet werden können. Caspary: Aber das Beispiel zeigt doch auch, Roboter haben eher eine dienende Funktion. Wir haben ja immer noch die Horror-Vorstellung von Robotern als sich selbst replizierende Maschinen, die den Menschen in emotionaler, intelligenter Hinsicht überragen und die Weltherrschaft übernehmen. Das kennen wir aus den Szenarien von Science-Fiction-Filmen. In der Realität geht es aber um die dienende Funktion, oder? André: Ja, im Moment schon. Niemand will von einem Roboter dominiert werden, und es ist ganz wichtig, dass der Mensch die Kontrolle über die Maschine behält. Kontrolle heißt auch, dass ich verstehe, was mein Diener macht. Wenn Sie z. B. einen Roboter als Haushaltshilfe oder als Finanzberater zuhause hätten, dann wollen Sie ja schon wissen, was er mit Ihren Finanzen macht oder wie er Ihre Klimaanlage einstellt. Transparenz und Kontrollierbarkeit ist sehr wichtig. Caspary: Werden wir in 50 Jahren Hilfsroboter zuhause haben, was meinen Sie? André: Das auf jeden Fall. Caspary: Ist das dann auch bezahlbar? André: Je höher der Bedarf ist und je mehr Stückzahlen gebraucht werden, umso mehr Menschen werden sich einen solchen Roboter leisten können. Es gibt ja jetzt schon einfache Formen: z. B. Staubsauger oder Rasenmäher, die selbstständig arbeiten. So teuer sind sie nicht. Caspary: Was würden Sie sich für die nächste Zukunft wünschen auf dem Gebiet der Robotik? André: Ich würde mir wünschen, dass man die Bedürfnisse des Menschen im Vordergrund behält und nicht immer in Richtung Produktivität, Effizienzsteigerung denkt oder daran, wie Menschen ersetzt werden können. Das gilt nicht für Tätigkeiten, die sowieso keiner machen will. Da wäre ein Roboter vielleicht schon sinnvoll. Aber es gibt ja auch viele Tätigkeiten, die erstens besser von einem Menschen durchgeführt werden und wo auch der Mensch das gerne tun möchte. Generell finde ich es beim Einsatz von Technik wichtig, sich zu überlegen, was der Mensch braucht, und ganz wegzugehen von Produktionssteigerungsgedanken. Das kann nämlich auch nach hinten losgehen. Ich denke, wenn man das Wohl des Menschen im Vordergrund 8 behält und eher versucht, kreative neue Anwendungen zu finden, dann kann ein Roboter eine Lebensverbesserung bedeuten. Caspary: Ich hoffe, Ihr Wunsch wird gehört und es wird so sein, dass die menschlichen Bedürfnisse an erster Stelle stehen. Vielen Dank, Frau André. André: Vielen Dank. ***** Elisabeth André studierte Informatik an der Universität des Saarlandes, wo sie auch promovierte. Nach einem Forschungsaufenthalt am Deutschen Forschungszentrum für Künstliche Intelligenz wurde sie als C4-Professorin an die Universität Augsburg berufen. 9
© Copyright 2024 ExpyDoc