W O OF: E IN F RAMEWORK FÜR W IZARD OF O Z E XPERIMENTE Markus Huber1 1 Werner Meyer2 Kati Nowack2 Peter Geßler2 2 BTU Cottbus-Senftenberg InnoTec21 GmbH [email protected] Zusammenfassung: Im Rahmen des Industrieprojekts Universal Cognitive User Interface (UCUI) entsteht ein Framework zur Erstellung und Durchführung von Wizard of Oz Experimenten. Dadurch kann eine nutzergetriebene Systemkonstruktion unterstützt werden, bei der aufeinander aufbauende Systemsimulatoren, die nach und nach erweitert werden können, benötigt werden. Der Text beschreibt die Anforderungen an das Framework, dessen Aufbau und seine grundlegende Funktionsweise. Ein Beispiel eines Simulators ist ebenso enthalten. 1 Einleitung „Man kann nicht nicht kommunizieren [. . .]“, schrieb Paul Watzlawick [5] Mitte des letzten Jahrhunderts, „[. . .] denn jede Kommunikation [. . .] ist Verhalten und genauso wie man sich nicht nicht verhalten kann, kann man nicht nicht kommunizieren.“ Trotzdem fallen die meisten heutigen Benutzerschnittstellen durch eintöniges und unsinniges Verhalten eher unangenehm auf. Was sie damit – auch über ihre Macher – kommunizieren, steht auf einem anderen Blatt. Allerdings sind gerade natürlichsprachliche Benutzerschnittstellen schwer umzusetzen, da Sprache schier endlose Möglichkeiten bietet, um sich auszudrücken. Damit eine Benutzerschnittstelle angemessen reagieren kann, muss sie einerseits die syntaktischen Unterschiede der Eingaben in einer höheren Semantik auflösen und andererseits wissen, wie sie – auch im Dialog mit dem Benutzer – über diese Semantik zum gemeinsamen Ziel kommen kann. In diesem Sinne muss sie also über Kognition verfügen. Ein oft beschrittener Weg besteht nun darin, Probanden vor eine Simulation einer solchen Benutzerschnittstelle zu setzen und die Interaktionen aufzuzeichnen. Danach versucht man, die entstandenen Dialoge nachzubauen, damit das System so Angemessenheit simulieren kann. Im Umfeld von grafischen Benutzerschnittstellen existieren sog. Mock Up Frameworks, mit denen das Aussehen und die Abfolge von Fenstern und Dialogen simuliert werden kann. Im Bereich kognitiver Benutzerschnittstellen gibt es unseres Wissens nach keine derartigen Frameworks, die vor allem auch die im Rahmen des UCUI Projekts gestellten Anforderungen erfüllt hätten.1 Aus diesem Grund entstand das hier vorgestellte Wizard of Oz Framework. Das UCUI Projekt wird im folgenden Abschnitt kurz vorgestellt. Im Abschnitt 3 wird noch einmal genauer auf die Methode der Simulation eingegangen, um schließlich das Framework im Abschnitt 4 zu besprechen. Der Text schließt mit einer Zusammenfassung und einem Ausblick. 2 Universal Cognitive User Interface Im Projekt Universal Cognitive User Interface (UCUI) soll ein System realisiert werden, das in der Lage ist durch die Eingabe eines Nutzers eine entsprechende Handlung über die an diesem System angeschlossenen Geräte im Haushalt zu tätigen. Zur Steuerung des Systems kann der 1 Einzig WebWOZ von der School of Computer Science & Statistics des Dubliner Trinity College kam unseren Vorstellungen sehr nahe. Anwender eine Eingabe über Sprache, Gestik oder Tastatur vornehmen, wodurch eine barrierefreie Anwendung ermöglicht werden soll. Dabei soll das System eigenständig handeln, ohne umfangreiche Datensammlungen (Big Data) einzusetzen, die zudem auch eine explizit ausgeschlossene Internetverbindung benötigen würden. Durch den Verzicht auf die Datensammlungen und den Kontakt nach außen soll auch der Datenschutz und damit die Privatsphäre des Nutzers gewährleistet werden. Die vom System gewonnenen nutzerspezifischen Daten werden mit Hilfe einer kognitiven Verhaltenssteuerung verarbeitet, um sich an das Kommunikationsverhalten des Nutzers sowie seine Problemlösungsstrategien anzupassen. Ziel ist es, dass das System sich auf den Nutzer einstellt und nicht umgekehrt; auch unter der Berücksichtigung, dass es von Personen eingesetzt wird, die weniger im Umgang mit technischen Geräten geübt sind. Zugleich werden die nutzerspezifischen Daten nicht an andere Nutzer weitergegeben, um eventuelle Rückschlüsse auf das Verhalten der Anwender zu vermeiden (e.g., [6, 4]). Um ein angemessenes Verhalten des UCUI Systems zu gewährleisten, ist es wichtig, mögliche Mensch-Maschine-Interaktionen in das System einzubinden. Da bspw. bei der Sprachsteuerung unterschiedliche Eingaben dieselbe Bedeutung besitzen können, muss ermittelt werden, durch welche Äußerungen das System auf Grundlage einer semantischen Verarbeitung eine angemessene Reaktion ausübt. Die semantische Verarbeitung führt alle Ein- und Ausgabemodalitäten auf einer Ebene zusammen. Zur Ermittlung der vielfältigen Eingabemöglichkeiten eines Nutzers, ist die Durchführung von Wizard of Oz Experimenten geeignet. Das Anwenderverhalten gegenüber dem System kann damit genauer untersucht und die gesammelten Ergebnisse in das zukünftige System integriert werden. 3 Wizard of Oz Experimente Die Konstruktion des UCUI wird nicht technik-, sondern nutzergetrieben erfolgen. Dies stellt in Anbetracht eines noch nicht vollständig entwickelten Systems eine besondere Herausforderung dar. So sollen Funktionen bereits vor deren Implementierung auf ihre Bedienbarkeit hin evaluiert und, wenn nötig, optimiert werden. Zu diesem Zweck kommt im Projekt die so genannte Wizard of Oz Methode zum Einsatz. Hauptmerkmal eines Wizard of Oz Experiments ist die Simulation eines fertigen Systems durch einen Menschen (den Wizard). Benutzer interagieren während des Experiments mit dem Interface eines vermeintlichen Systems. Die Systemreaktionen werden jedoch in Wirklichkeit durch den Wizard simuliert und durch das Interface an den Benutzer zurückgemeldet. Damit Testpersonen nicht den Verdacht schöpfen, dass es sich nicht um ein computergesteuertes System handelt, ergeben sich für die Wizard of Oz Methode eine Reihe von Anforderungen (e.g., [1, 2]). Laut [1] muss für ein erfolgreiches Wizard of Oz Experiment erstens das zukünftige System in Anbetracht menschlicher Einschränkungen simulierbar sein, zweitens das Verhalten des zukünftigen Systems spezifiziert werden und drittens das System glaubwürdig simuliert werden. So muss der Wizard in sehr kurzer Zeit angemessen und fehlerfrei auf die Nutzereingaben reagieren. Dies kann bspw. durch verschiedene vorgefertigte, häufig benutzte, Rückmeldungen mit Schnellzugriff (z.B. Bitte warten, Ihre Anfrage wird bearbeitet.) erreicht werden sowie durch Training des Wizard, um fehlerfreie und konstante Reaktionen zu gewährleisten. Ein weiterer Punkt ist der Einsatz von klaren Szenarien und Aufgaben, bei denen das Bedienziel bekannt ist und auch nur mithilfe des Systems erreicht werden kann, ohne jedoch die Benutzer in ihren Lösungswegen, verbalen Äußerungen und Gesten einzuschränken (e.g., [1, 2]). Der Prozess der Aufgabenkonstruktion sollte somit berücksichtigen, welche Interaktionsmöglichkeiten Benutzer mit dem System haben sollten und diese auch klar den Probanden mitteilen (vgl. [2]). Im Rahmen des hier vorgestellten UCUI Projektes wird dies mittels schriftlicher Handlungsinstruktionen und der Vorführung des Systems anhand einer Beispielanwendung (ein einfacher Getränkeautomat) durch den Versuchsleiter – nicht den Wizard – realisiert. Ferner sollte die Aufgabenerstellung auf Hypothesen bezüglich des Benutzer- (i.e., Wie werden Benutzer reagieren?) und Systemverhaltens (i.e., Wie soll das System reagieren?) aufbauen (vgl. [2]). Zuletzt sollte eine erfolgreiche, nutzergetriebene Konstruktion auf mehreren Wizard of Oz Experimenten aufbauen, bei denen das zu entwickelnde System zunehmend autonom mit dem Benutzer interagiert und weniger durch den Wizard simuliert wird (e.g., [3]). Dies wird im Rahmen des UCUI Projektes mittels drei aufeinander aufbauender Versuchsreihen mit verschiedenen Systemsimulatoren erreicht, an deren Ende die Evaluation des optimierten Gesamtsystems steht. 4 WoOF: Wizard of Oz Framework Um die nutzergetriebene Konstruktion mit verschiedenen Simulatoren unterstützen zu können, wurde mit dem Wizard of Oz Framework (WoOF), die Möglichkeit geschaffen, unterschiedliche, erweiterbare Systemsimulatoren zu erstellen und auszuführen. Im folgenden Unterabschnitt werden die Anforderungen aufgeführt, die an das WoOF gestellt werden, bevor im Unterabschnitt 4.2 seine Umsetzung vorgestellt wird. Darin wird auch der Systemsimulator, wie er in der ersten Experimentierphase des Projektes benutzt wird, beschrieben. 4.1 Die Anforderungen Die hier zusammengetragenen Anforderungen stellen teilweise allgemeine Anforderungen, denen ein Systemsimulator-Framework für Wizard of Oz Experimente genügen sollte, dar. Es fließen auch allgemeine und spezielle Überlegungen aus den Abschnitten 2 und 3 mit ein. Da ein echtes System zu simulieren ist, das visuelle und auditive Rückmeldungen an den Benutzer geben soll, muss zum Einen die Möglichkeit vorhanden sein, visuelle Objekte auf einem Monitor darzustellen und zum Anderen muss es möglich sein, Audiodaten an den Benutzer zu übertragen. Das fertige System soll sowohl über Touch- als auch über Spracheingabe gesteuert werden können, wodurch der Benutzer mit den visuellen Objekten interagieren können muss und Audiodaten auch vom Benutzer zum Simulator übertragen werden müssen. Neben diesen grundlegenden Anforderungen, muss eine gute Unterstützung der Durchführung der Experimente gewährleistet sein. Dies umfasst einerseits die Erstellung von Systemsimulatoren sowie die Funktionen für den Wizard während der Experimente, andererseits die Aufzeichnung der einzelnen Experimente und die Speicherung der anfallenden Daten. Wie in Abschnitt 3 bereits angesprochen, sollen einzelne Szenarien festgelegt werden können, die als Aufgaben an die Probanden zu verstehen sind. Zwischen diesen Aufgaben muss gewechselt werden können. Ein Szenario ist dabei als eine Einheit aus Aufgabenstellung, Bedienziel und möglichen visuellen und auditiven Rückmeldungen zu verstehen. Als Ergebnis der Experimente soll eine Sammlung von Anwenderverhalten gegenüber dem System entstehen. Daraus ergibt sich, dass die Interaktionen mit dem System aufgezeichnet werden müssen. Dazu sind der Bildschirminhalt, den die Probanden sehen, wie auch die TouchEreignisse, die sie auf dem Monitor auslösen und darüber hinaus die Spracheingaben, die sie tätigen, zu speichern. Da später im UCUI Projekt auch Gesten als Eingabemedium Verwendung finden sollen, muss auch ein Videomitschnitt der Probanden erstellt werden. Um die Daten später leichter auswerten zu können, sollte auch die Sprachausgabe des Systems gespeichert werden. Damit die Daten pro Proband gespeichert werden können, muss weiterhin eine Sitzungsverwaltung vorhanden sein. Die Gewährleistung des Datenschutzes der Teilnehmer der Experimente stellt ausdrücklich keine Anforderung an das Framework dar. Diese Aufgabe muss von den Versuchsleitern übernommen werden. (a) Startbildschirm. (b) Systemsteuerung mit Startprotokoll. Abbildung 1: WoOF ohne geladenes Experiment. 4.2 Die Umsetzung Die Implementierung des WoOF orientiert sich an seinem primären Einsatzort, dem Cognitive Systems Lab (CSL) des Lehrstuhl für Kommunikationstechnik an der BTU Cottbus-Senftenberg. Für die dortige Audio-Hardware sind in Java geschriebene Treiber vorhanden. Alle grafischen Oberflächen im Labor setzen auf LCARSWT auf, das ebenfalls in Java erstellt ist. Deswegen lag die Benutzung von Java als Programmiersprache für das Framework nahe. 4.2.1 Die Benutzeroberfläche Bei LCARSWT [7] handelt es sich um ein Widget Toolkit, mit dem Oberflächen erstellt werden können, die sich optisch an das u.a. aus der Fernsehserie Star Trek: The Next Generation bekannte LCARS2 anlehnen. Das wesentliche Merkmal derartiger Oberflächen neben der reinen Touch-Bedienung3 , ist das völlige Fehlen von Fenstern und Dialogen. Sie sind vielmehr als digitales Pendant zu Schaltbrettern zu sehen. Daraus ergibt sich, dass eine Oberfläche als ein aus funktionalen Einheiten bestehendes Ganzes betrachtet wird, das in LCARSWT als Panel bezeichnet wird. Die Einheiten müssen nicht notwendigerweise zusammenhängende Bereiche sein, noch müssen sie eine bestimmte Form haben. Diese Eigenheit wird im WoOF allerdings nur sehr behutsam eingesetzt. In Abbildung 1 ist neben dem Startbildschirm des Framework die zentrale Steuereinheit zu sehen. In ihr kann man die verschiedenen Protokolle nachlesen, das System verlassen und das AudioFeedback der Oberfläche aktivieren bzw. deaktivieren. Man erkennt bereits eine funktionale Einheit. Grob gesprochen, entsprechen drei dieser Einheiten den schwarzen Bereichen. Die Oberfläche bietet insgesamt vier funktionale Einheiten, die zusammen die Steuerung eines Systemsimulators ermöglichen. Drei von diesen Einheiten werden mit sog. Boards gefüllt. Dem großen rechten Bereich aus Abbildung 2 stehen neben der frei füllbaren Fläche die beiden Schaltflächen unter der Schaltfläche WOOF und die oberen beiden Titelbereiche zur Verfügung. Für die kleinen linken Bereiche stehen neben den Flächen je eine Statuszeile nebst einem Quadrat, das blinken kann, zwischen den beiden Bereichen zur Verfügung. Die vierte Einheit kann mit einem sog. Controller belegt werden. Für diese Einheit steht keine füllbare Fläche zur Verfügung, sondern lediglich die drei Schaltflächen unter der Schaltfläche EXPERIMENT, das darunter liegende Statusfeld, das auch blinken kann sowie die unteren beiden Titelbereiche. Für alle Schaltflächen gilt, dass sie sowohl als normale, als auch als einrastende oder als blinkende Schaltflächen betrieben werden können. 2 Die Abkürzung steht für Library Computer Access and Retrieval System (s. http://www.lcars.org.uk/). der geneigte Trekkie einwenden wird, dass LCARS Oberflächen auch und vor allem in Kombination mit Sprache benutzt werden. Da allerdings noch kein UCUI existiert, verzichtet WoOF auf eine Sprachsteuerung. 3 Wobei Abbildung 2: Die großen farbigen Flächen können mit Boards belegt werden. Die vier funktionalen Einheiten können jeweils mit beliebig vielen Instanzen belegt werden, wobei immer nur eine sichtbar sein und damit die Kontrolle über die immer sichtbaren Elemente des Panel, die sich alle Instanzen teilen, ausüben kann. Intern existiert für jede Einheit ein Stack, sodass eine Instanz auftauchen und wieder verschwinden kann, um danach die gleiche Oberfläche zu hinterlassen. Jedes Board wiederum besteht aus Controls aus einer erweiterbaren Sammlung und kann auch beliebige weitere LCARS Elemente aufnehmen. Um ein möglichst einheitliches Erscheinungsbild zu gewährleisten, wurde eine kleine eigenständige Bibliothek4 , die auf LCARSWT aufsetzt und einige Widgets wie Rahmen, Textfelder, Listen, Eingabefelder und Videoviewer anbietet, erstellt. Sie ermöglicht es auch, den Bildschirm in einzelne – nicht notwendigerweise disjunkte – Boxen zu unterteilen, um Controls und Elemente einfacher positionieren zu können. Die grundlegende Funktionalität, um Boards anzeigen und verstecken zu können, ist ebenfalls hier angesiedelt. Eine weitere Teilbibliothek, um Bereiche zu dekorieren, ist in Anfängen enthalten. Die gesamte Oberfläche ist auf die Benutzung mit einem Touch-Bildschirm ausgelegt. Es ist aber auch möglich, Eingaben per Tastatur zu machen. Einige Möglichkeiten im Zusammenhang mit Touch-Bedienung, die LCARSWT durch eine kürzlich erfolgte Neuerung bietet, werden allerdings noch nicht unterstützt. 4.2.2 Das Framework Das Framework unter der Oberfläche besteht zunächst aus der zentralen Klasse WoOF, die als Singleton implementiert ist. Das einzig erzeugbare Objekt dieser Klasse verwaltet verschiedene Ressourcen und stellt den Zugriff auf unterschiedliche Dienste bereit. Nach dem Start des Systems, lädt WoOF grundlegende Einstellungen aus einer Konfigurationsdatei, legt das erste Protokoll an und initialisiert eventuell vorhandene Erweiterungen. Dabei handelt es sich um Klassen, die keine einheitliche Schnittstelle bereit stellen und direkt im Code von Systemsimulatoren benutzt werden. Sie gehören nicht zur Kernfunktionalität des Framework, sollen aber allen Simulatoren zur Verfügung stehen. Danach kann ein Experiment geladen werden. Experimente werden in Projekten zusammengefasst. Auf diese Weise kann man gemeinsam 4 Sie heißt pmllh, was für poor man’s LCARS layout helpers steht. (a) Laden eines Experiments. (b) Bereich für Einstellungen. Abbildung 3: Auswahl und Einstellen eines Experiments. benutzte Einstellungen und Ressourcen zur Verfügung stellen. Alle Einstellungen werden aus Konfigurationsdateien geladen, die dem gleichen Format genügen. Einem Schlüssel wird durch ein Gleichheitszeichen ein Wert zugewiesen, der bis zum Ende der Zeile bzw. dem Kommentarzeichen # reicht. WoOF stellt für die Abfrage der Werte einige Methoden zur Verfügung, sodass neben einfachen Zeichenketten auch Wahrheitswerte und Listen möglich sind.5 Systemweite Einstellungen werden von projektweit gültigen und diese wiederum von den Einstellungen für ein Experiment überschrieben; Listen können auch an beiden Enden erweitert werden. In Abbildung 3a sieht man das Board zum Laden eines Experiments nach Betätigen der Schaltfläche EXPERIMENT. Über dieses Board kann man ein Experiment auch wieder schließen und ein anderes laden. Neben den Boards und Controllers besteht ein Experiment aus einer Beschreibung und einer Liste von Modulen, die zu laden sind. Je nach benutzten Bestandteilen stehen weitere Einstellungsmöglichkeiten in den Konfigurationsdateien zur Verfügung. Module sind Klassen von denen jeweils ein Objekt beim Laden eines Experiments erzeugt und registriert wird. Sie stellen bestimmte Funktionen bereit, werden aber nicht direkt im Code von Systemsimulatoren benutzt. Sie können zusammen mit den weiteren Mechanismen eingesetzt werden, die der Erweiterbarkeit des Framework dienen, haben aber auch ohne sie ihre Existenzberechtigung. Module können auch Einstellungen über sog. Setups zur Verfügung stellen, die dann zur Laufzeit angepasst werden können. In Abbildung 3b sieht man rechts unten einen Bereich, der für diese Einstellmöglichkeiten zur Verfügung steht. Die beiden mittleren Schaltflächen rechts daneben gehören ebenfalls zu dieser funktionalen Einheit. Über die Liste links davon kann man die einzelnen Module auswählen. Die angesprochenen weiteren Mechanismen sind das Konzept der sog. Function-Provider und Pipelines zur Datenverarbeitung. Bei letzteren handelt es sich um eine einfache Implementierung des Pipes and Filters-Musters6 , bei dem Daten durch eine Pipeline geschickt werden, wobei angemeldete Filter sie auf ihrem Weg verändern können. Objekte melden sich bei WoOF als Erzeuger, Filter oder Verwerter für Daten eines speziellen Typs an. Die Function-Provider ermöglichen es, allgemeine Funktionen, die als Schnittstellen vorliegen, zu benutzen, ohne das konkrete Objekt, das diese Funktionen zur Verfügung stellt, kennen zu müssen. Objekte können WoOF mitteilen welche Funktionen sie bereitstellen möchten. Der Aufruf passiert über statische Methoden der Schnittstellen und wird von WoOF abgewickelt. So ist es möglich bspw. die Ausgabe von Audio-Daten durch verschiedene Module vornehmen zu lassen, sodass man das Framework an unterschiedliche Hardware anpassen kann, je nachdem welches Modul geladen wurde. Soll eine Funktion von maximal einem Objekt bereitgestellt werden, können sog. exclusive Function-Provider benutzt werden, die eine Fehlermeldung auslösen, wenn ein zweites 5 Weitere 6 Diese Datentypen sind für spätere Versionen geplant. eigenständige Bibliothek nennt sich pmpaf, was für poor man’s Pipes and Filters steht. (a) Ansicht für den Wizard. (b) Ansicht für den Proband. Abbildung 4: Das erste Experiment im UCUI. Objekt die Funktion übernehmen möchte. WoOF bietet eine einfache Sitzungsverwaltung an, die sicherstellt, dass ein Experiment mit einem neuen Probanden erst gestartet werden kann, wenn die Sitzung konfiguriert ist. Dazu müssen drei Parameter festgelegt werden, aus denen sich dann auch der Speicherort der Daten ergibt. Diese Parameter können über ein spezielles Board eingegeben oder automatisch über ein Modul gesetzt werden. Für die Sitzungsdaten existiert eine eigene Pipeline, bei der nur WoOF als Erzeuger und Verwerter auftreten kann, aber beliebige Objekte als Filter agieren können. Somit können auch halbautomatische Varianten mit einem Modul und einem Board umgesetzt werden. Das Framework läuft größtenteils ereignisgesteuert. Die Zustände eines Experiments (fertig geladen, Sitzung konfiguriert, Sitzung gestartet usw.) werden als Ereignisse an Module und Panel gemeldet, die wiederum ihre Controllers und Boards und diese wiederum ihre Controls benachrichtigen. Daten in einer Pipeline lösen ebenfalls ein Ereignis aus, das an den jeweils nächsten Filter bzw. alle Verwerter übermittelt wird. 4.2.3 Das Experiment Für die erste Projektphase wird ein Simulator benötigt, der den Probanden über ein Bild eine Aufgabenstellung präsentiert. Ebenso soll es möglich sein, dass das simulierte System über einen eingeblendeten Text eine Rückmeldung an die Versuchsteilnehmer gibt sowie eine Sprachausgabe übermitteln kann. Für den Wizard soll die Spracheingabe der Probanden hörbar, ein Videobild der Probanden sichtbar und die Möglichkeit, Rückmeldungen auszulösen, vorhanden sein. In Abbildung 4a sieht man das Panel für den Wizard. Links unten ist ein Board platziert, das ein Video des Probanden und die bereits abgelaufene Zeit anzeigt. Links oben sieht man ein Board, mit dem die beiden Audiokanäle überwacht werden können. Das große Board rechts vereint drei Elemente. Unten ist eine Control eingelagert, mit der die Bilder ausgewählt werden können, die dann auf dem Panel für den Probanden, zu sehen in Abbildung 4b, erscheinen.7 Oben rechts sieht man eine schematische Darstellung des Probanden-Panel und oben links die Control, mit der die Rückmeldungen ausgelöst werden können. Die vorgefertigten Rückmeldungen können für eine bessere Übersicht in Kategorien eingeteilt werden und bestehen neben einem Namen und einer Beschreibung aus zwei Zeichenketten und einer Audiodatei. Eine Zeichenkette wird als Text beim Probanden ausgegeben, die andere stellt die Transkription der Audiodatei dar und ist als Hilfestellung für den Wizard gedacht. Ist keine Audiodatei vorhanden, wird die Zeichenkette über eine Text-To-Speech Engine als Sprachausgabe an den Probanden gesendet. Die Zeichenketten können auch Variablen enthalten, die über ein weiteres Board, das nach der Auswahl einer Rückmeldung erscheint, über die 7 Die integrierte Netzwerkfähigkeit von LCARSWT erlaubt Panel auf unterschiedlichen Rechnern. Tastatur mit Werten belegt werden können. Die Textausgabe verschwindet automatisch nach einer festzulegenden Zeitdauer oder kann manuell über eine Schaltfläche entfernt werden. Dieses Verhalten wird über ein optionales Modul geregelt. Da beim Erstellen eines Experiments nicht an alle Eventualitäten gedacht werden kann, gibt es für den Wizard die Möglichkeit, direkt per Mikrofon zum Probanden zu sprechen. Damit zumindest klanglich alle Audioausgaben keine großen Unterschiede aufweisen, geht das Audiosignal vor der Übermittlung an den Probanden durch einen Vocoder. Dabei handelt es sich um eine externe Software der, am UCUI Projekt beteiligten, Firma Javox Solutions GmbH. 5 Zusammenfassung und Ausblick Wir haben mit WoOF ein Framework begonnen, mit dem man ein flexibles Werkzeug zur Hand hat, um Systemsimulatoren für Wizard of Oz Experimente zu erstellen, die in ihrem Verhalten und ihrem Funktionsumfang erweiterbar sind. Dadurch eignet sich WoOF insbesondere für die nutzergetriebene Systementwicklung, bei der sinnvollerweise nacheinander mehrere Experimente durchgeführt werden, wobei der Simulator immer mehr Züge des fertigen Systems annimmt. Für die weiteren Projektphasen werden wir WoOF durch die Einarbeitung der gemachten Erfahrungen und die Integration neuer Funktionalitäten verbessern. Module und Function-Provider sollen als optional markiert werden können und Objekte sollen die Möglichkeit bekommen, ihre Funktionen temporär abzulegen. Die Verarbeitung der Tastatur- und Touch-Eingaben soll an die Möglichkeiten von LCARSWT angepasst werden. Auch soll die Koppelung von mehreren Probanden-Panels integriert werden. Da die Probanden gefilmt werden, sollen sie sich nach Möglichkeit nicht zu viel bewegen, wenn sie per Touch-Eingabe mit dem System interagieren. Dies könnte durch ein zusätzliches Tablet erreicht werden, das den selben Bildschirminhalt darstellt wie der große Monitor, vor dem sie stehen, und die gleiche Interaktion wie mit dem Touch-Bildschirm ermöglicht. Die Basis hierfür ist bereits in WoOF enthalten. Literatur [1] F RASER, N. M. ; G ILBERT, G. N.: Simulating speech systems. In: Computer Speech & Language 5 (1991), Nr. 1, S. 81 – 99 [2] G REEN, A. ; H ÜTTENRAUCH, H. ; E KLUNDH, K. S.: Applying the Wizard-of-Oz framework to cooperative service discovery and configuration. In: Proceedings of the IEEE International Workshop on Robot and Human Interactive Communication, 2004, S. 575 – 580 [3] K ELLEY, J. F.: An Iterative Design Methodology for User-friendly Natural Language Office Information Applications. In: ACM Trans. Inf. Syst. 2 (1984), Jan., Nr. 1, S. 26 – 41 [4] M ANZESCHKE, A. ; W EBER, K. ; ROTHER, E. ; FANGERAU, H. : Ethische Fragen im Bereich Altersgerechter Assistenzsysteme / im Auftrag von VDI/VDE Innovation + Technik GmbH. Berlin, 2013. – Forschungsbericht [5] WATZLAWICK, P. ; B EAVIN, J. H. ; JACKSON, D. D.: Menschliche Kommunikation. 4., unveränd. Aufl. Bern [u.a.] : Huber, 1974 [6] W EBER, K. : Kommunikationswissenschaft. Bd. 1: Das Recht auf Informationszugang. Berlin : Frank & Timme, 2005 [7] W OLFF, M. : LCARS Widget Toolkit. https://github.com/matthias-wolff/ LCARSWT. Version: 2.1.0-rc.1
© Copyright 2024 ExpyDoc