Wie sieht die Technologie der Zukunft aus? Es wird vorhergesagt, dass bis 2018 der weltweite Absatz von privat genutzten Robotern auf 35 Millionen steigen wird.
Dazu zählen unter anderem Haushalts-, Freizeit- und Unterhaltungsroboter. Aber es gibt schon Unternehmen, wie SoftBank Robtics, die humanoide Roboter kreieren. Sie glauben an eine Zukunft, in der menschenähnlichen Roboter ständiger Begleiter der Menschen sein werden; sei es bei ihnen zuhause, in der Freizeit oder bei der Arbeit.
Hier stellt sich die Frage, inwieweit Menschen mit Robotern wirklich zusammenleben können und welchen Einfluss sie auf unser Leben, Verhalten und unsere Entscheidungen haben werden.
Aus diesem Grund konzentriert sich diese Forschungsarbeit auf das Entscheidungs-verhalten von Menschen, die mit einem Roboter interagieren. Hierfür wird das im Jahre 1982 experimentell umgesetzte Ultimatum-Spiel von Güth et al. herangezo-gen und angepasst. Der Fokus liegt darauf, inwiefern ein Roboter, der als Interme-diär zwischen zwei Teilnehmern agiert, die Entscheidung beeinflusst. In diesem Zusammenhang wurden zwei weitere Experimente, Face-to-Face und Anonym, ohne einen Roboter durchgeführt, um die Ergebnisse miteinander vergleichen und auswerten zu können. Anhand dieser Auswertung soll verdeutlicht werden, wie und in welcher Art und Weise sich die Entscheidung der Teilnehmer beeinflussen ließ.
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungsverzeichnis
Symbolverzeichnis
1 Einleitung
2 Theoretische Grundlagen
2.1 Human-Robot-Interaction
2.1.1 Soziale Robotik
2.1.2 Akzeptanz von Robotern
2.2 Ultimatum-Spiel
3 Untersuchungsgegenstand und Hypothesen
3.1 Informationen zum Untersuchungsgegenstand
3.2 Hypothesen
4 Experimentdesign
4.1 Allgemeine Informationen
4.2 Versuchsaufbau
4.2.1 Treatment Roboter als Vermittler (R)
4.2.2 Treatment Face-to-Face (F)
4.2.3 Treatment Anonym (A)
4.3 Technische Implementierung
4.3.1 NAO-Roboter
4.3.2 Programmierung
4.4 Durchführung
4.4.1 Auswahl der Teilnehmer
4.4.2 Experimentablauf
4.4.3 Auszahlung
5 Vergleich und Auswertung der Ergebnisse
5.1 Stichprobenbeschreibung
5.2 Entscheidungsverhalten der Spieler
5.2.1 Forderungsverhalten Spieler A
5.2.2 Annahmeverhalten Spieler B
5.3 Vergleich der Treatments
5.3.1 Durchschnittliche Forderung Spieler A
5.3.2 Annahmequote Spieler B
5.4 Auswertung der Hypothesen
5.4.1 Allgemeine Information
5.4.2 Auswertung Spieler A
5.4.3 Auswertung Spieler B
5.5 Auswertung und Beobachtung der Mensch-Roboter-Interaktion
5.5.1 Auswertung der offenen Fragen
5.5.2 Beobachtung der Probanden
5.6 Vergleich mit bisherigen Studien
6 Schluss
6.1 Kritische Würdigung der Arbeit
6.2 Zusammenfassung
6.3 Fazit
Literaturverzeichnis
Anhang
Abstract
This scientific paper is an experimental study based on the research fields of human-robot-interaction and game theory. The ultimatum game is expanded and a humanoid robot is used as an intermediary between the players. The aim of the experiment is to find out whether the decision of the participants is influenced by the robot. To investigate this research objective, two additional experiments, anonymous and face-to-face, were carried out on the subject of an ultimatum game, but without the participation of a robot. The statistical analysis of the results showed no significant differences in the decision-making. This was also confirmed by the majority of the participants who reported after the game that the robot had no influence on their decision. An additional finding was that the robot left a positive impression on the majority of subjects. Furthermore, it became apparent that with the robot as intermediary, when subjects were positively impressed and affected by it, their average level of requirement rate and acceptance rate increased.
Keywords: ultimatum game, robot, game theory, human-robot-interaction, uncanny valley
JEL-Classification: C78, C91, C12
Abstract
Diese wissenschaftliche Arbeit ist eine experimentelle Untersuchung, die auf den Forschungsfeldern der Mensch-Roboter-Interaktion und Spieltheorie basiert. Hierbei wird das Ultimatum-Spiel erweitert und ein Roboter als Intermediär zwischen den Spielern eingesetzt. Das Ziel dieses Experimentes ist rauszufinden, ob das Entscheidungsverhalten der Probanden durch den Roboter beeinflusst wird. Um dieses Forschungsziel untersuchen zu können wurden zwei weitere Experimente, Anonym und Face-to-Face, zum Thema Ultimatum-Spiel durchgeführt, jedoch ohne den Ein-satz eines Roboters. Bei der statistischen Auswertung der Ergebnisse wurde festgestellt, dass es keine signifikanten Unterschiede beim Entscheidungsverhalten gab. Dies konnte auch durch den größten Teil der Teilnehmer bestätigt werden, die nach dem Spiel angaben, dass der Roboter keinen Einfluss auf ihre Entscheidung hatte. Trotz dessen konnte nachgewiesen werden, dass der Roboter bei der Mehrheit der Probanden einen positiven Eindruck hinterließ. Gleichzeitig konnte festgestellt wer-den, dass Probanden, die durch den Roboter als Vermittler beeinflusst wurden und auch positiv beeindruckt waren, eine durchschnittlich höhere Forderung und Annahmequote hatten als das Gesamtergebnis des Treatment Roboters.
Schlagwörter: Ultimatum-Spiel, Roboter, Spieltheorie, Mensch-Roboter-Interaktion, Uncanny Valley
JEL-Klassifikation: C78, C91, C12
Abbildungsverzeichnis
Abbildung 1: Geminoid HI-2
Abbildung 2: Uncanny Valley
Abbildung 3: Spielablauf Roboter
Abbildung 4: Ultimatum-Spiel Anonym
Abbildung 5: Körperbau und Funktionen
Abbildung 6: Programmierung NAO
Abbildung 7: Naomarks
Abbildung 8: prozentuale Verteilung der Geschlechter
Abbildung 9: prozentuale Verteilung des Alters
Abbildung 10: prozentuale Verteilung der teilnehmenden Fachbereiche
Abbildung 11: Forderung Spieler A
Abbildung 12: Annahmeverhalten Spieler B
Abbildung 13: durchschnittliche Forderung Spieler A
Abbildung 14: Annahmequote Spieler B
Abbildung 15: Eindruck Roboter NAO
Tabellenverzeichnis
Tabelle 1: Entscheidungsverhalten Spieler A
Tabelle 2: Entscheidungsverhalten Spieler B
Tabelle 3: T-Test Werte aller Treatments
Tabelle 4: Benötigte Werte aller Treatments
Tabelle 5: Vergleich diverser Studien
Abkürzungsverzeichnis
illustration not visible in this excerpt
Symbolverzeichnis
illustration not visible in this excerpt
1 Einleitung
Wie sieht die Technologie der Zukunft aus? Es wird vorhergesagt, dass bis 2018 der weltweite Absatz von privat genutzten Robotern auf 35 Millionen steigen wird. Dazu zählen unter anderem Haushalts-, Freizeit- und Unterhaltungsroboter (IFR Statistical Department, 2015). Aber es gibt schon Unternehmen, wie SoftBank Robtics, die humanoide Roboter kreieren. Sie glauben an eine Zukunft, in der menschenähnlichen Roboter ständiger Begleiter der Menschen sein werden; sei es bei ihnen zuhause, in der Freizeit oder bei der Arbeit (SoftBank Robotics Europe, 2016). Hier stellt sich die Frage, inwieweit Menschen mit Robotern wirklich zusammenleben können und welchen Einfluss sie auf unser Leben, Verhalten und unsere Entscheidungen haben werden.
Aus diesem Grund konzentriert sich diese Forschungsarbeit auf das Entscheidungsverhalten von Menschen, die mit einem Roboter interagieren. Hierfür wird das im Jahre 1982 experimentell umgesetzte Ultimatum-Spiel von Güth et al.[1] herangezogen und angepasst. Der Fokus liegt darauf, inwiefern ein Roboter, der als Intermediär zwischen zwei Teilnehmern agiert, die Entscheidung beeinflusst. In diesem Zusammenhang wurden zwei weitere Experimente, Face-to-Face und Anonym, ohne einen Roboter durchgeführt, um die Ergebnisse miteinander vergleichen und auswerten zu können. Anhand dieser Auswertung soll verdeutlicht werden, wie und in welcher Art und Weise sich die Entscheidung der Teilnehmer beeinflussen ließ.
Im Rahmen dieser Arbeit werden zunächst die theoretischen Grundlagen erläutert. Hier wird die Mensch-Roboter-Interaktion erklärt und inwieweit Menschen einen Roboter in ihrem Umfeld akzeptieren und ab welchem Zeitpunkt sie einen negativen Eindruck von ihnen erhalten oder diese verabscheuen. Weiterhin wird auf das Ultimatum-Spiel und dessen Aufbau, sowie Regeln eingegangen. Im dritten Kapitel werden allgemeine Informationen zum Untersuchungsgegenstand und die Hypothesen betrachtet. Im vierten Teil dieser Arbeit wird das Experimentdesign vorgestellt. Hierbei werden die allgemeinen Regeln erklärt, sowie der Versuchsaufbau aller drei Treatments. Im nächsten Schritt wird die Funktionsweise und Programmierung des Roboters, aber auch die Durchführung der einzelnen Experimente beschrieben. Im fünften Kapitel werden die Daten und Ergebnisse analysiert. Hierbei wird auch das Verhalten der jeweiligen Spielergruppen untersucht und die Experimente miteinander verglichen und erfahren eine statistische Auswertung. Diese Untersuchung wird abgeschlossen, indem die eigene Studie mit vorhandenen Experimenten zum Thema Ultimatum-Spiel verglichen wird. Im letzten Kapitel der Arbeit wird eine Antwort auf die Ausgangsfrage gegeben. Dazu wird ein Fazit zu dieser Untersuchung gezogen und die Forschungsarbeit kritisch hinterfragt.
2 Theoretische Grundlagen
2.1 Human-Robot-Interaction
Als Roboter wird im Duden eine Apparatur bezeichnet, die ein menschenähnliches Erscheinungsbild besitzt. Darüber hinaus können jene Apparaturen, nach dieser Definition, bestimmte Aufgaben bzw. Funktionen bewerkstelligen, die im Normalfall von Menschen erledigt werden (Dudenverlag, 2016). Die Definition der Robotik hat ihren eigentlichen Ursprung aus dem Stück R.U.R. – Rossum’s Universal Robots von Karel Capek aus dem Jahre 1921. Die Geschichte handelt von menschenähnlichen Maschinen, die erschaffen wurden den Menschen zu dienen und für sie zu arbeiten. Das Unternehmen Rossum entwickelte die perfekten Roboter, die aber im Laufe der Zeit gegen die Menschen rebellierten (Haun, 2007, S. 14-15).
Heutzutage sind Roboter bereits in der Lage diverse Aufgaben in unserer Ge-sellschaft wahrzunehmen. Sie werden nicht nur in der Fabrikautomation eingesetzt, sondern auch im Dienstleistungsbereich, in der medizinischen Versorgung bis hin zum Bereich der Unterhaltung. Wenn bedacht wird, dass Roboter vor einigen Jah-ren eingesetzt wurden um Routineaufgaben unter der Führung von Menschen durchzuführen, umso bemerkenswerter ist es, dass diese Apparaturen viel stärker bei komplexeren und weniger strukturierten Aufgaben und Tätigkeiten involviert werden. In dem möglicherweise auch eine Interaktion mit Menschen notwendig ist, um diese abschließen zu können. Diese Komplexität nimmt diese Arbeit zum An-lass um zu betrachten, wie Menschen mit Robotern interagieren und wie Ro-botersysteme bestmöglichst gestaltet und implementiert werden sollten, um inter-aktive Aufgaben im menschlichem Umfeld zu erfüllen. Diese interdisziplinäre Stu-die über die Interaktionsdynamiken zwischen Mensch und Roboter gehört zum For-schungsgebiet der Human-Robot-Interaction[2] (Feil-Seifer & Mataric, 2009, S. 1-2). Dieser relativ junge Forschungsbereich weist Schnittpunkte mit den Bereichen Ro-botik, Engineering, Informatik, Psychologie, Linguistik, Ethologie und anderen Fachgebieten auf und untersucht soziales Verhalten, Kommunikation und Intelligenz in natürlichen und künstlichen Systemen (Dautenhahn, 2007, S. 683). Darüber hinaus verfolgt sie das Ziel, Grundsätze und Algorithmen für Robotersysteme zu entwickeln, damit diese fähig sind eine direkte, sichere und effektive Interaktion mit Menschen zu führen (Feil-Seifer & Mataric, 2009, S. 1-2)
Ferner kann dieses Forschungsgebiet in die Richtungen Robot-centred HRI, Human-centred HRI und Robot cognition-centred HRI unterteilt werden. Diese werden nun näher erläutert.
Robot-centred HRI
Diese Richtung der HRI Forschung betrachtet den Roboter als ein eigenständiges Wesen. Er verfolgt eigene Ziele, die auf seine Motivationen, Antriebe und Emo-tionen basieren. Der Fokus liegt darauf, dass der Roboter die Interaktion mit Men-schen nutzt um seine eigenen Bedürfnisse zu befriedigen und in einem gesell-schaftlichen Umfeld zu recht zu kommen (Dautenhahn, 2007, S. 683-684).
Robot cognition-centred HRI
Roboter als intelligente Systeme, d.h. sie fällen ihre eigene Entscheidungen und sind in der Lage Probleme zu lösen, die bei einer bestimmten Aufgabe auftreten können. Die Architektur intelligenter Systeme im Bereich der Robotik zu entwickeln gilt hier als Herausforderung. Des Weiteren stellt sich die spezifische For-schungsfrage, wie die Entwicklung des maschinellen Lernens und der Problem-lösung aussehen könnte (Dautenhahn, 2007, S. 684).
Human-centred HRI
Dieser Forschungsbereich beschäftigt sich vordringlich damit, wie ein Roboter seine Aufgaben erfüllen kann, sodass es akzeptabel und komfortabel für den Men-schen ist. Es wird untersucht, wie Menschen auf das äußere Erscheinungsbild des Roboters reagieren und dessen Verhalten interpretieren. Die Herausforderungen be-stehen unter anderem darin, ein ausbalanciertes, sowie konsistentes Design des Ver-haltens und Aussehens eines Roboters zu finden; Konstruierung einer Verhal-tensweise, die gesellschaftlich akzeptiert wird und die Vermeidung von uncanny valley. Dieser Begriff besagt, dass ein zu sehr menschenähnlicher Humanoid-Robo-ter ein Gefühl des Abscheus und Unbehagens bei Menschen hevorrufen kann (Dautenhahn, 2007, S. 684). Dies wird im Unterkapitel 2.1.2 genauer erläutert.
Des Öfteren werden die Einzeldisziplinen der HRI-Forschung in weitere Aufgaben-bereiche aufgeteilt und erst in späteren Stadien zusammengefügt. Diese Vorgehens-weise birgt das Risiko, dass die Zusammensetzungen unterschiedlicher Systeme nicht im vollem Umfang integrierbar sind und so zu einem unausgewogenen De-sign des Roboters führen kann. Ein solcher synthetischer Ansatz benötigt eine Zu-sammenarbeit während des ganzen Lebenszyklus eines Roboters. Dies stellt weiter-hin eine große Herausforderung dar. Trotz dessen umfasst ein wirklich interdisziplinärer Aspekt, eine Synthese aus allen drei Einzeldisziplinen, damit die Prognose, dass in der Zukunft eine große Anzahl an Robotern den Lebensraum mit uns teilen, verwirklicht werden kann (Dautenhahn, 2007, S. 684). Bei der Argumentation, dass es schon einige Service-Roboter gibt die im menschlichen Umfeld eigenständig arbeiten, wie z.B. Staub saugen oder Rasen mähen. An dieser Stelle sei angemerkt, dass diese nicht für eine Mensch-Roboter-Interaktion entwickelt wurden. Diese identifizieren den Menschen als ein Hindernis und nicht als soziales Wesen mit dem kommuniziert bzw. zusammengearbeitet werden sollte (Breazeal, 2004, S. 181). Roboter, bei denen die Interaktion mit Menschen im Vordergrund steht, werden im folgenden Unterkapitel vorgestellt.
2.1.1 Soziale Robotik
Im vorherigen Abschnitt wurde erläutert, dass Roboter heutzutage in diversen Gebieten eingesetzt werden. Der folgende Teil der Arbeit konzentriert sich auf soziale Robotik die in das menschliche Umfeld eingesetzt und integriert werden soll. Bartneck und Forlizzi definieren den Begriff wie folgt:
„A social robot is an autonomous or semi-autonomous robot that interacts and communicates with humans by following the behavioral norms expected by the people with whom the robot is intended to interact.“
(Bartneck & Forlizzi, 2004, S. 592)
Diese Definition besagt indirekt, dass ein social robot eine physische Verkörperung besitzt und eigenständig ist. Im Falle eines teilautonomen Roboters, kann dieser als sozial definiert werden, wenn er ein akzeptables Maß von gesellschaftlichen Normen für die Kommunikation beherrscht. Zudem ist von enormer Wichtigkeit, dass Roboter mit Menschen interagieren und kommunizieren, damit sie nach dieser Definition als social robots akzeptiert werden (Bartneck & Forlizzi, 2004, S. 592). Dautenhahn geht einen Schritt weiter und definiert, welche grundlegende Funktionen ein social robot mit sich bringen sollte:
Lernfähigkeit, Emotionen zeigen und erkennen, soziale Kontakte aufbauen und auf-recht halten, verbale und nonverbale Kommunikation beherrschen und erkennen, eine/n ausgeprägte/n Persönlichkeit und Charakter vorweisen und soziale Kompetenzen erlernen und selbständig weiterentwickeln (Dautenhahn, 2007, S. 684).
Damit all diese Ziele erreicht werden können, müssen einige Anforderungen erfüllt werden. Einer der wichtigsten Kriterien ist ein System zu entwickeln, dass eine so-ziale Interaktion in Echtzeit ermöglicht und niedrige Latenzzeiten vorweist. Würde dieses Kriterium nicht erfüllt werden, könnte bei einer sozialen Interaktion eine Verzögerung von wenigen Sekunden schon für Schwierigkeiten sorgen. Eine weitere Voraussetzung wäre, dass ein sozialer Roboter in einem komplexen, geräuschvollen und unübersichtlichem Umfeld existieren muss, in dem Menschen leben (Scassellati, 2001, S. 22). Ein gutes Beispiel für solch einen Roboter ist der Museumsroboter Fritz, der Besucher durch ein Museum führen soll. Fritz kann mit mehreren Menschen gleichzeitig interagieren und Gesichter in seiner näheren Umgebung erkennen. Nicht zuletzt kann er durch eine eingebaute Geräuschelokalisierung seine Blicke zu denen wenden, die gerade sprechen. Leider ist die Spracherkennung sehr instabil, sodass bei einem erhöhtem Lärmpegel oder bei schwierigen und komplexeren Sätzen, Fragen nicht mehr verstanden werden können (Weber, 2006, S. 147).
Ein weiterer wichtiger Aspekt ist das Design des Roboters. Menschen müssen in der Lage sein das Verhalten des Roboters richtig zu interpretieren und darauf rea-gieren zu können. Seien es einfache Gesten wie ein Kopfnicken oder eine bestimmte Blickrichtung, damit eine Interaktion erhalten bleibt (Scassellati, 2001, S. 22-23). Da soziale Roboter in der Gesellschaft integriert und akzeptiert werden sollen, ist es wichtig, dass sie eine menschenähnliche Form besitzen. Humanoide Roboter werden von Menschen eher akzeptiert, da diese ein vertrautes Erscheinungsbild und Bewegungsmuster zeigen (Haun, 2007, S. 13).
Im übrigen ist ein menschenählicher Roboter ein geeignetes Instrument für For-scher, aus dem Bereich der humanoiden Robotik, um ein besseres Verständnis der menschlichen Intelligenz zu erlangen. Wissenschaftler, Entwicklungspsyschologen und Sprachforscher haben eine enge Verknüpfung zwischen dem menschlichen Körper und dessen Wahrnehmung gefunden. Daher gehen sie davon aus, dass diese Maschinen im Stande sind ähnliche Mechanismen in Verbindung mit der künstli-chen Intelligenz zu nutzen. Dafür müssten humanoide Roboter ein menschenähn-liches Gerüst erhalten und in einem menschlichen Umfeld eingegliedert werden (Kemp et al., 2008, S. 1308).
2.1.2 Akzeptanz von Robotern
Im bisherigen Teil war das Augenmerk auf den Bereich der HRI-Forschung, sowie die Entwicklung von social robots und humanoide Robotik und deren Integration im menschlichen Umfeld gerichtet. In diesem Abschnitt wird erläutert, inwiefern die Gesellschaft humanoide Roboter akzeptiert und ab welchem Punkt es bei den Menschen ein Effekt der Beklemmung und Abstoßung auslöst (uncanny valley).
Einige Studien der letzten Jahre untersuchen den Einfluss von Robotern auf die Bevölkerung. Der Fokus lag nicht nur auf die soziale Akzeptanz von Robotern oder was für ein Verhalten oder Empfinden sie bei den Menschen auslösen, sondern auch wie unterschiedlich die Interaktion zwischen Mensch und Roboter in verschiedenen Kulturen ist (Nomura et al., 2015, S. 115). Eine Umfrage die hervorzuheben ist, stellt die „Public Attitude towards Robots“ dar, die 2012 durch die General-direktion Informationsgesellschaft und Medien in Auftrag gegeben wurde. Es wurden Menschen aus den damaligen 27 Mitgliedsstaaten der Europäischen Union befragt. Es stellte sich heraus, dass 70% der europäischen Bevölkerung ein positives Bild von Robotern haben (TNS Opinion & Social, 2012, S. 17). Die Mehrheit der Befragten stimmten der Aussage zu, dass Roboter notwendig sind um Arbeiten zu erledigen, die zu schwer oder gefährlich für Menschen sind. Obwohl das allgemeine Meinungsbild gegenüber Robotern eher positiv ausfällt, existieren dennoch große Bedenken. Der Aussage, dass Roboter Arbeitsplätze vernichten, stimmten 78% der Bevölkerung zu und 91% befanden, dass diese Form der Technologie einen sorgsamen Umgang erfordert (TNS Opinion & Social, 2012, S. 21). Der Anwendungsbereich für Roboter, ein weiterer wichtiger Bereich, wurde in dieser Befragung auch untersucht. Es stellte sich heraus, dass 60% der Befragten gegen einen Einsatz von Robotern in Betreuungseinrichtungen sind. Dabei ist es irrelevant, ob es sich um das Betreuen von Kindern, Senioren oder behinderten Menschen handelt (TNS Opinion & Social, 2012, S. 4). In dieser Umfrage wird erkenntlich, das Roboter als Maschinen gesehen werden, die schwere und gefährliche Arbeit erledigen sollen, aber sie werden nicht als soziale Interaktionspartner bzw. als hilfreiche Assistenten im Gebiet der Betreuung akzeptiert.
HRI-Forscher wollen diese Einstellung der Menschen ändern und nutzen verschie-dene Hilfsmittel, damit Roboter gesellschaftlich akzeptiert werden. Ein wichtiges Werkzeug für die Akzeptanz von Robotern ist, dass das Aussehen den vorgesehenen Funktionen entsprechen sollte, damit Benutzer mit Leichtigkeit erkennen kön-nen, welchen Zweck dieser erfüllt (Riek & Robinson, 2008, S. 1-2). Hier wird als Beispiel eine Waschmaschine genannt, die anfängt sich in einem physischem Raum zu bewegen. Dies würde dazu führen, dass diese Maschine ihre gewohnte Rolle verlässt und den Menschen dazu veranlasst, seine Einstellung und Umgang mit die-sem Gerät signifikant zu ändern (Duffy B. , 2003, S. 181). Dies bedeutet, dass ein Roboter, bei dem die soziale Interaktion im Vordergrund steht, ein menschen-ähnliches Design besitzen sollte. So würde sich der Benutzer wohlfühlen, wenn er mit dem Roboter interagiert (Fong et al., 2003, S. 149-150). Bei einer Mensch-Roboter-Interaktion, sollten die sozialen gesellschaftlichen Erwartungen von der Technik erfüllt werden, damit der Benutzer die Interaktion unterhaltsam und pro-duktiv findet. Dies ist einer der Gründe, wieso zunehmend mehr Roboter mit Ge-sichtern, Spracherkennung, Fähigkeit des Lippenlesens und weiteren Eigenschaften ausgestattet werden, damit diese Mensch-Roboter-Interkation, menschenähnliche Charakterzüge annimmt. Auf der anderen Seite ist es wichtig, dass das Design nicht zu menschenähnlich ist und erkannt werden kann, dass es sich um einen Roboter handelt. Dies ist notwendig, um falschen Erwartungen bezüglich der Fähigkeiten des Roboters vorzubeugen (Fong et al., 2003, S. 146-147). Forscher, die versuchen exakte Kopien von Menschen zu konstruieren existieren ebenfalls. Zu diesen gehört Hiroshi Ishiguro, der ein Ebenbild von sich erstellte, den Geminoid HI-2. Wie in Abbildung 1 zu sehen ist, sind beide auf dem ersten Blick kaum zu unterscheiden. Die Oberfläche des Geminoiden (rechts) wurde mit einer Silikonhaut überzogen und wie ein menschliches Wesen eingekleidet (ATR Hiroshi Ishiguro Laboratory, 2016).
Abbildung 1: Geminoid HI-2
illustration not visible in this excerpt
Quelle: ATR Hiroshi Ishiguro Laboratory, 2016
Ishiguro und seine Forschungsgruppe führten mit einem ähnlichen Androiden, die eine Kopie von einer bekannten Nachrichtensprecherin darstellt, ein Experiment mit 20 Probanden durch. Bei diesem Versuch realisierte ein Großteil der Probanden nicht, dass es sich um einen Roboter handelte, aber der andere Teil, die eine Ano-malie bemerkten, fühlten sich unbehaglich und unwohl (Weber, 2006, S. 148).
Die Theorie zu diesem Gefühl des Abscheus, dass durch ein zu sehr menschen-ähnliches Gebilde entsteht, wurde im Jahre 1970 von Mashiro Mori formuliert und nennt sich uncanny valley. Er stellte die Hypothese auf, dass Roboter, die sich einer menschenähnlichen Ästhetik und Natürlichkeit annähern, aber diese verfehlen, ei-ner negativen Reaktion von Menschen ausgesetzt werden. Er zeigt mit dem Gra-phen in Abbildung 2, dass bei der Konstruktion von menschenähnlichen Robotern, die Vertrautheit bis zu einem bestimmten Punkt steigt und dann abrupt in ein tiefes Tal fällt, was Mori als uncanny valley bezeichnet (Mori et al., 2012, S. 98).
Abbildung 2: Uncanny Valley
illustration not visible in this excerpt
Quelle: Mori et al., 2012, S.99
In Abbildung 2 wird deutlich, dass die Affinität (Affinity) und Menschenähnlich-keit (Human Likeness) bei Industrierobotern (Industrial Robot) sehr gering ist. Das Design dieser Maschinen basiert auf Funktionalität und sehen menschlichen Lebe-wesen kaum ähnlich. Dies ist einer der Gründe, warum sich Menschen mit dieser Art von Robotern nicht identifzieren können. Die Frage hierbei ist aber, wann eine menschenähnliche Gestalt die Affinität in den negativen Bereich treibt. Mori nennt hier als Beispiel eine Prothesenhand (Prosthetic Hand), die wie eine menschliche konstruiert wurde und deshalb kaum unterscheidbar ist. Wenn Menschen aber herausfinden, dass es sich um eine Prothese handelt, dann verspüren sie ein unan-genehmes Gefühl und dies führt zu einer Affinität die sich im negativen Bereich befindet (Mori et al., 2012, S. 98-99).
Des Weiteren zeigt diese Grafik, dass die Kurve sich verstärkt verändert, insbeson-dere im Extremum, wenn der Roboter sich bewegt (Moving). Übertragen auf das Beispiel der Prothesenhand würde dies bedeuten, dass bei einer Bewegung das Ge-fühl des Unheimlichen ebenfalls steigt (Myoelectric Hand). Mori stellt sogar die Theorie auf, dass bei der Konstruktion eines zu sehr menschenähnlichen Roboters, das Gefühl der Beängstigung und Verunsicherung durch die Bewegungen der Ma-schine verstärkt wird. Wie in Abbildung 2 dargestellt, ähnelt solch ein Roboter ei-nem Zombie und verursacht damit sogar mehr Abneigung als vor einer Leiche (corpse). Mori empfiehlt hier sehr eindeutig, dass die Designer die erste Spitze an-peilen sollten und nicht das Risiko des uncally valleys auf sich nehmen sollten, weil sie die höchste Spitze der Menschenähnlichkeit erreichen wollen. Er schlägt vor, das Ziel zu verfolgen, ein nichtmenschliches Design zu konstruieren um eine sichere und stabile Ebene der Vertraulichkeit zu kreieren und somit das uncanny valley zu vermeiden (Mori et al., 2012, S. 99-100).
Auch Brian R. Duffy vertritt Mori’s Meinung, indem er argumentiert, dass Anthropomorphismus, also eine Vermenschlichung der Gestalt, nicht die Lösung für alle Probleme der Mensch-Roboter-Interaktion ist. Er schlägt auch vor, dass die For-schung sich vordringlich auf die Funktionen der Roboter konzentrieren sollte, damit eine Interaktion zwischen Mensch und Maschine möglich wird (Duffy B. , 2003, S. 181). Dies würde bedeuten, dass ein Roboter konstruiert werden sollte, dessen me-chanischen Vorteile ausgeschöpft werden und auf der anderen Seite ein Design kreiert, dass so wenig wie möglich dem menschlichem Körper ähnelt, damit sie von der Gesellschaft akzeptiert werden (Duffy B. R., 2006, S. 33). Einige Forscher schlagen sogar vor, dass diese Art von Robotern ein tierhaftes Erscheinungsbild be-sitzen sollten, um das uncanny valley zu umgehen. Der Grund dafür ist, dass eine Mensch-Tier-Beziehung unkomplizierter ist als eine Mensch-Mensch-Beziehung und auch die Erwartungen gegenüber einem Tier viel geringer sind als bei einem Menschen. Eine weitere Möglichkeit, um ein menschenähniches Design zu vermei-den, ist ein Roboter zu konstruieren, der einer Karikatur bzw. einer animierten Fi-gur ähnelt (Fong et al., 2003, S. 150).
2.2 Ultimatum-Spiel
Das Ultimatum-Spiel stammt aus dem Bereich der Spieltheorie und wurde im Jahre 1982 von Güth et al. experimentell umgesetzt und ist seitdem einer der gebräuchlichsten Verhandlungsspiele (Andersen et al., 2011, S. 3427). Das folgende Zitat aus der Studie von Güth et al. erklärt detailliert die Bedeutung der Begriffe Verhandlungsspiel und Ultimatum-Spiel:
„A game in strategic or extensive form, which is played to solve a distribution problem, is called a bargaining game. Such a game has perfect information if all information sets are singletons, i.e., there are no simultaneous decisions and every player is always completely informed about all the previous decisions. Consider a bargaining game with perfect information whose plays are all finite. Such a game is called an ultimatum bargaining game if the last decision of every play is to choose between two predetermined results.“ (Güth et al., 1982, S.367).
Die Regeln für das Ultimatum-Spiel sind recht simpel, da sich zwei Spieler lediglich darauf einigen müssen, wie sie ein bestimmtes Gut, z.B. Geld, untereinander aufteilen. Spieler A (Proposer), erhält eine bestimmte Anzahl X an Gütern und darf entscheiden, wie viel er davon behält und wie viel er an Spieler B (Responder), ab-gibt. Daraufhin macht der Proposer dem Responder ein Angebot, dieser kann er entweder an- oder ablehnen. Nimmt er das Angebot an, dann wird das entsprechende Gut unter den beiden Spielern, dem Angebot entsprechend, aufgeteilt. Lehnt der Responder aber dieses Angebot ab, erhalten beide Spieler nichts (Nowak et al., 2000, S. 1773). Wird in diesem Spiel von rein rationalen handelnden Spielern aus-gegangen, dann würden beide Spieler eine Nutzenmaximierung anstreben, d.h. der Proposer würde den größtmöglichen Teil des Betrages behalten wollen und den ge-ringstmöglichen Betrag dem Responder anbieten. Spieler B, der seinen Nutzen maximieren will, würde diesen minimalen Betrag in jedem Fall annehmen (Güth et al., 1982, S. 372). In der Realität sieht es anders aus.
Im Experiment, das durch Güth und seine Kollegen durchgeführt wurde, haben die Teilnehmer nicht rational gehandelt. Die Spieler haben zwei Runden des Ultimatum-Spiels gespielt, mit einem Abstand von einer Woche und mit verschiedenen Gegnern. In jeder Runde wurden 21 Spiele gespielt und der zu verteilende Geldbetrag betrug zwischen vier und zehn DM. In der ersten Runde wurden aus den 21 Forderungen nur zwei durch den Responder abgelehnt. Des Weiteren gab es zwei Proposer die den vollen Betrag gefordert hatten, aber nur eins davon akzeptiert wurde. Mehr als 25% der Proposer boten eine 50:50 Verteilung an und diese wurden alle von den Gegenspielern akzeptiert. Die durchschnittliche Auszahlung für den Proposer betrug in der ersten Runde 4,38 DM und in der nächsten 5,05 DM. In der zweiten Runde war die durchschnittliche Auszahlung höher, da die Spieler mehr forderten, aber dabei muss berücksichtigt werden, dass sechs Angebote durch den Responder abgelehnt wurden (Güth et al., 1982, S. 375-376).
In weiteren Experimenten konnte das gleiche Phänomen beobachtet werden. Die Proposer boten durchschnittlich 30-40% des Gesamtbetrages an und oftmals trat eine 50:50-Verteilung auf. Auf der anderen Seite lehnen Responder größtenteils alle Angebote unter 20% ab (Camerer & Thaler, 1995, S. 210). Dies zeigt eindeutig, dass Menschen nicht rational handeln, sondern eher durch Fairness und Gerechtigkeit geleitet werden und bei Nichteinhaltung den Anderen bestrafen. Für das Ultimatum-Spiel gilt das für beide Teilnehmer, da der Responder einen fairen Betrag vom Gegenspieler erwartet und wenn dies nicht geschieht, lehnt dieser das Angebot ab. Auf der anderen Seite möchte der Proposer keinen Konflikt eingehen und bietet mindestens einen Betrag an, den der Responder nicht ablehnen kann, da die Kosten für eine Ablehnung zu hoch wären (Güth et al., 1982, S. 384).
Im theoretischen Teil dieser Arbeit wurden zwei wichtige Themen ausführlich diskutiert. Einerseits wurde unter dem Aspekt des Forschungsgebiets der HRI, die soziale Robotik und dessen Wirkung auf Menschen erläutert und auf der anderen Seite das Ultimatum-Spiel. Beim letzteren Thema konnte man feststellen, dass die Teilnehmer, diverser experimenteller Versuche sich nicht, wie in der Theorie beschrieben, rational verhalten hatten. In dieser Abhandlung werden die Folgen einer Verschmelzung beider Themen betrachtet.
3 Untersuchungsgegenstand und Hypothesen
3.1 Informationen zum Untersuchungsgegenstand
In der Vergangenheit wurden einige Experimente durchgeführt, in denen das Verhalten von Menschen gegenüber Computern in einem Ultimatum-Spiel untersucht wurde. Hierbei stellte sich heraus das unfaire Angebote, die durch Menschen gemacht wurden, signifikant höher abgelehnt wurden als die Angebote von den Computern. Die Forscher stellten hier die Vermutung auf, dass die Teilnehmer viel sensitiver auf die unfaire Entscheidung der Menschen reagieren als bei Computern (Sanfay et al., 2003, S. 1756). Im Jahre 2013 wurde ein ähnliches Experiment durchgeführt, mit dem Unterschied, dass ein humanoider Roboter, als weitere Kom-ponente, miteinbezogen wurde. Die Forscher untersuchten wie die menschlichen Teilnehmer auf Roboter, die als Proposer handeln, reagieren. Des Weiteren wurde geprüft, wie unterschiedlich die Antwortmuster der drei Versuche, Mensch vs. Mensch, Mensch vs. Computer und Mensch vs. Roboter, waren und ob diese Ent-scheidung von der menschlichen Gestalt des Roboters beeinflusst wurde. Bei die-sem Versuch konnte festgestellt werden, dass Angebote von Robotern öfters angenommen wurden als die von Computern. Hier stellten die Forscher die Hypothese auf, dass die Reaktion eines Teilnehmers, auf das Angebot eines Roboters, dem gleichen Muster ähnelt wie bei einem Menschen. Es wurde davon ausgegangen, dass die menschenähnliche Gestalt des Roboters eine wichtige Rolle spielte. Die Teilnehmer wussten wie auf das Angebot eines Menschen reagiert wird und nutzen es als Orientierungshilfe bei Robotern (Torta et al., 2013, S. 211-216). Diese Abhandlung beschäftigt sich weniger mit einem Roboter, der als Proposer agiert, sondern als Vermittler zwischen zwei menschlichen Teilnehmern. Bei diesem Experiment stellt sich die Frage, inwiefern die Entscheidung des Proposers und Responder beeinflusst wird, wenn eine Mensch-Roboter-Interaktion stattfindet. Um diese Fragestellung untersuchen zu können, werden insgesamt drei Varianten des Ultimatum-Spiels durchgeführt und analysiert:
- Roboter als Vermittler (R)
- Face-to-Face (F)
- Anonym (A)
Die Variante R (Roboter als Vermittler) wurde bereits im oberen Abschnitt genauer erläutert. Die zwei weiteren, also Face-to-Face und Anonym werden ohne Zuhilfenahme eines Roboters gespielt. Dies hat den Vorteil, dass durch diverse Treatments eine Beobachtung aller Entscheidungen beider Parteien möglich ist. Des Weiteren könnte behauptet werden, dass die Mensch-Roboter-Interaktion genau zwischen den anderen beiden Treatments liegt. Das bedeutet, dass bei einem anonymen Spiel sich dich Teilnehmer nicht sehen können und somit auch nicht wissen, gegen wen sie spielen. Beim Versuch R wird ein humanoider Roboter als Vermittler eingesetzt, der die Entscheidung von einem Spieler zum anderen überbringt. Da der Roboter menschenähnlich ist, kann davon ausgegangen werden, dass dieser Versuch dem Face-to-Face Experiment am nächsten kommt.
3.2 Hypothesen
Wie in Unterkapitel 2.1 erläutert, gibt ein großer Teil der Proposer ein faires Angebot ab um eine Ablehnung durch den Responder zu verhindern. Folglich würde das natürlich bedeuten, dass bei einer höheren Forderung durch den Proposer, die Annahmequote sinkt. Hier stellt sich die Frage wie beide Spieler auf einen Roboter, der als Vermittler auftritt, reagieren und ob deren Entscheidung beeinflusst wird. Um dies untersuchen können, werden folgende Hypothesen geprüft:
a) Proposer-Verhalten
1. : In Treatment R ist die durchschnittliche Forderung von Spieler A (Proposer) signifikant höher bzw. niedriger als in Treatment F und A.
2. : In Treatment R ist die durchschnittliche Forderung von Spieler A (Proposer) gleich den durchschnittlichen Forderungen von Treatment F und A.
b) Responder-Verhalten
1. : In Treatment R ist die Annahmequote von Spieler B (Responder) signifikant höher bzw. niedriger als in Treatment F und A.
2. : In Treatment R ist die Annahmequote von Spieler B (Responder) gleich den Annahmequoten von Treatment F und A.
Die Hypothesen und könnten auftreten, wenn ein Uncanny Valley-Effekt bei den Spielern ausgelöst wird, der im Unterkapitel 2.1.2 bereits Erläuterung fand. Inwiefern die Entscheidung der Spieler durch diesen Effekt beeinflusst wird, wurde noch nicht erforscht. Daher wird die Behauptung aufgestellt, dass beim Eintreten des Effekts die Spieler entweder rationaler handeln und somit ihr Nutzen maximieren wollen oder durch dieses Gefühl des Unbehagens irrational und nicht eigennützig handeln. Bei den Hypothesen und wird davon ausgegangen, dass die Spieler genau wissen, dass der Roboter nur als Vermittler auftritt und sie gegen einen menschlichen Gegner spielen. Somit würde das bedeuten, dass die Entscheidung allein von den Spielern getroffen wird und sie in ihrer Entscheidung nicht durch den Roboter beeinflusst werden. Daher sollten bei dieser Hypothese keine signifikanten Unterschiede entstehen.
4 Experimentdesign
4.1 Allgemeine Informationen
In diesem Teil wird der Aufbau und die genauen Regeln aller drei Treatments, die im Unterkapitel 3.1. genannt wurden, erläutert. Des Weiteren wird näher auf den, für den Versuch benötigten, Roboter NAO und dessen Programmierung eingegangen. Bei allen drei Treatments wird sichergestellt, dass folgende allgemeine Regeln eingehalten werden:
a) Die Teilnehmer besitzen identische Informationen über den Spielverlauf.
b) Jedes Spiel wird auf eine Runde begrenzt.
c) Es dürfen keine Diskussionen und Verhandlungen geführt werden.
d) Der Auszahlungsbetrag wird auf maximal 100 Cent festgelegt und es dürfen nur ganze Cent-Beträge ausgegeben werden.
4.2 Versuchsaufbau
4.2.1 Treatment Roboter als Vermittler (R)
Dieser Versuch betrachtet hauptsächlich die Mensch-Roboter-Interaktion. Daher wird ein humanoider Roboter genutzt. Das Experiment wird in einem geschlossenen Raum durchgeführt, wobei die zwei Spieler einzeln eintreten und sich keine weiteren Personen, außer dem Spielleiter, in diesem Raum aufhalten. Um eine Anonymisierung zu gewährleisten und verbale wie nonverbale Verhandlungen und Absprachen zu verhindern, wird eine Trennwand zwischen den beiden Spielern auf-gestellt. Vor Beginn des Spiels werden die Spielregeln und die Vorgehensweise an die Spieler schriftlich ausgegeben und der Spielleiter erklärt den Teilnehmern kurz was bei dem Roboter beachtet werden muss. Hierbei handelt es sich ausschließlich um Bedienhinweise, um einen reibungslosen technischen Ablauf zu gewährleisten. Ein Betrag von 100 Cent muss von Spieler A (Proposer) aufgeteilt werden. Hierzu erhält er 10 verschiedene Symbole[3], die jeweils einen bestimmten Geldbetrag widerspiegeln. Dies hat den Vorteil, dass nur ganze Cent-Beträge benutzt werden können und der Roboter somit kein Problem hat diese zu erkennen. In der Abbildung 3 wird der genaue Ablauf gezeigt.
Abbildung 3: Spielablauf Roboter
illustration not visible in this excerpt
Quelle: Eigene Darstellung
Nach der Einweisung durch den Spielleiter dürfen keine Fragen mehr gestellt werden. Nach dem Spielbeginn fragt der Roboter Spieler A (Proposer) verbal, welchen Betrag er an Spieler B (Responder) abgeben möchte. Nach dieser Frage, muss Spieler A dem Roboter den Betrag für den er sich entschieden hat durch das zugehörige Symbol zeigen. Nach der Entscheidung des ersten Spielers wird dem Roboter das Symbol übergeben und dieser läuft zu Spieler B auf der anderen Seite der Trennwand und übergibt ihm das Angebot. Nachdem Spieler B erfährt, was für ein Betrag er von seinem Gegenspieler erhält, wird er vom Roboter gefragt, ob er das Angebot annehmen oder ablehnen möchte. Spieler B kann nur mit Ja oder Nein antworten. Nach dieser Entscheidung läuft der Roboter NAO zurück zu Spieler A und übermittelt ihm die Antwort vom Gegenspieler.
4.2.2 Treatment Face-to-Face (F)
Dieses Experiment findet in einem separaten Raum statt, wobei jeder Durchlauf mit je zwei Spielern gespielt wird. Die beiden Teilnehmer sitzen sich gegenüber und können somit sehen, gegen wen sie spielen. Der Spielleiter verteilt die Instruktionen an beide Spieler und weist darauf hin, dass keine Diskussionen und Verhandlungen geführt werden dürfen. Spieler A erhält vor dem Start 100 Cent und darf entscheiden, wie viel er Spieler B davon abgibt. Spieler A übergibt den Teil der Cent-Münzen persönlich an Spieler B, die er ihm anbietet. Spieler B kann das Geld annehmen oder ablehnen (verbal und/oder durch Handlung).
4.2.3 Treatment Anonym (A)
Das Ultimatum-Spiel wird in dieser Versuchsanordnung anonym und ohne Nutzung eines Roboters gespielt. Es können sich mehrere Spieler gleichzeitig im Raum aufhalten. Die Vorgehensweise und die Regeln werden vom Spielleiter mündlich und schriftlich erklärt. Anschließend werden Blätter an zufällig ausgewählte Teilnehmer ausgeteilt, die die Rolle von Spieler A übernehmen. Eine Abbildung des wichtigsten Teils dieser Blätter ist in Abbildung 4 zu sehen. Auf der linken Seite tragen die Spieler ein, wie viel sie behalten und welchen Anteil der 100 Cent sie an Spieler B abgeben möchten. Nachdem alle Spieler A ihre Angebote eingetragen haben, sammelt der Spielleiter die Blätter ein und gibt diese wieder an zufällig ausgewählte Teilnehmer aus, die die Rolle von Spieler B übernehmen. Diese müssen nur noch ankreuzen, ob sie das Angebot annehmen oder ablehnen.
Abbildung 4: Ultimatum-Spiel Anonym
illustration not visible in this excerpt
Quelle: Eigene Darstellung
4.3 Technische Implementierung
4.3.1 NAO-Roboter
Der Roboter NAO wurde im Jahre 2006 von SoftBank Robotics entworfen. Bis zum Jahre 2016 wurden knapp 9000 Roboter verkauft und diese werden größtenteils im Bereich der Lehre und Forschung eingesetzt. Das Unternehmen hat sich zum Ziel gesetzt Roboter für jedermann zugänglich zu machen und sie in naher Zukunft so weit zu entwickeln, dass sie als Helfer und Begleiter für Menschen eingesetzt werden. Bis zum jetzigen Zeitpunkt hat SoftBank Robotics drei verschiedene Roboter kreiert. Nach NAO wurde im Jahre 2009 der Roboter Romeo entwickelt, der als wegweisend für das Forschungsgebiet der Gerontologie gilt. In diesem Fall geht es um den Bereich, der sich darauf spezialisiert hat älteren Menschen zu helfen oder Personen zu assistieren die ihre Eigenständigkeit verloren haben. In 2014 führte die Firma ihren neuen Roboter Pepper ein (SoftBank Robotics Europe, 2016). Dieser Roboter kann die Emotionen und Gefühle von seinem Gesprächspartner wahrnehmen und sein Verhalten darauf anpassen (SoftBank Robotics Europe, 2016).
In der hier dargestellten Versuchsanordnung wird der Roboter NAO genutzt, der von Fachbereich 2, der Frankfurt University of Applied Sciences freundlicher Weise für den Versuch zur Verfügung gestellt wurde. NAO ist der erste humanoide Roboter der Firma SoftBank Robotics und befindet sich derzeit in seiner fünften Version. Der 58 cm große Roboter wird von seinen Entwicklern als liebenswerter, interaktiver und personalisierbarer Begleiter beschrieben (SoftBank Robotics Europe, 2016; SoftBank Robotics Europe, 2016).
Die Entwickler haben dem NAO eine menschenähnliche Form, mit einer hohen An-zahl von Freiheitsgraden, gegeben. Dies hat den Vorteil, dass er sich ohne größere Schwierigkeiten bewegen und sich somit auch an seiner Umgebung anpassen kann. Ein eingebautes Stabilisierungssystem sorgt dafür, dass er die Balance hält und erkennen kann, ob er liegt oder steht. Die Sensoren in Kopf, Händen und Füßen ermöglichen ihm sich im menschlichen Umfeld zu orientieren und diese wahrzunehmen. Eine weitere Besonderheit des NAO ist die Kommunikation die er mit Menschen führen kann. In Abbildung 5 sind die Funktionen des Roboters, sowie dessen Körperbau ersichtlich. Er besitzt vier Lautsprecher und Mikrophone, die eine Kommunikation mit dem Menschen gestatten. Zwei hochauflösende Kameras ermöglichen ihm die Umgebung zu filmen, Objekte und Umrisse zu erkennen und wahrzunehmen. Durch automatische Ausrichtung auf Gesichter und Geräuschquellen wirkt die interaktive Kommunikation mit dem Menschen natürlicher. Eine künstliche Intelligenz liegt nicht vor, da jede einzelne Funktion vorprogrammiert ist und durch die hauseigene Software ausgeführt werden muss (SoftBank Robotics Europe, 2016).
Abbildung 5: Körperbau und Funktionen
illustration not visible in this excerpt
Quelle: SoftBank Robotics Europe, 2016
4.3.2 Programmierung
Die Entwickler von NAO haben ein eigenes Betriebssystem und einige Programmiersysteme entwickelt um die Interaktion mit deren Robotern zu vereinfachen. Das Betriebssystem NAOQI OS ist eine Spezialanfertigung, die dem Roboter eine grundlegende Verhaltensstruktur verleiht und ihn zum ‚Leben’ erweckt. Der Roboter nimmt ab dem Zeitpunkt nicht nur seine Umgebung wahr, sondern sieht und hört sie auch. Um den NAO zu programmieren, wird das Programmiersystem Choreographe angeboten. Mit diesem können diverse Anwendungen, Befehle und Animationen erstellt werden, ohne das Programmierkenntnisse notwendig sind. Der größte Teil der Anwendungen sind schon vorprogrammiert und müssen nur noch den Benutzer miteinander verbunden und gestartet werden (SoftBank Robotics Europe, 2016). Eine weitere hilfreiche Anwendung, die den NAO menschenähnlicher darstellt, ist autonomous life. Dies ist einer der Hauptelemente um den Roboter lebendiger wirken zu lassen. Wenn diese Funktion eingeschaltet wird, reagiert er auf Bewegungen und schaut eine Person an, wenn sie sich in der unmittelbaren Umgebung befindet. Ein weiter Vorteil ist, dass der NAO einem zuhört und auch probiert auf gestellte Fragen zu reagieren, wenn diese sich im System befinden (SoftBank Robotics Europe, 2016). Da diese Funktion möglicherweise einen Einfluss auf die Spieler haben könnte, wurde diese vor dem Start des Spiels schon gestartet.
Abbildung 6: Programmierung NAO
illustration not visible in this excerpt
Quelle: Screenshot der eigenen Programmierung, erstellt in Programm Choreographe
In Unterkapitel 4.2.1 wurde erläutert, wie der Ablauf des Treatments aussieht. Dies musste technisch umgesetzt werden. Wie in Abbildung 6 erkennbar ist, werden vor-programmierte Blöcke miteinander verbunden, damit NAO diese Befehle ausführen kann. Die voreingestellte verbale Kommunikationssprache des NAO ist Englisch und wurde auf Deutsch umgestellt. Erst danach konnten die Sprachblöcke programmiert werden. Im Anschluss musste sichergestellt werden, dass die angebotenen Geldmengen fehlerfrei erkannt werden. Hierzu musste beachtet werden, dass NAO kein Geld zählen bzw. Cent-Stücke nicht problemlos erkennen kann. Diese Fähigkeit bedarf einer komplexen Programmierung und war in der kurzen Zeit nicht möglich. Geldeinheiten wurden daher durch Naomarks ersetzt. In Abbildung 7 wird ersichtlich, dass diese Symbole aus einem hellblauen Kreis bestehen in deren Mitte ein Fächer aus weißen Dreiecken platziert ist. Diese Naomarks unterscheiden sich durch die unterschiedliche Ausrichtung der Dreiecke im Zentrum des Kreises. Jedes dieser Naomarks besitzt eine eigene Identifikationsnummer, die in der linken oberen Ecke aufgedruckt ist (SoftBank Robotics Europe, 2016). Diese Zahl konnte einem bestimmten Cent-Betrag zugeordnet werden. Somit war es für die Spieler möglich den Symbolen, den von ihnen gewählten Anteilen zuzuordnen.
Abbildung 7: Naomarks
illustration not visible in this excerpt
Quelle: SoftBank Robotics Europe, 2016
Nach dem NAO ein Naomark erkennt, spricht er die damit verbundene Zahl für Spieler A verbal aus. Da es die Möglichkeiten des Programmiersystems nicht zulassen, dass sich der Roboter die Zahl auf den Weg zu Spieler B merkt, wurde eine Alternative gewählt. NAO bittet Spieler A ihm das Symbol zu übergeben. Das Heben der Hand und das Schließen der Finger wurde hierzu programmiert. Nach erfolgreichem Annehmen des Symbols, dreht sich der Roboter und läuft zu Spieler B. Dort angekommen, bittet er darum sein vorderes Kopfteil zu berühren und erst danach übergibt der NAO ihm das Symbol. Dies hat den Grund, dass Naomarks zwei-mal in dieser Programmierung auftreten. Es trat somit das Problem auf, dass das Programm zu dem Punkt an dem NAO Spieler A nach seinem Angebot fragt zurückspringen würde. Um dies zu verhindern, muss der Spieler B den Sensor am Kopf des Roboters berühren und damit einen neuen Programmabschnitt starten. Da Spieler B ihm das Angebot noch einmal zeigt, veranlasste den Roboter nun ihn zu fragen, ob er das Angebot annimmt. Dies musste mit einer Sprachbox verknüpft werden. Damit der Roboter die Entscheidung des Spielers wahrnimmt, wurde eine Ja/Nein-Box eingefügt. Jenes startet die Mikrophone und der Roboter reagiert dann nur noch auf Ja oder Nein. Wenn Spieler B unverständlich spricht oder etwas anderes sagt, bittet der Roboter den Spieler seine Antwort zu wiederholen. Erst wenn er eines der beiden Wörter erkannt hat, wird die nächste Box aktiviert und er läuft zu-rück zu Spieler A um ihm die Entscheidung seines Gegenspielers zu übermitteln.
4.4 Durchführung
4.4.1 Auswahl der Teilnehmer
Für diese drei Treatments wurden jeweils 30 Spielpaare ausgewählt. Diese bestanden hauptsächlich aus Studierenden der Frankfurt University of Applied Sciences und auch die Experimente selbst fanden auf dem Campus statt. Um Teilnehmer ein-zuladen wurden mehrere Kanäle, bspw. Vorlesungen, Social Media und E - Mail Verteiler genutzt. Das Ziel bestand darin, möglichst viele Studierende aus allen vier Fachbereichen zu akquirieren. Dies stellt sich als sehr kompliziert dar. Der Grund war, dass bei den Treatments einige Hürden entstanden sind. Bei den Versuchen Roboter und Face-to-Face gab es eine räumliche Einschränkung, da in den Räumen sich jeweils nur zwei Spieler aufhalten durften. Dies führte dazu, dass fast täglich die Räume gewechselt wurden und jedes Mal eine neue Nachricht an die Studierenden geschickt wurde mit den aktualisierten Örtlichkeiten. Ein weiteres Problem war, dass der Roboter eine aktive WLAN-Internetverbindung benötigt und dies in einigen Räumen nicht möglich war. Studierende mussten somit etwas länger warten oder konnten aus zeitlichen Gründen nicht mehr daran teilnehmen. Nur bei dem Versuch anonym kam es zu keiner Komplikation, da hier die Möglichkeit genutzt wurde Vorlesungen aufzusuchen und Teilnehmer direkt auf dem Campus anzusprechen.
[...]
[1] Verfasser dieser wissenschaftlichen Arbeit sind Güth, Schmittberger und Schwartz
[2] Im weiteren Verlauf der Arbeit durch HRI abgekürzt.
[3] Siehe 4.3.2 „Naomarks“
- Quote paper
- Rawol Chabra (Author), 2016, Mensch-Roboter-Interaktion in einem Ultimatum-Spiel, Munich, GRIN Verlag, https://www.grin.com/document/414293
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.