Die Arbeit befasst sich mit der Veränderung asymmetrischer Information im Kontext der Digitalisierung mit dem Hintergrund veränderten Konsums und neuartiger Informationsbeschaffungsmethoden. Dies wirft folgende Frage auf: Inwiefern beeinflusst die Digitalisierung die Veränderung der Informationsasymmetrien auf dem Konsumentenmarkt? Das Ziel der Arbeit ist, einen Einblick in Erhöhung und Reduktion der asymmetrischen Information zu gewinnen. Anlässlich des kognitiven Ansatzes der Neuen Institutionenökonomik (NIÖ), wird kurz auf menschliche und maschinelle informationsverarbeitende Fähigkeiten, Potenziale und Grenzen Bezug genommen.
Informationsasymmetrie ist ein zentrales ökonomisches Problem, welches mit Fort- schreiten der Digitalisierung zunehmend an Bedeutung gewinnt. Asymmetrische Information wurde erstmals von Akerlof (1970) erörtert und ist zentraler Gegenstand der Principal-Agent-Theorie. Der theoretische Ansatz stammt aus der NIÖ. Annahmegemäß geht die NIÖ von eingeschränkter Rationalität der Individuen aus, da Menschen über begrenzt kognitive Fähigkeiten verfügen, so zum Beispiel bei der Informationsverarbeitung.
Durch die Digitalisierung verändern sich asymmetrische Informationen zwischen Anbieter und Nachfrager. Neben der Daten- und Informationsmenge nehmen auch Konsumvielfalt und Konsumniveau zu. Inzwischen wird in diesem Kontext der Begriff Konsum 4.0 erwähnt, welcher die zunehmende Konsumveränderung durch die Digitalisierung darlegt. Der technische Fortschritt erleichtert sowohl die Verfügbarkeit und den Konsum von Informationen als auch von Produkten und Dienstleistungen, die via Internet erworben werden können. Die Informationsmöglichkeiten für Anbieter und Konsument sind stark gewachsen. Im Vergleich dazu ist die menschliche Fähigkeit, die Informationen zu verarbeiten, unverändert geblieben.
Inhaltsverzeichnis
Abkürzungsverzeichnis
Abbildungsverzeichnis
1 Einleitung
2 Mensch und Maschine im Kontext der Digitalisierung
2.1 Begriffe
2.1.1 Digitalisierung
2.1.2 Daten und Information
2.1.3 Künstliche Intelligenz, maschinelles Lernen
2.2 Neuroscience - Fähigkeit des menschlichen Gehirns
2.2.1 Informationsverarbeitung und Potenzial des menschlichen Gehirns
2.2.2 Grenzen des menschlichen Gehirns
2.3 Artificial Intelligence - Fähigkeit der Maschine
2.3.1 Informationsverarbeitung und Potenzial der Maschine
2.3.2 Grenzen der maschinellen Verarbeitung
3 Informationsasymmetrien 11
3.1 Begriff Informationsasymmetrie
3.2 Asymmetrische Information nach Akerlof
3.3 Principal-Agent-Theorie
3.3.1 Herleitung und Grundmodell
3.3.2 Definitionen und Grundgedanke der Principal-Agent-Theorie
3.3.3 Annahmen und Ziele der Principal-Agent-Theorie
3.4 Arten der Informationsasymmetrien
3.4.1 Informationsasymmetrie in der Literatur
3.4.2 HiddenAction
3.4.3 Hiddenlnformation
3.4.4 HiddenCharacteristics
3.4.5 Klassische Lösungsansätze zur Vermeidung von Marktversagen
4 Veränderungen der Informationsasymmetrien auf dem Konsumentenmarkt
4.1 Konsumentenmarkt
4.2 Analoge Informationsbeschaffung
4.3 Digitale Informationsbeschaffung
4.3.1 BigData
4.3.2 Web-Tracking und Empfehlungssysteme
4.4 Erhöhung der Informationsasymmetrien durch die Digitalisierung
4.4.1 Kostenlose digitale Produkte und Dienstleistungen
4.4.2 Ranking-Algorithmus TI
4.4.3 Web-Tracking und Empfehlungssysteme
4.5 Reduktion der Informationsasymmetrien durch die Digitalisierung
4.5.1 Elektronische Intermediäre als Vermittler zwischen Anbieter und Nachfrager
4.5.2 Web-Tracking und Empfehlungssysteme
4.6 Fallbeispiel Google
4.6.1 DasUnternehmenGoogle
4.6.2 Klick-Tracking als Verfahren der Datensammlung
4.6.3 Hidden Action und Hidden Information
4.6.4 HiddenCharacteristics
4.7 Fallbeispiel Amazon
4.7.1 DasUnternehmenAmazon
4.7.2 HiddenCharacteristics
4.8 Handlungsempfehlungen zur Reduktion asymmetrischer Information
5 Zusammenfassung und Fazit
Literaturverzeichnis
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Abbildungsverzeichnis
Abbildung 1: Ein Vergleich zwischen einem Supercomputer, einem Personal Computer aus dem Jahr 2008 und dem menschlichen Gehirn
Abbildung 2: Klassifikation der Informationsasymmetrie und Risiken
1 Einleitung
Die Menschheit befindet sich mitten in der Digitalisierung. Ende des 18. Jahrhunderts galt die industrielle Revolution als treibende Kraft des menschlichen und wirtschaftlichen Fortschritts. Die auslösende Kraft dahinter war die Dampfmaschine, welcher auch die größte und schnellste Transformation der Weltgeschichte zugeschrieben wird.1 Mehr als 300 Jahre später ließen sich mit allen weltweit verfügbaren, auf CD-Rom gebrannten Daten fünf Stapel CD‘s bis zum Mond errichten.2 Die anfallenden Daten erreichen insofern eine neue Dimension.3 Auch von Informationsrevolution ist die Rede.4 Hilbert (2011) hat in einer umfassenden Studie versucht, die Anzahl aller vorhandenen Informationen zu erfassen. Diese stammen unter anderem aus Büchern, E-Mails, Musik und Fernsehsendungen. Laut Hilbert sind im Jahre 2007 über 300 Exabyte5 gespeicherte Daten vorhanden.6 Für das Jahr 2013 liegen Schätzungen bei 1.200 Exabyte7 vorhandener Informationen.8 Die Gegenwart ist von digitalen Technologien9 sowie steigender Verbreitung des Internets geprägt.10 Laut Schätzungen der International Telecommunication Union (2019) ist die Zahl der weltweiten Internetnutzer innerhalb von zehn Jahren von ca. 1,55 Mrd. (2008) aufca. 3,9 Mrd. (2018) angestiegen.11 So steht der Bevölkerung eine wachsende Anzahl digitaler Informationen und Wissen zur Verfügung.12 Auch schnellere Kommunikation ist möglich.13 Insbesondere Unternehmen mit digitalen Geschäftsmodellen begrüßen das Aufkommen großer Datenmengen, um diese auszuwerten. So sammelt beispielsweise Google täglich 24 Petabyte an Daten.14
Informationsasymmetrie ist ein zentrales ökonomisches Problem, welches mit Fortschreiten der Digitalisierung zunehmend an Bedeutung gewinnt.15 Asymmetrische Information wurde erstmals von Akerlof (1970) erörtert und ist zentraler Gegenstand der Principal-Agent-Theorie.16 Der theoretische Ansatz stammt aus der Neuen Institutionenökonomik (NIÖ).17 Annahmegemäß geht die NIÖ von eingeschränkter Rationalität der Individuen aus, da Menschen über begrenzt kognitive Fähigkeiten verfügen, so zum Beispiel bei der Informationsverarbeitung.18
Durch die Digitalisierung verändern sich asymmetrische Informationen zwischen Anbieter und Nachfrager.19 Neben der Daten- und Informationsmenge nehmen auch Konsumvielfalt und Konsumniveau zu.20 Inzwischen wird in diesem Kontext der Begriff Konsum 4.0 erwähnt, welcher die zunehmende Konsumveränderung durch die Digitalisierung darlegt. Der technische Fortschritt erleichtert sowohl die Verfügbarkeit und den Konsum von Informationen, als auch von Produkten und Dienstleistungen, die via Internet erworben werden können.21 Die Informationsmöglichkeiten fürAnbieter und Konsument sind stark gewachsen. Im Vergleich dazu ist die menschliche Fähigkeit, die Informationen zu verarbeiten, unverändert geblieben.22 Die vorliegende Arbeit befasst sich mit der Veränderung asymmetrischer Information im Kontext der Digitalisierung mit dem Hintergrund veränderten Konsums und neuartiger Informationsbeschaffungsmethoden. Dies wirft folgende Frage auf:
Inwiefern beeinflusst die Digitalisierung die Veränderung der Informationsasymmetrien auf dem Konsumentenmarkt?
Das Ziel der Arbeit ist, einen Einblick in Erhöhung und Reduktion der asymmetrischen Information zu gewinnen. Anlässlich des kognitiven Ansatzes der NIÖ, wird kurz auf menschliche und maschinelle informationsverarbeitende Fähigkeiten, Potenziale und Grenzen Bezug genommen.
Zu Beginn werden Mensch und Maschine im Kontext der Digitalisierung gegenübergestellt. Zunächst werden einschlägige Begriffe definiert. Danach erfolgt ein grober Vergleich der Informationsverarbeitung im menschlichen Gehirn und der Maschine sowie der jeweiligen Potenziale und Grenzen. Das dritte Kapitel widmet sich der theoretischen Grundlage. Diese Arbeit stützt sich auf die Principal-Agent-Theorie und die damit einhergehenden Konsequenzen und Risiken der asymmetrischen Information. Die Arten, Folgen und klassischen Lösungsansätze der asymmetrischen Information werden zunächst grundlegend dargestellt. Das vierte Kapitel untersucht die Veränderung der asymmetrischen Information auf dem Konsumentenmarkt in Zeiten der Digitalisierung. Hierfür erfolgt zunächst eine Markteingrenzung. Ferner werden einige Möglichkeiten der Informationsbeschaffung vorder Digitalisierung erläutert. Anschließend folgt die Gegenüberstellung ausgewählter Methoden digitaler Informationsbeschaffung. Daraufhin werden Reduktion und Erhöhung asymmetrischer Information dargestellt. Hierfür wird neben den Methoden auch der Intermediär als elektronischerVermittler zwischen Anbieter und Nachfrager betrachtet. Die praktische Ausführung der Principal-Agent-Theorie erfolgt anhand konkreter Fallbeispiele der Unternehmen Google und Amazon. Das Kapitel schließt mit der Vorstellung ausgewählter Lösungsansätze. Das Fazit und ein kurzer Zukunftsausblick beschließen die Arbeit.
2 Mensch und Maschine im Kontext der Digitalisierung
2.1 Begriffe
2.1.1 Digitalisierung
Dem Begriff Digitalisierung lassen sich umfängliche und kontextabhängige Definitionen zuordnen.23 In der einschlägigen Literaturist keine einheitliche Begriffsbestimmung vorhanden, daher scheinen folgende Definitionen adäquat für diese BachelorThesis. Zum einen wird die Digitalisierung als Transfer analoger Werte in digitale Formate bezeichnet. Zum anderen findet der Begriff im Kontext der digitalen Revolution oder der digitalen Transformation definitorische Verwendung. Brennen und Kreiss (2016) unterscheiden zwischen Digitization und Digitalization. Der Begriff Digitization wird als Umwandlung analoger Informationsströme in digitale Informationsströme verstanden. Digitalization definieren die Autoren als Umstrukturierung der Bereiche des sozialen Lebens im Rahmen digitaler Kommunikations- und Medieninfrastrukturen.24 Hess (2019) stützt sich ebenfalls auf mehrfache Interpretationen. Einerseits wird eine technische Interpretation verwendet. Hiernach werden Daten von analogen Speichermedien in digitale Speichermedien überführt. Andererseits versteht der Autor die Überführung der von Menschen ausgeführten Aufgaben in Computer. Im weiteren Sinne wird der Begriff Digitalisierung für die Einführung digitaler Technologien und als Determinante für die digitale Revolution verwendet.25 Wolf und Strohschen (2018) beschreiben eine Verwässerung durch die synonyme Verwendung des Begriffs Digitalisierung. Oftmals werden damit einhergehend Begriffe wie Internet of Things oder Industrie 4.0 verwendet.26 Die Autoren „sprechen von Digitalisierung, wenn analoge Leistungserbringung durch Leistungserbringung in einem digitalen, computerhandhabbaren Modell ganz oder teilweise ersetzt wird.“27
Um eine grobe Abgrenzung des Zeitraums zwischen vor und nach der Digitalisierung vorzunehmen, wird die Jahrtausendwende betrachtet. Ab dem 21. Jahrhundert wird von digitalem Zeitalter gesprochen, da bis zum Ende des 20. Jahrhunderts noch die analoge Datenübertragung vorherrschend war. Es wird behauptet, dass im Jahre 2002 erstmalig mehr digitale Information als analoge Information (Druckerzeugnisse) gespeichert wurden.28
2.1.2 Datenundlnformation
Daten werden aus Zeichen gebildet. Diese Zeichen befinden sich in einem Zeichenbestand, welcher sowohl aus numerischen Zeichen (Ziffern), alphabetischen Zeichen (Buchstaben) als auch alphanumerischen Datentypen (Sonderzeichen, Buchstaben, Ziffern) bestehen kann.29 Zur Anordnung der Zeichen werden definierte Syntaxregeln genutzt. Wenn diesen Daten zusätzlich eine Semantik (Bedeutung) zugeordnet wird, d. h. sie in einen bestimmten Kontext eingeordnet werden, entstehen Informationen. Um dies anhand eines Beispiels zu verdeutlichen, nennt Krcmar (2015) einen Zeichenbestand, in dem sich eine 0, eine 8 und eine 7 befindet. Diese Zeichen werden dem Zeichenbestand Ziffern zugeordnet und anhand der Syntax 0,87 angeordnet, sodass Daten entstehen. Damit werden die Zeichen zu Daten. Anschließend erfolgt eine semantische Zuordnung der Daten. Durch die kontextabhängige Einordnung entsteht eine Information. 0,87 ist ein Devisenkurs. Dieser entspricht dem Wert des Dollars in Euro. Eine allgemeinverständliche und umgangssprachliche Definition des Begriffs Information beschreibt Seiffert (1971) als gegenwärtige Mitteilung über Dinge, die momentan zu wissen wichtig scheinen.30 Folglich widerfährt einem Menschen eine tägliche Konfrontation mit Informationen jeglicher Art.31 Information entsteht demnach durch menschliche Interpretation. Hierfür muss sie in einer Form dargestellt werden, damit sie zwischen Menschen ausgetauscht und von Maschinen verarbeitet werden kann.32 In der heutigen Zeit gilt Information als unabdingbarer Bestandteil wirtschaftlichen Handelns.33
2.1.3 Künstliche Intelligenz, maschinelles Lernen
Künstliche Intelligenz (Kl) ist ein Teilgebiet der Informatik und kann aus unterschiedlichen Perspektiven betrachtet werden.34 Dabei erscheint eine einheitliche Begriffsabgrenzung schwierig, da einerseits die menschliche Intelligenz unzureichend erforscht ist und andererseits viele Bereiche35 einbezogen werden.36 Kl wird in starke und schwache Kl differenziert. Schwache Kl fokussiert sich auf die Problemlösung auf Basis mathematischer Methoden (Algorithmen). Starke Kl soll intellektuelle Fähigkeiten von Menschen nachahmen.37 So ergeben sich folgende Ansichten. Kl lässt sich zum einen anhand der verschiedenen Funktionen der Informatik betrachten wie Robotik, Bild-, Text- und Spracherkennung sowie Entwicklung wissensbasierter Systeme.38 Zum anderen erfolgt ein Vergleich mit der menschlichen Komponente: Bezweckt wird, dass eine Maschine befähigt ist, Aufgaben anhand intelligenter Verarbeitungsfähigkeit zu erledigen. Dafür soll das menschliche Gehirn nachgeahmt werden.39 Dies kann mit Worten Luger’s (2009) zutreffend zu ergänzt werden: “(...) automation of intelligent behavoir”.40 Im Rahmen dieser Thesis liegt der Fokus auf folgender Betrachtung: Kl befasst sich mit der Erforschung menschlicher Intelligenz mit dem Zweck, kognitive Prozesse des menschlichen Gehirns computerbasiert nachzubilden. Dadurch sollen Aufgaben so gut wie von Menschen oder besser ausgeführt werden.41
Maschinelles Lernen ist ein Teilgebiet der Künstlichen Intelligenz und vereint Ansätze verschiedener Bereiche wie Statistik, Psychologie, Informatik und Optimierung.42 Es wird definiert als automatisiertes Verfahren, das Muster aus Daten extrahiert und wird genutzt, um große Datenmengen verwendbar zu machen.43 Mithilfe von Algorithmen ist es möglich, automatisch Regeln und Muster in Daten zu erkennen, zusammenzufassen und daraus zu lernen.44 Ferner werden mittels Algorithmen Wahrscheinlichkeiten für bestimmte Ereignisse berechnet und Vorhersagen anhand analysierter Daten getroffen.45
Algorithmen sind festgelegte Rechenschritte, die in einer bestimmten Sequenz ablaufen. Dabei erfolgt die Eingabe eines Wertes oder einer Menge von Werten, woraufhin die Ausgabe eines Wertes oder einer Menge von Werten erzeugt wird.46
2.2 Neuroscience - Fähigkeit des menschlichen Gehirns
2.2.1 Informationsverarbeitung und Potenzial des menschlichen Gehirns
Die kognitive Psychologie beschreibt den Menschen als informationsverarbeitendes System. Der aus der Umwelt wahrgenommene Reiz ist die Basis der Wahrnehmung. Reize werden über die Sinnesorgane empfangen und zu einer Gesamtheit zusammengesetzt. Die Kognition bezeichnet die Verarbeitung dieser Informationen.47
Mensch und Computer haben unterschiedliche Stärken und Schwächen.48 Menschen haben Vorteile bei Kreativität, Assoziationsfähigkeit, Phantasie, Gefühl, bildbezogener Orientierung und bleiben Maschinen darin vorerst überlegen.49 Ein Mensch ist befähigt, sich innerhalb Sekundenbruchteilen in einer für ihn neuen Umgebung zurecht zu finden und dort zu agieren.50 Zudem wird der Mensch auch als intuitives Wesen beschrieben. Das bedeutet, dass erziel- und absichtsgeleitete Fähigkeiten besitzt. Intentionalität gilt dazu als wesentliches Unterscheidungsmerkmal von Mensch und Maschine. Als Beispiel dient der Sprung eines Sportlers. Dieser kann nicht exakt so wiederholt werden, wie er einmal stattgefunden hat.51
Weiterhin besitzt der Mensch die Fähigkeit, kausal zu denken. Dies bedeutet, dass er in der Lage ist, Ursache und Wirkung in Beziehung zu setzen.52 Zudem werden menschliche Entscheidungen aufgrund kausaler Informationen getroffen.53 Eine wichtige Eigenschaft der menschlichen Intelligenz ist die Fähigkeit, mentale Abbildungen der Realität zu erstellen und „Was-wäre-wenn“-Szenarien zu durchdenken. Ein Beispiel für solch ein Szenario ist die Frage: „Was passiert, wenn ich Aspirin nehme, werden meine Kopfschmerzen dann geheilt?“54
2.2.2 Grenzen des menschlichen Gehirns
Russel und Norvig (2016) haben einen ungefähren Vergleich der Rechenressourcen zwischen dem Supercomputer IBM Blue Gene55, einem typischen Personal Computer (PC) aus dem Jahre 2008 und dem menschlichen Gehirn in folgender Tabelle anschaulich dargestellt (Abbildung 1).56
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Ein Vergleich zwischen einem Supercomputer, einem Personal Computer aus dem Jahr 2008 und dem menschlichen Gehirn.57
Im Gehirn sind ca. zehn bis 100 Mrd. Nervenzellen (Neuronen) angesiedelt.58 Die Leistungsfähigkeit des menschlichen Gehirns steht im Wesentlichen fest. Hingegen sind die des Supercomputer ca. alle fünf Jahre um den Faktor zehn gestiegen. Mit der Ausnahme der Schaltzeit (cycle time) steht der PC an letzter Position. Die Schaltzeit des Supercomputer ist eine Mio. mal schneller als die Verarbeitungszeit des Gehirns. Das Gehirn gleicht dies mit mehr Speicher und Verbindungen (Synapsen) aus als ein High End PC. Die Kapazität der größten Supercomputer ähnelt der menschlichen Gehirnkapazität. Es ist jedoch zu erwähnen, dass das Gehirn nicht alle Neuronen gleichzeitig nutzt.59
100 Mrd. Neuronen und mehrere 100 Billionen Verbindungen verarbeiten Informationen in Millisekunden. So ist beispielsweise das visuelle System befähigt, Bilder innerhalb 100 ms erfolgreich zu dekodieren. Ebenfalls werden über die Lebensdauer im Gehirn mehr als 109 Bits an Informationen gespeichert. Trotz der vorhandenen Kapazitäten ist es kaum möglich, mehr als ein Objekt gleichzeitig zu bearbeiten oder zwei Aufgaben gleichzeitig auszuführen.60 In Ausdauer, Präzision und Weitergabegeschwindigkeit sind die Menschen den Computern deutlich unterlegen.61
Der Psychologe Georg Miller (1955) zeigte auf, dass der Mensch durchschnittlich sieben Informationen gleichzeitig im Kurzzeitgedächtnis halten kann. Möglich sind auch zwei mehr oder weniger. Diese Fähigkeit soll abhängig von der Genetik eines Menschen sein.62 Parker (2012) hinterfragte diese Ansicht jedoch und geht davon aus, dass das Kurzzeitgedächtnis lediglich vier Informationen gleichzeitig verarbeiten kann.63 Es ist allerdings davon auszugehen, dass die exakte Anzahl der simultan verarbeitbaren Informationen nicht von Bedeutung ist. Maschinen sind befähigt, mehr Informationen gleichzeitig verarbeiten zu können. Dies zeigt auch, dass Menschen vergessen und Maschinen Informationen sofort abrufen können.64 Dieser Abschnitt soll verdeutlichen, dass die menschliche Gehirnkapazität evolutionär bedingt im Wesentlichen begrenzt ist.
2.3 Artificial Intelligence - Fähigkeit der Maschine
2.3.1 Informationsverarbeitung und Potenzial der Maschine
Die Grundlage der maschinellen Informationsverarbeitung ist das Eingabe-Verarbeitung-Ausgabe-Prinzip (EVA-Prinzip). Der Rechner erhält einen Input (Daten), verarbeitet diese anhand eines kodierten Algorithmus (Rechenvorschrift) und produziert eine Ausgabe. Das Prinzip befasst sich demnach mit Eingangs- und Ausgangsdaten, deren Verarbeitungsregeln Eingangsdaten in Ausgangsdaten (Input in Output) transformieren. Der Algorithmus ist demnach die Grundlage der maschinellen Informationsverarbeitung.65
Maschinen66 sind befähigt, große, komplexe Datenmengen algorithmisch zu analysieren und daraus wichtige Informationen zu filtern sowie Musterzu erkennen. Beispielsweise können Daten aus Suchmaschinen, E-Commerce, Medizin oderAstronomie untersucht werden.67 Dies ist für den Menschen aufgrund seiner eingeschränkten kognitiven Fähigkeiten, Speicherkapazitäten und der Verarbeitungsgeschwindigkeit nicht möglich.68 So ist der Mensch beispielsweise nicht befähigt, in Datenbanken mit zehntausenden Datenreihen von bestellten T-Shirts Muster zu erkennen. Die Maschine hingegen kann repetitive und fehleranfällige Auswertungen durchführen.69 Der Maschine steht nahezu unbeschränkte Speicherkapazität und zunehmende Verarbeitungsgeschwindigkeit zur Verfügung.70 Im Jahr 1996 wurde der ASCI Red als schnellster Supercomputer weltweit für rechenintensive Probleme (z. B. Atomtests) entwickelt. Die Entwicklungskosten betrugen ca. 55 Mio. US-Dollar. Um eine Rechengeschwindigkeit von mehr als einem Teraflop71 pro Sekunde zu erreichen, wurde 800 Kilowatt Strom pro Stunde benötigt. Bereits 1997 erreichte der Supercomputer eine Geschwindigkeit von 1,8 Teraflop. Im Vergleich dazu wurde neun Jahre später die Sony Playstation 3 ebenfalls mit der Rechengeschwindigkeit von 1,8 Teraflop entwickelt. Der Preis dafür beträgt lediglich 500 US-Dollar. Der Stromvergleich liegt bei 200 Kilowatt pro Stunde.72 Dies zeigt, dass Maschinen deutliche Vorteile gegenüber Menschen aufgrund wachsender Möglichkeiten durch technischen Fortschritt haben. Ferner liegt die Stärke der Maschine darin, Wahrscheinlichkeiten aus Datenmengen zu gewinnen.73 Auch können Maschinen Korrelationen erkennen, wodurch neue Erkenntnisse gewonnen werden.74 So können beispielsweise Daten aus einem Fitnesstracker, die über einen eHealth-Service erfasst wurden, mit aktuellen E-Mail Inhalten eines Konsumenten korreliert werden.75 Die Maschine kann Mrd. Fakten exakt speichern und diese sofort abrufen.76 Diese Datenmengen würden jeden Menschen überfordern.77
2.3.2 Grenzen der maschinellen Verarbeitung
Pearl (2018) stellt in seiner Arbeit u. a. Hemmnisse dar, welche zeigen, dass Maschinenfähigkeiten (noch) nicht als Grundlage für eine Kl dienen können. Der Autor unterteilt diese Hemmnisse in die Folgenden: Anpassungsfähigkeit oder Robustheit, Erklärbarkeit, Ursache-Wirkungs-Zusammenhänge. Anpassungsfähigkeit oder Robustheit bedeutet, dass Kl-Systeme aktuell nicht die Fähigkeit besitzen, neue Umstände zu erkennen oder auf diese zu reagieren, sofern sie nicht speziell darauf programmiert werden. Die Erklärbarkeit ist als Hemmnis einzuordnen, da Maschinen nicht beherrschen, Gründe für ihre Vorhersagen zu erklären. Unter UrsacheWirkungs-Zusammenhänge ist die Fähigkeit der Maschine zu verstehen, die Umgebung zu inszenieren, diese durch Annahmen zu ändern und damit „Was-wäre- wenn?“-Fragen zu beantworten. Insbesondere Ursache-Wirkungs-Zusammenhänge scheinen von Bedeutung zu sein, um das menschliche Intelligenzniveau im Bereich maschineller Intelligenz erreichen zu können. Kausales Denken ist eine unabdingbare Komponente des menschlichen Gehirns.78
Ferner haben Maschinen kein Bewusstsein darüber, welche Daten und aus welchen Gründen sie Daten verarbeiten, in welchem Kontext die Daten verarbeitet werden und welche Bedeutung die Daten haben.79 So können auch Fehlentscheidungen durch Maschinen getroffen werden. Als Beispiel dient im Bereich der Bilderkennung das Bild einer Katze, welches von einem Google Kl-System als Katze identifiziert werden sollte. Allerdings wurde keine Katze erkannt, sondern das Lebensrnittel Guacamole.80
Russel und Norvig (2016) legen dar, dass Forscher noch keine hinreichende Kenntnis im Bereich der Hirnforschung haben, um exakt zu verstehen, wie das menschliche Gehirn Informationen verarbeitet und speichert. Daher lässt sich festhalten, dass selbst Computer mit unbegrenzter Kapazität, noch keinen Aufschluss darüber geben, wie die Intelligenz des menschlichen Gehirns zu erreichen ist.81
3 Informationsasymmetrien
3.1 Begriff Informationsasymmetrie
Asymmetrische Information bedeutet, dass ein Marktakteur mehr Informationen vor Vertragsabschluss, bei Vertragsabschluss oder während der Vertragserfüllung besitzt, als ein anderer Marktakteur. Unterschiedlicher Informationsstand kann sowohl vor als auch nach Vertragsschluss auftreten. Infolgedessen kann der Käufer lediglich erschwert fundierte Transaktionsentscheidungen treffen. Besitzen beide Parteien den gleichen Informationsstand zu einem bestimmten Zeitpunkt, so liegt Informationssymmetrie vor.82 Zunächst ist der Zustand der asymmetrischen Information dadurch gekennzeichnet, dass unterschiedliche Informationsstände zwischen den potenziell kontrahierenden Marktakteuren zu einem exakten Zeitpunkt bestehen.83 Dies muss nicht zwangsläufig problematisch sein. Bestehen allerdings Zielkonflikte zwischen Marktakteuren und wirken sich die Handlungen einer Partei auf das Ergebnis aus, welches aus der Beziehung entsteht, so kann asymmetrische Information problematisch sein.84
3.2 Asymmetrische Information nach Akerlof
Im Jahre 1970 veröffentlichte Georg A. Akerlof das Werk “The Market for Lemons: Quality Uncertainty and the Market Mechanism.”85 Darin beschreibt Akerlof das Marktversagen (Adverse Selektion) als Folge asymmetrischer Informationen zwischen Marktakteuren. Dargestellt wird die Problematik anhand eines Beispiels des Gebrauchtwagenmarktes. Auf dem Gebrauchtwagenmarkt sind zwei Fahrzeugkategorien vorhanden: qualitativ hochwertige und qualitativ minderwertige Gebrauchtwagen. Üblicherweise werden im US-amerikanischen Markt Gebrauchtwagen mit schlechter Qualität als Lemons bezeichnet. Der potenzielle Käufer hat keine Kenntnis darüber, ob das Fahrzeug qualitativ hoch- oder minderwertig ist. Lediglich unter prohibitiv hohen Suchkosten86 kann er dies herausfinden. So kennt er die durchschnittliche Qualität aller Fahrzeuge und wird daher nur bereit sein, den Preis für ein Auto durchschnittlicher Qualität zu zahlen. In einer unsicheren Situation wird er sich für ein günstiges Auto entscheiden. Der Durchschnittspreis ergibt sich aus dem Preis für ein qualitativ minderwertiges Auto und dem Preis für ein qualitativ hochwertiges Auto. Daraus ergibt sich, dass qualitativ hochwertige Fahrzeuge am Markt unterbewertet werden und qualitativ minderwertige Fahrzeuge überbewertet werden. Am Markt werden vorzugsweise Lemons gehandelt, da für qualitativ hochwertige Fahrzeuge lediglich der Durchschnittspreis erzielbar ist und der Verkäufer nicht bereit ist, für diesen Preis zu verkaufen. Das hat zur Folge, dass qualitativ gute Autos von qualitativ schlechten Autos vom Markt verdrängt werden: “The ,bad‘ cars tend to drive out the good.“87
3.3 Principal-Agent-Theorie
3.3.1 Herleitung und Grundmodell
Die Principal-Agent-Theorie88 ist ein theoretisches Modell und neben dem Property- Rights-Ansatz sowie der Transaktionskostentheorie ein wesentlicher Ansatz im Bereich der Neuen Institutionenökonomik. Die Transaktionskostentheorie beschäftigt sich mit der Organisation wirtschaftlicher Tauschbeziehungen und den damit einhergehenden Transaktionskosten. Der Property-Rights-Ansatz regelt Verfügungsrechte, die bei der Nutzung knapper Ressourcen in einem Wirtschaftssystem übertragen werden.89 Der Begriff NIÖ wurde von Williamson (1975) eingeführt.90 Als Erweiterung und Kritik der Neoklassischen Theorie befasst sie sich mit der ökonomischen Analyse von Institutionen.91 Institution wird von Richter und Furubotn (2010) als System formaler Regeln (Gesetze, Verfassungen) und informaler Regeln (Sitten, Verhaltensnormen) bezeichnet, welches menschliche Verhaltensweisen innerhalb einer Gesellschaft beeinflusst.92
Den folgenden Grundannahmen unterliegt die NIÖ. Die NIÖ unterstellt, dass Informationsbeschaffung Transaktionskosten verursacht.93 Außerdem wird angenommen, dass die Rationalität der Marktakteure begrenzt ist. Das resultiert u. a. ihren limitierten kognitiven Fähigkeiten.94 Dies bedeutet, dass ein Individuum von vollumfänglich rationalem Verhalten abweicht und somit dem Leitbild des Homo Oecono- micus widerspricht. Der Homo Oeconomicus wird von Kreps (1990) als vollständig rationales Wesen beschrieben, da er unter vollständiger Information jeden möglichen Umstand kennt.95 So kann er sofort und ohne anfallende Transaktionskosten aus allen Handlungsalternativen das Optimum auswählen.96 Die NIÖ geht davon aus, dass Marktakteure zu opportunistischen Verhaltensweisen neigen. Opportunistisch ist der Akteur, da sein Eigeninteresse unter Hinnahme von Unaufrichtigkeit im Vordergrund steht.97
3.3.2 Definitionen und Grundgedanke der Principal-Agent-Theorie
Jensen (1983) unterscheidet erstmals zwei Forschungsansätze innerhalb der Principal-Agent-Theorie. Zum einen den normativen Ansatz, welcher mathematisch analytisch ausgerichtet ist, um vertragliche Optimierungen zu analysieren. Zum anderen den positiven Ansatz, der sich verbaler Methoden bedient und institutionelle Gestaltung von Auftragsbeziehungen beschreibt.98 Die vorliegende Arbeit richtet sich nach der positiven Principal-Agent-Theorie.
Ross widmet sich 1973 der Analyse von Principal-Agent-Beziehungen unter asymmetrischer Informationsverteilung.99 Der Autor definiert wie folgt: „We will say that an agency relationship has arisen between two (or more) parties when one, designated as the agent, acts for, on behalf of, or as representative for the other, designated the principal, in a particular domain of decision problems.”100 Jensen und Meckling (1976) führen dies weiter aus und betrachten die Beziehung zwischen Principal und Agent als Vertragsverhältnis. Zudem werden die Parteien als Nutzen- maximierer dargestellt. Außerdem wird angenommen, dass der Principal nicht immer im besten Interesse des Agent handelt.101 Eine Beziehung zwischen Principal und Agent entsteht laut Pratt und Zeckhauser (1985), sofern ein Akteur von der Handlung eines anderen Akteur abhängt. Der ausführende Akteur wird als Agent bezeichnet, der Auftraggeber als Principal.102 Im Wesentlichen lässt sich festhalten, dass verschiedene Ökonomen die Theorie entwickelt und weiterentwickelt haben, woraus sich unterschiedliche Ansätze und Inhalte ergeben haben. Dies äußert sich in teilweise ungenauen Begriffsdefinitionen.103
Der Grundgedanke der Principal-Agent-Theorie ist der Einfluss asymmetrischer Information auf die Beziehung von Individuen oder Unternehmen (Wirtschaftssubjekte). Auf der einen Seite steht der Agent als Beauftragter, auf der anderen Seite der Principal als Auftraggeber.104 Möglich ist ebenso, dass mehrere Agents für einen Principal tätig sind.105 Allerdings stellt Meinhövel (2004) fest, dass eine explizite Definition des Inhalts der Beziehung zwischen Principal und Agent bislang in wissenschaftlicher Literatur fehlt.106 Principal-Agent-Beziehungen können beispielsweise zwischen Käufer und Verkäufer, Versicherer und Versichertem, Kapitalgeber und Kapitalnehmer, Aufsichtsrat und Vorstand und Staat und Steuerzahler bestehen.107
3.3.3 Annahmen und Ziele der Principal-Agent-Theorie
Charakteristisch für Principal-Agent-Beziehungen sind folgende Annahmen: Die Akteure unterliegen einer Beziehung bzw. einem Vertragsverhältnis. Laut Pratt und Zeckhauser (1985) kann die Beziehung zwischen Principal und Agent im weiteren Sinne definiert werden. Sie liegt bereits vor, wenn die Wohlfahrt einer Partei von der Handlung einer anderen Partei abhängt.108 Der Begriff Vertrag ist im weiteren Sinne zu interpretieren. Zum einen kann ein Vertrag im Sinne der Rechtswissenschaft vorliegen. Dabei gilt die Willenserklärung als bedeutsamer Bestandteil des Vertrages.109 Zum anderen kann sich ein Vertrag aufeine Beziehung zwischen zwei Parteien ausprägen. Daraus resultiert, dass eine Partei die andere mit ihren Interessen betraut.110 Hierbei delegiert der Principal eine Aufgabe oder Entscheidungskompetenz an den Agent, woraus sich ergibt, dass der Principal eine Leistung des Agent erhält und dieser dafür vergütet wird. Mit der Übertragung einer Aufgabe geht zwangsläufig ein gewisser Entscheidungsspielraum einher.111 Der Principal kann Einsatzbereitschaft des Agent und Qualität der erledigten Aufgabe weder lenken noch observieren.112
In dem Modell wird davon ausgegangen, dass die Interessen von Principal und Agent nicht konsentieren.113 Jensen und Meckling (1976) verdeutlichen dies: „In addition there will be some divergence between the agent’s decisions* and those decisions which would maximize the welfare of the principal.”114 Ferner sind die Marktakteure Nutzenmaximierer.115 Nutzenmaximierendes Handeln bedeutet in diesem Kontext, dass ein Akteur - in dem Fall der Agent - nicht versucht, den Vertrag bestmöglich im Sinne des Principal zu erfüllen, sondern das Informationsdefizit des Principal auszunutzen, um folglich seinen persönlichen Nutzen zu maximieren. Zudem gilt die Grundannahme, dass der Agent den besser informierten Akteur darstellt.116
In einer Principal-Agent-Beziehung fallen Agency Costs (Agenturkosten) an. Sie verstehen sich als Differenz zwischen vollkommener Information und unvollkommener Information. Dabei wird zwischen Steuerungs- und Kontrollkosten, Signalisierungskosten und Residualkosten unterschieden. Steuerungs- und Kontrollkosten entstehen, wenn der Principal sein Informationsdefizit abbaut. So kann der Principal nur unter hohen Kosten sicherstellen, dass der Agent aus Sicht oder im Interesse des Principals optimale Entscheidungen trifft. Signalisierungskosten bezeichnen Kosten des Agent, dem Prinicipal zu zeigen, dass er keine opportunistischen Absichten hat. Der verbliebene Verlust, trotz des Versuchs beider Marktakteure, die asymmetrische Information zu verringern, wird als Residualverlust bezeichnet.117
Die Principal-Agent-Theorie verfolgt das Ziel, konkrete Handlungsempfehlungen abzuleiten, um Marktversagen durch asymmetrische Informationen vorzubeugen. Es sollen Strukturen geschaffen werden, um Probleme zu vermeiden, die aus Prin- cipal-Agent-Beziehungen entstehen. So soll der Agent durch Anreize dazu gebracht werden, im Interesse des Principals zu handeln.118
[...]
1 Vgl. Brynjolfsson/McAfee, 2014, S. 21 f.
2 Vgl. Mayer-Schönberger/Cukier, 2013, S. 16
3 Vgl. Mayer-Schönberger/Cukier, 2013, S. 14-16
4 Vgl. Mayer-Schönberger/Cukier, 2013, S. 14
5 Ein Exabyte entspricht einer Mrd. Gigabyte.
6 Vgl. Hilbert/Lopez, 2012, S. 958, 964
7 Davon sind weniger als zwei Prozent analog gespeichert. Vgl. Mayer-Schönberger/Cukier, 2013, S. 16
8 Vgl. Mayer-Schönberger/Cukier, 2013, S. 16
9 Diese basieren im Wesentlichen auf Hardware, Software und Netzwerken. Vgl. Brynjolfsson/McAfee, 2014, S.26
10 Vgl. Brynjolfsson/McAfee, 2014, S. 26
11 Vgl. International Telecommunication Union, 2019
12 Vgl. Brynjolfsson/McAfee, 2014, S. 173; Picot/Scheuble, 2000, S. 3
13 Vgl. Brynjolfsson/McAfee, 2014, S. 173
14 Vgl. Mayer-Schönberger/Cukier, 2013, S. 15; Davenport/Barth/Bean, 2012
15 Vgl. Thielmann, 2013
16 Vgl. Akerlof, 1970, S. 488-500
17 Vgl. Richter/Furubotn, 2010, S. 40 f.
18 Vgl. Simon, 1957, S. 241 f.
19 Vgl. Backhaus/Paulsen, 2018, S. 113
20 Vgl. Brynjolfsson/McAfee, 2014, S. 27
21 Vgl. Kahlenborn et al., 2018, S. 8
22 Vgl. Thielmann, 2013
23 Vgl. Hess, 2019
24 Vgl. Brennen/Kreiss, 2016, S. 1
25 Vgl. Hess, 2019
26 Vgl. Wolf/Strohschen, 2018, S. 57 f.
27 Wolf/Strohschen, 2018, S. 58
28 Vgl. Brückner, 2015, S. 5
29 Vgl. Mertens et al., 2017, S. 37; Thome/Winkelmann, 2015, S. 45; Bodendorf, 2003, S. 1
30 Vgl. Seiffert, 1974, S. 24
31 Vgl. Krcmar, 2015.S.11 f.
32 Vgl. Jendrian/Weinmann, 2010, S. 108
33 Vgl. Thome/Winkelmann, 2015, S. 45
34 Vgl. Buxmann/Schmidt, 2019, S. 6; Döbel etal., 2018, S. 8; Lämmel/Cleve, 2012, S. 13
35 Grundlegende Bereiche sind u. a.: Mathematik, Philosophie, Wirtschaft, Psychologie, Neurowissenschaften, Informatik. Vgl. Russel/Norvig, 2016, S. 5-16
36 Vgl. Buxmann/Schmidt, 2019, S. 6; Russel/Norvig, 2016, S. 12
37 Vgl. Buxmann/Schmidt, 2019, S. 6 f.
38 Vgl. Lämmel/Cleve, 2012, S. 13
39 Vgl. Dresler, 2009, S. 38
40 Vgl. Luger, 2009, S. 1
41 Vgl. Ertel, 2013, S. 2
42 Vgl. Pereira/Borysov, 2019, S. 9; Kapitanova/Son, 2013, S. 1
43 Vgl. Morik, 2018, S. 22; Kelleher/Mac Namee/D’Arcy, 2015, S. 39
44 Vgl. Kapitanova/Son, 2013, S. 1
45 Vgl. Kelleher/Mac Namee/D’Arcy, 2015, S. 39
46 Vgl. Thome/Winkelmann, 2015, S. 287; Cormen, 2009, S. 5
47 Vgl. Butz/Krüger, 2017, S. 9
48 Vgl. Butz/Krüger, 2017, S. 9
49 Vgl. Thome/Winkelmann, 2015, S. 286
50 Vgl. Ertel, 2013, S. 3
51 Vgl. Mainzer, 2012, S. 137 f.
52 Vgl. Pearl, 2018, S. 1 f.; Mayer-Schönberger/Cukier, 2013, S. 80
53 Vgl. Mayer-Schönberger/Cukier, 2013, S. 25
54 Vgl. Pearl, 2018, S. 2; Kurzweil, 2005, S. 107
55 Vgl. IBM, Blue Gene
56 Vgl.Russel/Norvig, 2016, S. 12.
57 Russel/Norvig, 2016, S. 12; Die Tabelle kann im Rahmen dieser Arbeit nicht vollständig erläutert werden. Zur weiteren Recherche vgl. Russel/Norvig, 2016, S. 12; Synapsen sind Verbindungsstellen zwischen Nervenzellen und übertragen Signale. Vgl. Myers, 2014, S. 54; Die Kapazitäten der Laufwerke (Disk) liegen heute im unteren Terabyte-Bereich. Vgl. Thome/Winkelmann, 2015, S. 212
58 Vgl. Ertel, 2013, S. 247
59 Vgl. Russel/Norvig, 2016, S. 11
60 Vgl. Marois/Ivanoff, 2005, S. 296
61 Vgl. Thome/Winkelmann, 2015, S. 286
62 Vgl. Miller, 1956, S. 81-97
63 Vgl. Parker, 2012, 476-478.
64 Vgl. Thome/Winkelmann, 2015, S. 183
65 Vgl.Mertens etal.,2017,S. 11
66 Für den Begriff Maschine wird Kl-System oder System synonym verwendet
67 Vgl. Shalev-Shwartz/Ben-David, 2014, S. 3f; Mainzer, 2012, S. 136
68 Vgl. Shalev-Shwartz/Ben-David, 2014, S. 3
69 Vgl. Herbrich, 2019, S. 73
70 Vgl. Shalev-Shwartz/Ben-David, 2014, S. 3f.; Russel/Norvig, 2016, S. 12
71 Dies sind mehr als eine Mrd. Floating Point Operations (Gleitkommaoperationen) pro Sek. Vgl. Brynjolfsson/McAfee, 2014, S. 94 f.
72 Vgl. Brynjolfsson/McAfee, 2014, S. 94 f.
73 Vgl. Mayer-Schönberger/Cukier, 2013, S. 20
74 Vgl. Mayer-Schönberger/Cukier, 2013, S. 22
75 Vgl. Mühlhoff, 2019, S. 10
76 Vgl. Kurzweil, 2005, S. 107
77 Vgl. Streibich/Zeller, 2019, S. 110
78 Vgl. Pearl, 2018, S. 5. Die Fußnote beziehtsich aufden gesamten Absatz.
79 Vgl.Döbel et al.,2018,S.8
80 Vgl. Buxmann/Schmidt, 2019, S. 15f.; Athalye et al., 2017
81 Vgl. Russel/Norvig, 2016.S.13
82 Vgl. Kiener, 1990, S. 49
83 Vgl. Schenk-Mathes, 1999, S. 38
84 Vgl. Schenk-Mathes, 1999, S. 37
85 Vgl. Akerlof, 1970, S. 488-500
86 Suchkosten fallen bei der Suche nach geeigneten Produkt- und Dienstleistungsalternativen an. Sie werden unterschieden in implizite und explizite Kosten sowie Opportunitätskosten. Vgl. Hinz/Eckert, 2010, S. 66; Suchkosten werden in dieser Arbeit am Rande behandelt, da die Thematik mit der Principal-Agent-Theorie verwandt ist.
87 Akerlof, 1970, S. 489
88 Wird in der Literatur ebenso als „Ökonomische Vertragstheorie“ bezeichnet. Vgl. Richter/Furubotn, 2010, S. 41
89 Vgl. Richter/Furubotn, 2010, S. 40 f.
90 Vgl. Richter/Furubotn, 2010, S. 39
91 Vgl. Richter/Furubotn, 2010, S. 2, S. 50
92 Vgl. Richter/Furubotn, 2010, S. 7
93 Vgl. Clement/Schreiber, 2013, S. 206, 209; Richter/Furubotn, 2010, S. 41
94 Vgl. Simon, 1957, S. 241 f.
95 Vgl. Kreps, 1990, S. 764
96 Vgl. Kreps, 1990, S. 744
97 Vgl. Kreps, 1990, S. 745; Diese Eigenschaft wurde begrifflich von Williamson (1975) geprägt. Vgl. Richter/Furubotn, 2010, S. 5 f.
98 Vgl. Richter/Furubotn, 2010, S. 41 f.; Meinhövel, 2004, S. 471; Arrow, 1986, S. 1184; Jensen, 1983, S. 2
99 "Vgl. Ross, 1973, S. 134
100 Ross, 1973, S. 134
101 Vgl. Jensen/Meckling, 1976, S. 308
102 Vgl. Pratt/Zeckhauser, 1985, S. 2
103 Vgl. Richter/Furubotn, 2010, S. 173
104 Vgl. Richter/Furubotn, 2010, S. 173; Pratt/Zeckhauser, 1985, S. 2
105 Vgl.Arrow, 1986, S.1183
106 Vgl. Meinhövel, 2004, S. 470; Jost, 2001, S. 11
107 Vgl. Kaluza/Dullnig/Malle, 2003, S. 18; Picot, 1989, S. 370
108 Vgl. Pratt/Zeckhauser, 1985, S. 2
109 Vgl. Richter/Furubotn, 2010, S. 166-170
110 Vgl. Richter/Furubotn, 2010, S. 166-170; Kirsch/Picot, 1989, S. 370
111 Vgl. Richter/Furubotn, 2010, S. 32, S. 173; Jost, 2002, S. 11
112 Vgl. Pratt/Zeckhauser, 1985, S. 2 f.
113 Vgl. Jost, 2001, S. 17
114 Jensen/Meckling, 1976, S. 308
115 Vgl. Pratt/Zeckhauser, 1985, S. 3; Jensen/Meckling, 1976, S. 308
116 Vgl. Pratt/Zeckhauser, 1985, S. 4
117 Vgl. Picot, 2001, S. 57; Pratt/Zeckhauser, 1985, S. 3; Jensen/Meckling, 1976, S. 308
118 Vgl. Kaluza/Dullnig/Malle, 2003, S. 19
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.