Diese Master-Thesis behandelt die Forschungsfrage:
Wie ist der Status Quo und das Bestreben von Managerinnen und Managern bzw. Führungskräften des deutschen Mittelstands mit Fokus auf die E-Commerce-Branche, prädiktive Analysen auf Basis künstlicher Intelligenz zur Prognose des Verhaltens von Konsumentinnen und Konsumenten und verkaufspsychologischer Verwendung einzusetzen?
In einer Literaturrecherche werden dafür zunächst die relevanten Themen, wie Big Data, die E-Commerce-Branche und künstliche Intelligenz, sowie mit diesen Themen einhergehende Methoden und Entwicklungen beleuchtet. Ziel ist die Aufklärung über aktuelle unternehmensstrategische Möglichkeiten, auf Basis künstlicher Intelligenzen, sowie der Kombination, die sich mit der Verkaufspsychologie ergeben. Das Verhalten von Kundinnen und Kunden vorherzusagen, hilft Großkonzernen wie Amazon, den Absatz u. a. durch gezielte Angebote bei erhöhtem Produktinteresse zu steigern und die Abwanderungen von Kundinnen und Kunden zu verringern.
In der vorliegenden Arbeit wird mittels einer quantitativen Umfrage analysiert, inwieweit Unternehmen des deutschen Mittelstands diese Strategie bereits verfolgen und ob sie ebenso wie die zuvor genannten Großkonzerne bereits eine große Anzahl an Daten (Big Data) ihrer Kundinnen und Kunden erfassen, um in der Folge mittels künstlicher Intelligenz oder effizienter Algorithmen prädiktive Analysen anzuwenden und diese verkaufspsychologisch zu nutzen. Des Weiteren wird untersucht, welche Schwierigkeiten bei der Umsetzung der Datennutzung existieren und inwieweit die Techniken für die Sicherung der Wettbewerbsfähigkeit als nützlich betrachtet werden.
Insgesamt wurde in der empirischen Forschung eine Stichprobe von n=175 erreicht, welche weiter auf die relevante Zielgruppe reduziert wurde.
Inhalt
Abbildungsverzeichnis
1 Einleitung
1.1 Problemstellung
1.2 Ziel der Arbeit
1.3 Forschungsfrage
1.4 Methodischer Aufbau
2 Grundlagen und Begriffe
2.1 Entwicklungsgeschichte des E-Commerce
2.2 Daten und Fakten (E-Commerce)
2.3 Marktsituation und Wettbewerb im E-Commerce
2.4 Definition ,künstliche Intelligenz’
2.5 Die Geschichte der künstlichen Intelligenz
2.6 Verfahren und Methoden
2.7 Ethische Fragen
3 Aktuelle Entwicklungen
3.1 Big Data
3.2 Machine Learning
3.3 Deep Learning
3.4 Künstliche neuronale Netze als Teil des Deep Learnings
3.5 Künstliche Intelligenz im Marketing
3.6 Verhalten der Zielgruppe (Customer Insights)
3.7 Prädiktive Analytik
4 Prädiktive Analytik in der Anwendung
4.1 Best practice: Am Beispiel Asaf Jacobi
4.2 Verkaufspsychologische Möglichkeiten zur Nutzung der Resultate
4.2.1 Decoy-Effekt
4.2.2 Ankereffekt
4.2.3 Foot-in-the-door-Technik
4.2.4 Framing
4.2.5 Künstliche Verknappung
4.2.6 Priming
4.2.7 Reziprozitätseffekte
5 Methodik
5.1 Methodisches Vorgehen
5.2 Stichprobenauswahl der quantitativen Erhebung
5.3 Pre-Testing des standardisierten Fragebogens
5.4 Fragebogendesign
5.5 Datenerhebung
5.6 Filterung der Zielgruppe
6 Ergebnisse der quantitativen Umfrage
6.1 Ergebnisse und Interpretation
6.2 Zusammenfassung der Ergebnisse
6.3 Schlussfolgerung
6.4 Beantwortung der Forschungsfrage
6.4.1 Status Quo des deutschen Mittelstands (E-Commerce)
6.4.2 Bestreben des deutschen Mittelstands (E-Commerce)
6.5 Handlungsempfehlung für Unternehmen
7 Fazit
8 Glossar
9 Literaturverzeichnis
10 Anhang
10.1.1 Standardisierter Fragebogen
10.1.2 Soziodemografische Daten
10.1.3 Datenbasis der quantitativen Erhebung
Abbildungsverzeichnis
Abbildung 1: Teilnehmer der Konferenz (Buxmann 2021)
Abbildung 2: Meilensteine der KI-Entwicklung (Buxmann 2021)
Abbildung 3: KI-Baumstruktur nach Russel und Norvig (Weber 2020)
Abbildung 4: Aufbau neuronaler Netze (Buxmann 2021)
Abbildung 5: Vorhersagen in der Analytik (vgl. Amann et al. 2020, S. 252)
Abbildung 6: Frage 1 (Ergebnisse der quantitativen Erhebung)
Abbildung 7: Frage 2 (Ergebnisse der quantitativen Erhebung)
Abbildung 8: Frage 3 (Ergebnisse der quantitativen Erhebung)
Abbildung 9: Ergebnisse der Frage 5 (Ergebnisse der quantitativen Erhebung)
Abbildung 10: Datenbestand der Erhebung 1 / 15
Abbildung 11: Datenbestand der Erhebung 2 / 15
Abbildung 12: Datenbestand der Erhebung 3 / 15
Abbildung 13: Datenbestand der Erhebung 4 / 15
Abbildung 14: Datenbestand der Erhebung 5 / 15
Abbildung 15: Datenbestand der Erhebung 6 / 15
Abbildung 16: Datenbestand der Erhebung 7 / 15
Abbildung 17: Datenbestand der Erhebung 8 / 15
Abbildung 18: Datenbestand der Erhebung 9 / 15
Abbildung 19: Datenbestand der Erhebung 10 / 15
Abbildung 20: Datenbestand der Erhebung 11 / 15
Abbildung 21: Datenbestand der Erhebung 12 / 15
Abbildung 22: Datenbestand der Erhebung 13 / 15
Abbildung 23: Datenbestand der Erhebung 14 / 15
Abbildung 24: Datenbestand der Erhebung 15 / 15
Tabellenverzeichnis
Tabelle 1: Beispiel für den Decoy-Effekt (vgl. Tembrink 2020, S. 90)
Tabelle 2: Ergebnisse der Frage 8 (Ergebnisse der quantitativen Erhebung)
Tabelle 3: Ergebnisse der Frage 9 (Ergebnisse der quantitativen Erhebung)
Tabelle 4: Ergebnisse der Frage 10 (Ergebnisse der quantitativen Erhebung)
Tabelle 5: Ergebnisse der Frage 11 (Ergebnisse der quantitativen Erhebung)
Tabelle 6: Ergebnisse der Frage 12 (Ergebnisse der quantitativen Erhebung)
Tabelle 7: Ergebnisse der Frage 13 (Ergebnisse der quantitativen Erhebung)
Tabelle 8: Ergebnisse der Frage 14 (Ergebnisse der quantitativen Erhebung)
Tabelle 9: Ergebnisse der Frage 15 (Ergebnisse der quantitativen Erhebung)
Tabelle 10: Ergebnisse der Frage 16 (Ergebnisse der quantitativen Erhebung)
Tabelle 11: Ergebnisse der Frage 17 (Ergebnisse der quantitativen Erhebung)
Tabelle 12: Ergebnisse der Frage 18 (Ergebnisse der quantitativen Erhebung)
Tabelle 13: Ergebnisse der Frage 19 (Ergebnisse der quantitativen Erhebung)
Tabelle 14: Ergebnisse der Frage 20 (Ergebnisse der quantitativen Erhebung)
Tabelle 15: Ergebnisse der Frage 21 (Ergebnisse der quantitativen Erhebung)
Tabelle 16: Ergebnisse der Frage 22 (Ergebnisse der quantitativen Erhebung)
Tabelle 17: Ergebnisse der Frage 23 (Ergebnisse der quantitativen Erhebung)
Tabelle 18: Ergebnisse der Frage 24 (Ergebnisse der quantitativen Erhebung)
Tabelle 19: Ergebnisse der Frage 1 (Ergebnisse der quantitativen Erhebung)
Tabelle 20: Ergebnisse der Frage 2 (Ergebnisse der quantitativen Erhebung)
Tabelle 21: Ergebnisse der Frage 3 (Ergebnisse der quantitativen Erhebung)
Tabelle 23: Ergebnisse der Frage 5 (Ergebnisse der quantitativen Erhebung)
1 Einleitung
Der folgende Einleitungsteil dieser Forschungsarbeit beschreibt zunächst die Problemstellung in der Branche, sowie das Ziel dieser Arbeit. Dazu wird folgend die Forschungsfrage festgelegt und der methodische Aufbau beschrieben, welchem diese Arbeit folgt.
1.1 Problemstellung
Die E-Commerce-Branche hat von der Coronakrise deutlich profitiert. Laut einer Studie des Marktforschungsinstituts IFH Köln wird der Umsatz allein in Deutschland bis zum Jahr 2024 auf 103 bis 141 Milliarden Euro ansteigen (vgl. IFH Köln).
Führende Unternehmen wie Amazon, Zalando und Otto scheinen durch ihre Marktstellung deutliche Wettbewerbsvorteile zu besitzen, die u. a. aus der systematischen Analyse bereits vorhandener, historischer Daten resultieren. So werten diese Unternehmen seit mehreren Jahren Marktforschungskennziffern auf Basis von Big Data aus, um das Verhalten ihrer Kundschaft zu verstehen, zu beeinflussen und unlängst auch vorherzugsagen (vgl. Claus Hoening).
Als Teilbereich dieser Analysen, welche auf Basis großer Datenmengen (Big Data Analytics) ansetzen, gelten prädiktive Analysen. Diese werden u. a. verwendet, um auf Basis bestehender Nutzungsdaten Auswertungen zu erstellen und Vorhersagen darüber zu treffen, was in diversen Bereichen des Unternehmens in der Zukunft passieren wird. Mithilfe dieser Technologie können z. B. Verkaufsprognosen berechnet werden und Vorhersagen über das Verhalten der Kundschaft, wie Kündigungstendenzen, wachsendes Produktinteresse, geplante Einkäufe und mehr, getätigt werden (vgl. Amazon Business 2022).
Für die Anwendung prädiktiver Analysen müssen zunächst große, historische Datenmengen aus internen und externen IT-Systemen in strukturierter und unstrukturierter Form gesammelt und mit Simulationsverfahren kombiniert werden. Durch s. g. ,Deep Learning’ auf Basis des s. g. ,Machine Learning‘, also der eigenständigen Lernfähigkeit von Algorithmen, werden automatisch Erkenntnisse gewonnen und in neuronalen Netzen verdichtet.
Darauf aufbauend kann eine prädiktive Analyse durchgeführt werden, durch die prognostiziert werden soll, was die Kundschaft in Zukunft unternehmen wird und für welche Produkte sie sich verstärkt interessiert. Dieser Bedarf soll sodann bedient werden, 1 indem das Marketingteam entsprechend angepasste Produkte für die jeweilige Kundin oder den jeweiligen Kunden dynamisch hervorhebt (vgl. Weber 2020, S. 11).
Prädiktive Analysen und maschinelles Lernen werden in der Industrie bereits eingesetzt, um Fahrassistenz-Systeme in autonomen Fahrzeugen zu verbessern, Wartungsintervalle zu prognostizieren und zu optimieren sowie in der Fehlerfrüherkennung (vgl. Buxmann 2021, S. 84 ff).
Der Bedarf, konkret auswertbare Trends, sog. Customer Insights, zu wachsenden und schnellveränderten Bedürfnissen frühzeitig erkennen und folgend bedienen zu können, um Kundinnen und Kunden langfristig zu binden, ist jedoch nicht nur den marktführenden Unternehmen vorbehalten. Es wird davon ausgegangen, dass auch für den E-Commerce-Mittelstand in Deutschland, der Einsatz von Vorhersagen zum Kundenverhalten auf Basis von Big Data von steigendem Interesse ist, um wettbewerbsfähig zu bleiben.
1.2 Ziel der Arbeit
Künstliche Intelligenz bietet eine Vielzahl innovativer Möglichkeiten für Unternehmen: Deep Learning, neuronale Netze, Big Data, autonome Produktionsprozesse, sowie Robotik und weitere Technologien oder Algorithmen, die für Unternehmen wirtschaftlich relevant sein können. Verfahren, die auf künstlicher Intelligenz basieren, können nicht nur die Präzision von Menschen übertreffen und gewisse Lernprozesse eigenständig durchführen, sondern bestimmte Leistungen, wie z.B. computergestütztes Recruiting auch kosteneffizienter und schneller erbringen als ein Mensch. Maschinen und Algorithmen ermüden nicht und können ihre Arbeit ohne Pausen und Nahrungszunahme verrichten (vgl. Ulrich Eberl 2022).
Besonders in der E-Commerce-Branche hat sich ein Bestreben nach Einsicht in das Verhalten der Kundinnen und Kunden herauskristallisiert. Um bestehende Konsumentinnen und Konsumenten besser verstehen, deren Bedürfnisse effizienter bedienen sowie Umsätze entsprechend steigern zu können, bietet künstliche Intelligenz die Möglichkeit, große Datenmengen durch Deep Learning auf Basis von neuronalen Netzen auszuwerten und Verhaltensmuster zu erkennen, um z. B. Kaufabsichten zu prognostizieren. Damit einhergehend können Unternehmen verkaufspsychologische Techniken situativ einsetzen; etablierte Methoden in diesem Gebiet werden im fortwährenden Verlauf dieser Forschungsarbeit betrachtet.
Ziel dieser Forschungsarbeit ist, den Bedarf deutscher Unternehmen des E-Commerce-Mittelstands an prädiktiver Analytik zu untersuchen sowie entsprechende Einsatzfelder und auch etwaige Hürden herauszustellen.
1.3 Forschungsfrage
Wie ist der Status Quo und das Bestreben von Managerinnen und Managern bzw. Führungskräften des deutschen Mittelstands mit Fokus auf die E-Commerce-Branche (Jahresumsatz bis max. 50 Millionen Euro), prädiktive Analysen auf Basis künstlicher Intelligenz zur Prognose des Verhaltens von Konsumentinnen und Konsumenten und verkaufspsychologischer Verwendung einzusetzen?
1.4 Methodischer Aufbau
Die Forschungsarbeit beginnt mit einem theoretischen Teil, der auf einer umfassenden Literaturrecherche beruht und einen Status Quo zu den Grundlagen künstlicher Intelligenz mit Fokus auf Deep Learning bzw. Machine Learning auf Basis von großen Datenmengen (Big Data) widerspiegelt. Dies ermöglicht folgend eine eingehendere Untersuchung des Themenschwerpunktes der prädiktiven Analytik. Um eine gleiche Ausgangssituation für das Verständnis des Themas und der folgenden Forschungsarbeit zu schaffen, werden aktuelle Entwicklungen, Risiken, technische Grenzen sowie ethische Herausforderungen umrissen.
Es folgt die Erläuterung eines zur Erhebung einer empirischen Sozialforschung ausgehändigten, quantitativen, standardisierten Fragebogens mit einer größtmöglichen Stichprobenanzahl, um möglichst repräsentative Resultate zu erhalten. Zielgruppe der Stichprobe waren Führungskräfte sowie Managerinnen und Managern aus der E-Commerce-Branche (Firmenhauptsitz in Deutschland) mit einem maximalen Jahresumsatz von 50 Millionen Euro. So sollte der Mittelstand konkret eingeschränkt werden, da hier eine Forschungslücke existiert. Alternierende Antwortmöglichkeiten (z. B. andere Branchen) sollen nicht per Screen-out-Frage ausgewiesen werden. Der Fragebogen wurde digital über berufliche soziale Medien verteilt und hatte eine Laufzeit von mehreren Wochen. Zwar wurden demografische Daten erhoben, doch blieben die Teilnehmerinnen und Teilnehmer hinsichtlich personenbezogener Daten anonym.
2 Grundlagen und Begriffe
Im folgenden Kapitel wird zunächst die Entwicklungsgeschichte der E-CommerceBranche, die Daten und Fakten zur Branche, sowie die aktuelle Markt- und Wettbewerbssituation im E-Commerce Mittelstand in Deutschland, beleuchtet. Folgend werden wichtige Grundlagen zum Thema künstliche Intelligenz erläutert, sowie bekannte Verfahren und Methoden, aber auch ethische Fragen, beschrieben, welche die Basis für das Verständnis der weiteren Forschungsarbeit herstellen.
2.1 Entwicklungsgeschichte des E-Commerce
Das Jahr 1969 gilt als das Ursprungsjahr des Internets. Das damalige Arpanet, das vom US-Verteidigungsministerium entwickelt wurde, vernetzte Forschungseinrichtungen und Universitäten, um Synergien zu schaffen und die Rechenkapazitäten effizienter nutzen zu können. In der Folge wurden immer mehr Rechner zusammengeführt, hierdurch entwickelte sich das Internet immer weiter. Anfang der 1990er Jahre wurden erstmalig grafische Oberflächen auf Basis der Programmiersprache ,HTML‘ möglich und mittels des Hypertext Transfer Protocol (http) in s. g. ,Browser-Programmen‘ einsehbar. In der Folge stieg die Nachfrage und der Konsum des Internets rasch an und der weltweite Zugang zu Informationen förderte den Wandel zu einer global vernetzten Informationsgesellschaft, die Marshall McLuhan in den 1960er Jahren bereits als ,Glo- bal Village‘ bezeichnete. Mit dem weiteren Voranschreiten des Ausbaus der technischen Infrastruktur hinsichtlich Bandbreiten, Geschwindigkeit und Zuverlässigkeit wurde das Internet zur kommerziellen Nutzung attraktiv. Dies führte in den frühen 1990er Jahren zu einem Boom an Neugründungen, die als ,New Economy’ bezeichnet wurden. Mit den Gründungen von Amazon im Jahr 1994 und eBay im Jahr 1995 wurde der Begriff ,E-Commerce‘ geschaffen und etabliert (vgl. Frank Deges 2019, S. 6).
Es liegt keine allgemeingültige, einheitliche Definition des Begriffs ,Mittelstand‘ vor. Da die dieser Arbeit zugrunde liegenden Untersuchungen auf den deutschen Mittelstand beschränkt sind, wird die Begriffserläuterung der KfW-Bankengruppe herangezogen, da diese als eine der führenden Förderbanken des Mittelstands in Deutschland gilt. Diese hat den Mittelstand quantitativ wie folgt definiert: Der Jahresumsatz überschreitet nicht den Wert von 50 Millionen Euro und die Anzahl der angestellten Personen liegt zwischen 100 und 500 Mitarbeiterinnen und Mitarbeitern (vgl. Gabler Wirtschaftslexikon 2022a).
Diese Kriterien bilden für die quantitative Erhebung den Rahmen der relevanten Zielgruppe, die sich in der Methodik der quantitativen Erhebung durch einen standardisierten Fragebogen auf die Führungskräfte bzw. Managerinnen und Manager im Bereich ,E-Commerce-Mittelstand‘ in Deutschland beschränken wird.
2.2 Daten und Fakten (E-Commerce)
Weltweit nutzten im Jahr 2021 bei einer Erdbevölkerung von 7,84 Milliarden Menschen 4,9 Milliarden Menschen das Internet. Damit sind mehr als 61,7 % aller Menschen online. Das weltweite Volumen des Onlinehandels steigt von Jahr zu Jahr. Dieses Wachstum entwickelt sich in unterschiedlichen Intensitäten und Geschwindigkeiten, je nach Branche und Region (vgl. Statista 2020).
In Deutschland herrschen eine hohe Internetpenetration sowie eine steigende Nutzungsintensität. Entsprechend hoch ist auch das Wachstum im E-Commerce, das nahezu in allen Bevölkerungsschichten und Altersgruppen stattfindet. Im Jahr 2020 lag der Umsatz im E-Commerce in Deutschland bei 72,8 Milliarden Euro, bezogen auf den B2C-Bereich (vgl. Statista 2020). Durch die Coronapandemie hat sich der Konsum durch die starke Verhäuslichung sowie die Neuerungen im Distanzverhalten verändert und den Umsatz auf 99,1 Milliarden Euro ansteigen lassen (vgl. Manager Magazin 2022).
2.3 Marktsituation und Wettbewerb im E-Commerce
In vielen Staaten stellt die Internetökonomie inzwischen einen erheblichen Teil der jeweiligen Volkswirtschaft dar. So gilt ein permanentes, stabiles Internet mit hohen Bandbreiten und fairen Nutzungspreisen längst als Wettbewerbsfaktor für ein Land. Dies erfordert in Deutschland Investitionen in den Ausbau von leistungsfähigen Infrastrukturen, wie Mobilfunk und Glasfaserleitungen. Dies gilt auch in ländlicheren Gebieten mit schwächerer Infrastruktur (vgl. Frank Deges 2019, S. 7 f).
Algorithmen und Technologieprodukte auf Basis von künstlicher Intelligenz sind im Zusammenhang mit Big Data zu einem wesentlichen Antrieb für die zunehmende branchenübergreifende Digitalisierung von Geschäftsprozessen geworden (vgl. Buxmann 2021, S. 177). Im Online-Marketing und Vertrieb wird davon ausgegangen, dass in Zukunft u. a. die robotergestützte Prozessautomatisierung (RPA) als Gateway-Technologie eine bedeutende Rolle spielen wird. Annahmen zufolge kann jede Kundeninteraktion mit der Marke über eine E-Commerce-Webseite von einer speziellen Plattform für das Marketing getrackt und gespeichert werden. Sogenannte ,prädik- tive‘, also vorhersagbare, Lösungen greifen anhand von gesammelten Daten vorhandene Erkenntnisse auf, um die nächsten Schritte zu berechnen und Vorhersagen treffen zu können. Diese Analyseergebnisse können sodann automatische Handlungen über verschiedene Kanäle, z. B. über E-Mail, Mobilgeräte oder Online-Kanäle, auslösen (vgl. Cole 2020, S. 109).
Leistungsfähige Prognosesoftware, wie das Programm ,Einstein‘ der Firma Salesforce oder ,Atomic Reach’, werden gegenwärtig bereits dafür eingesetzt, festzustellen, welche Inhalte bei einer Zielgruppe erhöhtes Interesse vorweisen. In Software wie ,Con- cured‘ wird künstliche Intelligenz genutzt, um das Verhalten von Verbraucherinnen und Verbrauchern anhand der Inhalte zu verstehen und das Marketing entsprechend an die Bedürfnisse der Kundinnen und Kunden innerhalb der Zielgruppe anzupassen (vgl. Cole 2020, S. 110). Als einflussnehmend auf den ökonomischen Erfolg innovativer Vorreiter im E-Commerce, gelten insbesondere Leistungen und die Kostenstruktur digitaler Prozesse (vgl. Große et al. 2020, S. 7). Es wird insbesondere davon ausgegangen, dass künstliche Intelligenz und die fortschreitende Digitalisierung weiterhin einen wirtschaftlich bedeutenden, gesellschaftlichen Wandel vorantreiben werden, der den Wettbewerb verstärkt (vgl. Buxmann 2021, S. 178).
2.4 Definition ,künstliche Intelligenz’
Deep Learning, Artificial Intelligence, Big-Data-Analytik, Machine Learning, Robotik, autonome Systeme und mehr - es gibt heutzutage eine Vielzahl von Begrifflichkeiten, die das Thema ,künstliche Intelligenz’ als eine Art ,Kofferwort‘ umschreiben, ohne eine einheitliche, wissenschaftliche Definition zu bilden (vgl. Buxmann 2021, S. 53).
Die Begrifflichkeit ,Intelligenz’ kann definiert werden, als die „ Fähigkeit, abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten “ (Bibliographisches Institut GmbH 2022). In Anlehnung daran kann der Begriff ,künstliche Intelligenz’ auf den Teilbereich der Informatik bezogen werden, der sich mit der Aneignung kognitiver Fähigkeiten befasst, die in aller Regel der Intelligenz des Menschen zugeschrieben werden. Dazu zählt das Lernen, das Lösen von Problemen und die Erkennung von Mustern (vgl. Bünte 2020, S. 53).
Nils John Nilsson gilt als ein Pionier im Themenfeld der künstlichen Intelligenz und Robotik. Er promovierte an der Stanford University und arbeitete 23 Jahre im Artificial Intelligence Center vom Stanford Research Institute. Von 1985 bis 1990 war er Professor in Standford und Vorstandsmitglied der Informatik-Fakultät. Er definierte die Be- grifflichkeit ,künstliche Intelligenz’ wie folgt: „Artificial intelligence is that activity devoted to making machines intelligent, and intelligence is that quality that enables an entity to function appropriately and with foresight in its environment“ (Stanford University 2016); zu Deutsch: „Künstliche Intelligenz ist die Aktivität, die darauf abzielt, Maschinen intelligent zu machen, und Intelligenz ist die Qualität, die es einer Einheit ermöglicht, angemessen und vorausschauend in ihrer Umgebung zu funktionieren“ (Stanford University 2016).
Ein weiterer Pionier für künstliche Intelligenz ist Roger Schrank, der als amerikanischer Theoretiker der künstlichen Intelligenz und Kognitionspsychologe an der Yale University forschte. Schrank definiert den Begriff ,künstliche Intelligenz’ wie folgt:
In englischer Sprache: “Ai is the science of endowing programs with the ability to change themselves for the better as a result of their own experiences” (Bünte 2020, S. 54).
Ins Deutsche übersetzt: Ai ist die Wissenschaft, Programme mit der Fähigkeit auszustatten, sich aufgrund ihrer eigenen Erfahrungen zum Besseren zu verändern (Bünte 2020, S. 54).
Eine weitere Definition der Begrifflichkeit ,künstliche Intelligenz' ist nach McCarthy „...die Wissenschaft und Technik der Schaffung intelligenter Maschinen, insbesondere intelligenter Computerprogramme“ (Weber 2020, S. 37).
Es lassen sich Unterschiede aber auch Ähnlichkeiten in den erwähnten Definitionen erkennen; zudem existieren weitere, hier nicht aufgeführte Definitionen. Um ein einheitliches Verständnis zu gewähren, wird in der vorliegenden Arbeit folgende Definition als Maßstab festgelegt: „ Unter Künstlicher Intelligenz verstehen wir alle technischen Unterstützungssysteme, welche Lernen können, unabhängig davon, ob ein Mensch daran beteiligt ist oder nicht “ (Bünte 2020, S. 54).
2.5 Die Geschichte der künstlichen Intelligenz
Bereits in der Antike soll es erste Überlegungen zu künstlicher Intelligenz gegeben haben, als Geburtsstunde gilt jedoch das ,Summer Research Project on Artifical Intelligence‘, ein Event, das im Jahr 1956 am Darthmouth College in New Hampshire stattgefunden hat. Diese sechswöchige Konferenz wurde geplant und durchgeführt von John McCarthy, der als Entwickler und Erfinder der Programmiersprache ,LISP‘ bekannt wurde. Auch waren u.a. Marvin Minsky, ein Forscher für künstliche Intelligenz, ein Informationstheoretiker namens Claude Shannon, der Psychologe Alan Newell und ein späterer Nobelpreisgewinner namens Herbert Simon anwesend. Die Expertinnen und Experten teilten gleichermaßen eine Überzeugung, die besagt, dass Denken nicht nur innerhalb, sondern auch außerhalb des Gehirns des menschlichen Individuums geschehen kann. Das Resultat dieser Konferenz ergab das erste lauffähige KI-Pro- gramm mit dem Titel ,LOGIC THEORIST’, das nicht nur Zahlen und Ziffern, sondern gleichermaßen auch Symbole verarbeitete (vgl. Buxmann 2021, S. 3).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Teilnehmer der Konferenz (Buxmann 2021)
Nach dieser Konferenz wurde die Forschung am Thema ,künstliche Intelligenz’ ausgebaut und beschleunigt. Computer wurden schneller und günstiger, die Speicherkapazitäten größer. Auch wurden Fortschritte an neuronalen Netzen erreicht.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2: Meilensteine der KI-Entwicklung (Buxmann 2021)
Im Jahr 1957 entwickelten Allen Newell und Herbert A. Simon eine Software namens ,General Problem Solver’ zur Realisierung einer Problemlösungsmethode im Rahmen der beginnenden Forschung zur künstlichen Intelligenz. Im Jahr 1966 entwickelte Joseph Weizenbaum das Programm ,ELIZA‘, das einen Vorläufer heutiger Chatbots darstellt und Kommunikation zwischen Menschen und natürlicher Sprache simulierte (vgl. Buxmann 2021, S. 7).
Erste Erfolge mit künstlicher Intelligenz führten jedoch zu Übertreibungen und Überschätzungen der Technologie. So sagte Marvin Minsky im Jahr 1970, es werde in 3 bis 8 Jahren eine Maschine geben, die einen durchschnittlich intelligenten Menschen simulieren kann. Auch wurden Computer vorhergesagt, die Schachweltmeister werden würden. Diese Fehlschläge führten dazu, dass die Zeitspanne von 1965 bis 1975 oftmals als ,KI-Winter‘ bezeichnet werden.
In den 1980er Jahren wurden insbesondere die Entwicklungen von Expertensystemen fokussiert. Als Begründer dieser Systeme gilt der ehemalige Professor für Informatik Edward Feigenbaum von der Stanford Universität. Das Konzept von Expertensystemen basiert im Kern auf einem Regelwerk und dem Aufbau einer Wissensbasis für eine eindeutig abgegrenzte Problemstellung. Im Jahr 1972 wurde besonders das MYCIN-System bekannt, das der Diagnosestellung von Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis diente. Diese Systeme konnten sich im Laufe der Zeit trotz großer Erwartungen nicht durchsetzen, da die Regeln zu unflexibel und wenig lernfähig waren.
Als besonderer Meilenstein gilt das ,Fifth Generation Project’, mit dem Japan die Intension verfolgte, KI-Spitzenforschung zu betreiben. Die japanische Regierung investierte 400 Millionen Dollar in das Projekt, das auf der Sprache ,PROLOG‘ basierte. Das Ziel war besonders die praktische Anwendung von künstlicher Intelligenz. In den 1990er Jahren wurden im Bereich des Teilgebiets ,Robotik‘ große Erfolge erzielt. So wurde ein Roboter-Wettbewerb namens ,RoboCup‘ ins Leben gerufen, bei dem Wissenschaftlerinnen und Wissenschaftler sowie Studenteninnen und Studenten aus der ganzen Welt ihre Roboterteams gegeneinander Fußball spielen ließen. In den 1990er Jahren wurde ebenso die Entwicklung von künstlichen neuronalen Netzen auf Basis komplexer Algorithmen vorangetrieben. Im Jahr 1997 sorgte der Wettkampf zwi- sehen IBMs ,Deep Blue’ und dem damaligen Schwachweltmeister Garri Kasparov für öffentliches Aufsehen, da der IBM-Computer tatsächlich den Schachweltmeister besiegen konnte. Dieses Ereignis wurde in den Medien zum Sieg des Computers über den Menschen zelebriert. Kritikerinnen und Kritiker merkten jedoch an, dass Deep Blue kein wirklich intelligentes System sei, sondern der Großteil aller denkbaren Konsequenzen schlichtweg aufgrund hoher Rechenleistung mit der Brute-Force-Methode durchgerechnet worden war. Tatsächlich basierte die Technologie von Deep Blue auf heuristischen Algorithmen, die die intelligente Suche nach Abläufen ermöglichte. In den letzten Jahren wurden die Entwicklungen hinsichtlich künstlicher Intelligenz vor allem auf den Teilbereich des maschinellen Lernens ausgedehnt, bei dem es sich nach Erik Brynjolfsson und Andrew McAffee vom Massachusetts Institute of Technology (MIT) um die wichtigste Basistechnologie unseres Zeitalters handelt (vgl. Buxmann 2021, S. 6).
2.6 Verfahren und Methoden
Wie bereits in Kapitel 2.3 angesprochen, gibt es keine standardisierte Definition des Begriffs ,künstliche Intelligenz’, zudem werden in der Literatur Teilgebiete der Verfahren bzw. Methoden unterschieden. In diesem Abschnitt werden gängige und verbreitete Verfahren zum Thema ,künstliche Intelligenz’ vereinfacht dargestellt. Anschließend werden zur Beantwortung der Forschungsfrage die notwendigen Verfahren und Methoden zur Generierung prädiktiver Analysen eingehend betrachtet.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3: KI-Baumstruktur nach Russel und Norvig (vgl. Weber 2020)
In der Darstellung werden die verschiedenen Zweige der künstlichen Intelligenz nach Stuart Russell und Peter Norvig dargestellt. Das s. g. ,Natural Language Processing’ beschreibt die Verarbeitung natürlicher Sprache als Teilgebiet der Informatik und wird insbesondere bei der Analyse großer Mengen natürlicher Sprache eingesetzt. Robotik ist interdisziplinär und umfasst neben der Informatik bzw. künstlicher Intelli-genz auch Ingenieur- und Naturwissenschaften, sowie Elektrotechnik und Maschinen-bau.
In der kognitiven Modellierung konzentrieren sich die Systeme tendenziell auf ein ein-zelnes, kognitives System, das den Versuch darstellt, sich menschlichen Prozessen anzunähern. Kognitive Modelle fokussieren dabei tendenziell einen einzelnen Prozess, z. B. Listenlernen, oder die Interaktion zwischen zwei oder mehr Prozessen (vgl. Weber 2020, S. 38 f). Maschinelles Lernen wird im weiteren Verlauf dieser Arbeit intensiver beleuchtet (vgl. Weber 2020, S. 38).
Expertensysteme als Teilbereich der künstlichen Intelligenz sind Computerprogramme, die Menschen bei der Lösung komplexer Probleme unterstützen können. Gleich einer Expertin oder einem Experten bietet das Programm anhand einer spezifischen Wissensbasis Handlungsempfehlungen. Die Qualität ist dabei nicht nur mit der einer menschlichen Expertin oder eines Experten vergleichbar, sondern kann diese sogar übertreffen (vgl. Gabler Wirtschaftslexikon 2022).
Die Wissensrepräsentation und -logik ist ein Teilbereich der künstlichen Intelligenz, der auf die Darstellung von Umweltinformationen ausgelegt ist. Dies können z. B. komplexe, medizinische Diagnosen sein oder Aufgaben wie das Aufklären eines Dialogs innerhalb natürlicher Sprache. Der Begriff ,Wissensrepräsentation‘ umfasst zudem die psychologische Analyse, wie Menschen Aufgaben lösen und Formalismen entwerfen, um komplexe Systeme zu vereinfachen (vgl. Weber 2020, S. 38).
Die heuristische Problemlösung in der künstlichen Intelligenz beschreibt eine Technik, sich einer idealen Zielsetzung anzunähern. Das Ergebnis sind oftmals gute, nicht aber optimale Lösungen in schwer überschaubaren Problembereichen (vgl. Wirtschaftslexikon Gabler).
2.7 Ethische Fragen
Im Kontext künstlicher Intelligenz werden regelmäßig Fragen zur Ethik und den Grenzen entsprechender Technologien aufgeworfen. In diesem Teil der Arbeit soll das Thema kurz behandelt und der aktuelle Rahmen, in dem sich die Forschungsarbeit befindet, dargelegt werden.
Der Unterschied zwischen Menschen und künstlicher Intelligenz, die jeweils Entscheidungen treffen, ist, dass Maschinen weder Gefühle haben können noch moralischen Institution unterstellt sind. Zwar können Maschinen Daten verarbeiten, die Gefühle darstellen, Gefühle wie Schmerz oder Freude empfinden oder sich darüber bewusst werden können sie jedoch nicht. Selbst bereits entwickelten lebensechten Robotern fehlt diese Eigenschaft.
Vernünftiges Handeln innerhalb von KI-Technologien benötigt den Einsatz von Logik. Nach dem griechischen Philosophen Aristoteles lässt sich folgendes Beispiel hinsichtlich der Logik schildern. Aus den Prämissen ,Sokrates ist ein Mensch’ und ,Alle Menschen sind sterblich‘ lässt sich schlussfolgern, dass Sokrates sterblich ist. So werden demnach die richtigen Regeln (Menschen sind sterblich) und Symbole (Sokrates ist ein Mensch) benötigt, damit Maschinen entsprechendes Handeln herleiten können. Am Beispiel der Aufgabenanalyse der Verkehrskontrolle lässt sich demonstrieren, dass Maschinen einen Parameter für die erlaubte Geschwindigkeit bzw. Maximalgeschwindigkeit sowie für die derzeitig gefahrene Geschwindigkeit benötigen, um diese miteinander vergleichen zu können. Anhand dieses Vergleichs kann die Maschine logisch erkennen, dass je nach Ergebnis ein entsprechendes Verhalten ausgelöst werden müsste, z. B. das Erteilen eines Strafzettels bei Überschreitung der Maximalgeschwindigkeit.
Auch folgende Entscheidungssituationen können Menschen problemlos lösen, für eine künstliche Intelligenz oder eine Maschine stellt sie jedoch ein Problem dar: Ein Roboter erhält den Auftrag, einen Brief zu versenden. Der Roboter ist wasserdicht. Auf dem Weg zum Briefkasten fällt ein Kind in einen Bach und droht, zu ertrinken. Der Roboter hat nach wie vor den Auftrag, den Brief zu versenden. Hier würde ein Mensch unmittelbar eingreifen und das Kind retten, eine Maschine kann jedoch nicht spontan bestimmen, was zu tun ist. Der Roboter muss den Wert des geretteten Lebens im Vergleich zum Wert der verzögerten Briefabgabe abwägen können, was nur anhand zuvor definierter Skalen möglich ist. Doch selbst, wenn das Leben eines Kindes zuvor mit einem Wert von 100.000 festgelegt worden wäre und das Versenden eines Briefes einen Wert von 1 erhalten hätte, würde die Situation bei einer Anzahl von 100.000 Briefen zu einem erneuten Dilemma führen. Beides hätte mathematisch für die Maschine den gleichen Wert, wenngleich ein Mensch mit gesundem Verstand sich in der Regel stets für die Rettung des Kindes entscheiden würde.
Dieses Szenario stellt nur eine von zahlreichen Beispielsituationen für die Problematik bezüglich der Gewichtung und der Bezifferung von Werten, die zu relevanten Entscheidungen von KI-Technologien mit hoher Verantwortung führen, dar. Auch aus diesem Grund ist Ethik für Maschinen bzw. künstliche Intelligenz eine große Herausforderung und derzeit ein bedeutendes Forschungsgebiet, welches in dieser Arbeit außen vorgelassen wird (vgl. Cole 2020).
3 Aktuelle Entwicklungen
Im folgenden Teil dieser Forschungsarbeit werden die Entwicklungen und Verfahren erläutert, welche die Basis für prädiktive Analysen schaffen. Hierzu zählen insbesondere Big Data, Machine Learning, Deep Learning, künstliche neuronale Netze, sowie die Anwendung dieser im Marketing bzw. konkret in der Analyse des Verhaltens der Konsumentinnen und Konsumenten. Im letzten Teil wird die prädiktive Analytik fachlich beschrieben.
3.1 Big Data
Big Data bezeichnet große Datenmengen, z. B. Daten von Kundinnen und Kunden, Kameraaufzeichnungen und permanente Transaktionsdaten. Das weltweite Datenvolumen ist durch die stetige Erfassung stark angewachsen, so dass sich bisher unerkannte Möglichkeiten für den Einsatz künstlicher Intelligenzen eröffnen. Wirtschaftsunternehmen erkennen darin eine Chance, neue Einblicke in die Interessen ihrer Kundinnen und Kunden mit Fokus auf Kaufverhalten und Risikopotential erhalten zu können. Anhand von Big-Data-Analysen können personenbezogene Profile erstellt oder z. B. seitens der Wissenschaft historische Daten mit Bezug auf den Klimawandel, Bevölkerungswanderungen sowie das Entstehen von Erdbeben oder Massenphänomenen untersucht werden. Die Nutzung von Big Data wird aus Gründen des Datenschutzes und des Persönlichkeitsrechts des Öfteren kritisch betrachtet“ (vgl. Gabler Wirtschaftslexikon).
Künstliche Intelligenzen, wie Deep Learning oder Machine Learning, sind auf Big Data angewiesen. Auf Basis historischer Daten werden Algorithmen antrainiert oder Abweichungen und Vorhersagen berechnet. Big Data stellt somit die Basis für den Einsatz vieler künstlicher Intelligenzen dar.
3.2 Machine Learning
Ein Teilbereich der künstlichen Intelligenz ist das s. g. ,Machine Learning’, das anderen Systemen die Fähigkeiten anlernt, aus vorhandenen, historischen Daten automatisch Erfahrungen zu generieren und sich anhand dieser stets zu verbessern, ohne explizit dafür einprogrammiert worden zu sein. Machine Learning wendet Algorithmen an, um Muster und Zusammenhänge in den vorhandenen Daten zu erkennen. Diese erkannten und adressierten Muster und Zusammenhänge lassen sich auf neue Datensätze anwenden, um Vorhersagen zu treffen. Diese Methode lässt sich in zahlreichen Bereichen der Forschung und Wirtschaft anwenden, z. B. in Form der Bilderkennung in Produktionsprozessen, im Marketing oder in Spracherkennungssystemen wie Microsoft Cortana oder Apple Siri.
Im Gegensatz zur klassischen Softwareentwicklung, die Teilbereiche dieser Anwendungen auch statisch ermöglichen, liegt der Schwerpunkt beim Machine Learning auf dem eigenständigen Lernen aufgrund von Daten und dem selbstständigen Generieren von Programmcode (vgl. Wuttke 2022, S. 55).
Maschinelles Lernen lässt sich dabei nach Wuttke für folgende Aufgabenstellungen nutzen:
-Prognose von Werten auf Basis analysierter Daten, z. B. Stromverbrauch, Umsatzprognosen;
-Berechnung von diversen Wahrscheinlichkeiten, z. B. Kündigungswahrscheinlichkeiten oder Kaufwahrscheinlichkeiten;
-Erkennen von Gruppen zur Segmentierung von Kundinnen und Kunden (Clustering);
-Erkennen von Zusammenhängen in Sequenzen, z. B. Warenkorbanalysen im E-Commerce und
-Reduktion von Dimensionen ohne großen Informationsverlust.
Bevor Machine Learning jedoch funktionieren und entsprechend wertvolle Resultate liefern kann, muss der Algorithmus durch Menschen mit Daten trainiert werden. Laurenz Wuttke erklärt, welche Datenbasis für welchen Zweck notwendig ist, um entsprechende Vorhersagen treffen zu können. So sind z. B. Umsatz, Alter und Anzahl der Käufe relevante Einflussgrößen, um den Wert von Kundinnen und Kunden in den folgenden 12 Monaten zu antizipieren. Kreditkartendaten und die Historie sind Einflussgrößen, um die Betrugswahrscheinlichkeit zu antizipieren, während MRT-Aufnahmen mit entsprechenden Diagnosen zum Anlernen einer Mustererkennung auf Basis künstlicher Intelligenz dienen. Zeitangaben wie der aktuelle Monat, die Temperatur und die Sonnenscheindauer werden genutzt, um Vorhersagen über den folgenden Stromverbrauch tätigen zu können (vgl. Wuttke 2022, S. 58).
3.3 Deep Learning
Ein Teilgebiet des maschinellen Lernens ist das s. g. ,Deep Learning’, das auf künstlichen neuronalen Netzen basiert, die dem menschlichen Gehirn nachempfunden sind. Das Konzept von Deep Learning besteht bereits seit etwa 1940. Damals wurden erste Gehversuche unternommen, künstliche neuronale Netze aufzubauen. Die damalige Technologie war jedoch nicht praxistauglich, da die Rechenleistung unzureichend war. Heute finden sich künstliche neuronale Netze in vielen Anwendungen des täglichen Lebens, u. a. in digitalen Assistenzsystemen wie Apple Siri oder Amazon Alexa. Diese verwenden künstliche neuronale Netze, um menschliche Sprachen verstehen und selbst anwenden zu können. Die Deep-Learning-Algorithmen werden entsprechend durch Daten, z. B. bezüglich der menschlichen Stimme, trainiert. Anders als bei klassischen Machine-Learning-Methoden sind diese Daten bei Deep-Learning-Methoden jedoch häufig schwer zu interpretieren. In diesem Zusammenhang wird daher oft von s. g. ,Black-Box-Modellen‘ gesprochen, da Menschen nicht mehr jede Entscheidung eines Modells nachvollziehen können (vgl. Wuttke 2022, S. 59).
3.4 Künstliche neuronale Netze als Teil des Deep Learnings
Künstliche neuronale Netze, als Teil des Deep Learnings, basieren auf der Idee, das menschliche Gehirn zu simulieren. Sie existieren daher auch aus Knoten (Neuronen) und Kanten (Synapsen), welche folgend in drei Neuronen-Typen differenziert werden, welche wiederum als ,Units‘ bezeichnet werden (vgl. Buxmann 2021, S. 14).
Neuronen-Typen (Units):
- Input-Units sind die Schnittstellen, die Eingangsdaten erhalten (z. B. ein Pixel bei Bilderkennungsalgorithmen)
- (Multiple) Hidden-Units sind zwischen Input- und Output-Units und entsprechen den inneren Schichten eines künstlichen neuronalen Netzes.
- Output-Units enthalten die Ausgangsdaten (z. B. die Klassifikation ,Hunde‘ oder ,Katze‘ bei einem Algorithmus, der Tiere erkennen soll) (vgl. Buxmann 2021, S. 14)
Mithilfe dieser mehrschichtigen Netzwerke können Zusammenhänge erlernt werden, die einfache Algorithmen des maschinellen Lernens nicht leisten können. Neuronale Netze profitieren auch stärker von einer größeren Zahl an Eingangsdaten (vgl. Bux- mann 2021, S. 14).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4: Aufbau neuronaler Netze (vgl. Buxmann 2021)
Abbildung 4 zeigt, dass die Neuronen durch Kanten verbunden sind. Auf jeder Ebene sind beispielhaft mehrere Units visualisiert (vgl. Buxmann 2021, S. 15). Jede Ebene empfängt die Signale der Neuronen auf der linken Seite. Diese Eingänge werden mit den Gewichten, die die Stärke der Verbindung beschreibt, der Verbindung multipliziert. Jede Einheit summiert dabei alle erhaltenen Signale. Wenn die Summe einen 17 gewissen Schwellenwert, auch ,Aktivierungsfunktion‘ genannt, erreicht, feuert das Neuron ab und löst die Neuronen rechts von sich aus. Eine entsprechende Rückmeldung des Neurons liefert dann die Möglichkeit, daraus zu lernen. Zum Vergleich kann die Lernentwicklung von Kindern herangezogen werden: Junge Menschen lernen dadurch, dass ältere ihnen weitergeben, was richtig und was falsch ist. Analog dazu geben die Rückmeldungen dem neuronalen Netzwerk die Information darüber, was richtig und was falsch ist, sodass es trainiert wird. Dies findet in der Regel durch Backpropagation statt, bei dem der Output mit dem erwarteten Output verglichen wird. Die Differenz wird verwendet, um die Gewichtungen zwischen den Einheiten im Netzwerk zu ändern. Mit der Zeit führt die Backpropagation dazu, dass das Netzwerk sich anpasst, lernt und fortwährend präziser wird. Wurde das neuronale Netzwerk mit ausreichend vielen Daten und Beispielen trainiert, erreicht es einen Punkt, an dem eine Verallgemeinerung aus der in der Lernphase erlernten Resultate möglich ist, die auf neue Situationen und Datenbestände anwendbar ist (vgl. Weber 2020, S. 47).
[...]
- Quote paper
- Stephan Griesenbrock (Author), 2023, Der Einsatz prädiktiver Analysen auf Basis künstlicher Intelligenz (KI) zur Prognose des Verhaltens von Konsumentinnen und Konsumenten, sowie zur psychologischen Verwendung im E-Commerce, Munich, GRIN Verlag, https://www.grin.com/document/1353860
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.