Sobald neue Technologien genutzt werden sollen, muss nach der Akzeptanz bei den potentiellen Anwendern gefragt werden. Ohne hinreichende Informationen zur Nützlichkeit und zum Schutz der Daten bei neuen Techniken ist die Akzeptanz beim Verbraucher nicht gewährleistet.
Das ist ein grundlegendes Thema der vorliegenden Bachelorarbeit, die den Einsatz von Künstlicher Intelligenz (KI) an der Service-Schnittstelle im Marketing untersucht. Dabei soll insbesondere auf das Potential, das sie bietet, aber auch auf mögliche Unsicherheiten von Nutzern bei Kontakt mit KI eingegangen werden. Darüber hinaus ist zu betrachten, inwieweit Datenmissbrauch und Manipulation durch KI möglich ist.
Zahlreiche Unternehmen setzen inzwischen in unterschiedlichen Bereichen auf KI-Technologien. Sie sollen dazu dienen, Prozesse zu automatisieren und Probleme zu lösen. Neben vielen Vorteilen darf man aber auch Probleme, die damit entstehen, nicht vernachlässigen. Hierzu gehören in erster Linie Verbraucherängste hinsichtlich der Nutzung privater Daten, deren Missbrauch durch Hacking oder Manipulation.
Ziel dieser wissenschaftlichen Arbeit ist es, eine qualitative Analyse hinsichtlich der Akzeptanz von KI beim Konsumenten durchzuführen. Mit Hilfe einer Online-Umfrage werden Daten zu diesem Thema erhoben und ausgewertet. Zudem soll daraus im Folgenden ermittelt werden, welche Konsequenzen sich für Unternehmen aus den Antworten der Teilnehmenden ergeben können.
Zur Erklärung der Technologie werden zunächst die Begriffe Big Data, Data Analytics, Data Mining sowie Machine Learning und Deep Learning mit Inhalt gefüllt. Es erfolgt eine Übersicht über verschiedene Modelle, mit deren Hilfe die Akzeptanz neuer Technologien bei Kunden getestet wird. Weiterhin erfolgt eine Betrachtung von Marketing-Algorithmen und deren Potential für Veränderungen in Entscheidungsprozessen. Darüber hinaus werden Begriffe wie Customer Experience, Voice- und spielbasiertes Marketing erläutert. Des Weiteren werden Potential und Grenzen von KI im Marketing verdeutlicht sowie ethische Fragen und die zukünftige Entwicklung erarbeitet.
Abschließend werden dann zunächst die Vorbehalte der Nutzer gegenüber KI herausgearbeitet und im Weiteren das Konzept der Online-Umfrage erläutert. Nachfolgend werden die Ergebnisse analysiert und auf neue Erkenntnisse hin geprüft. Daraus abgeleitet, ergeben sich ergebnisgestützte Handlungsempfehlungen für Unternehmen.
Inhaltsverzeichnis
Abkürzungsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Symbolverzeichnis
1 Einleitung
2 Definitionen
2.1 Definition „Künstliche Intelligenz‘‘
2.2 Entwicklungen der Künstlichen Intelligenz von den ersten Schritten bis heute
2.3 Schnittstellen
2.3.1 Definition Schnittstelle
2.3.2 Definition Verbraucher
2.3.3 Schnittstelle Künstliche Intelligenz und Verbraucher
3 Künstliche Intelligenz im Marketing
3.1 Datengewinnung, -verarbeitung und Anwendungen
3.1.1 Big Data, Data Analytics und Data Mining
3.1.2 Data Maturity Modelle
3.1.3 Das TAM-Modell
3.1.4 Einsatz von Marketing-Algorithmen und die Veränderung von Entscheidungsprozessen
3.1.5 Customer Experience
3.1.6 Voice-Marketing
3.1.7 Spielbasiertes Marketing
3.2 Potential und Grenzen beim Einsatz Künstlicher Intelligenz im Marketing
3.3 Ethische Leitlinien
3.4 Zukünftige Entwicklung
4 Die Kunden-/Nutzerseite
4.1 Vorbehalte der Verbraucher gegenüber Künstlicher Intelligenz
4.2 Konzeption einer Verbraucherumfrage
4.3 Online-Befragung, Bewertung, Analyse und Ergebnis
4.4 Schlussfolgerungen für Unternehmen
5 Fazit
Literaturverzeichnis
Anhang
[Hinweis: Die Zeitungsartikel im Anhang mussten aus urheberrechtlichen Gründen von der Redaktion entfernt werden.]
Abkürzungsverzeichnis
AI Artificial Intelligence
ASI Artificial Superintelligence
CEM Customer Experience Management
CRISP-DM Cross-Industry Standard Process for Data Mining
DL Deep Learning
EU Europäische Union
IGA In-Game-Advertising
KI Künstliche Intelligenz
LSTM Long Short-Term Memory
ML Machine Learning
TAM Technologieakzeptanzmodell
VR Virtual Reality
WAZ Westdeutsche Allgemeine Zeitung
Abbildungsverzeichnis
Abbildung 1: Arten der Auswertung von Kompetenzen
Abbildung 2: Methoden der Künstlichen Intelligenz
Abbildung 3: Entwicklungsweg der Künstlichen Intelligenz von 1940 bis heute
Abbildung 4: Darstellung eines neuronalen Netzes mit zwei Hidden Layers
Abbildung 5: Phasen bei der Konstruktion eines Modells nach dem CRISP-DM Schema
Abbildung 6: Die vier Stufen der Analytik-Fähigkeiten
Abbildung 7: Das Technologieakzeptanzmodell TAM 1
Abbildung 8: Das Technologieakzeptanzmodell TAM II
Abbildung 9: Das Technologieakzeptanzmodell TAM III
Abbildung 10: Messmodell für die Faktoren "Wahrgenommener Nutzen" und "Wahrgenommene einfache Bedienbarkeit"
Abbildung 11: Grad der Personalisierung von Unternehmen in Relation zu den Einnahmen
Abbildung 12: Übersicht Nutzung von Voice Assistenten
Abbildung 13: Herausforderungen des Voice-Marketings
Abbildung 14: Blockchain-Transaktion
Tabellenverzeichnis
Tabelle 1: Geschlecht der Teilnehmenden
Tabelle 2: Alter der Teilnehmenden
Tabelle 3: Größe des Wohnortes der Teilnehmenden
Tabelle 4: Bildungsabschluss der Teilnehmenden
Tabelle 5: Häufigkeit der Internetnutzung
Tabelle 6: Bedenken hinsichtlich Manipulation von Menschen
Tabelle 7: Bedenken hinsichtlich des Treffens von Entscheidungen
Tabelle 8: Einstellung zu Fahrdatenerhebung
Tabelle 9: Bedenken zu Hacker-Angriffen, Massenüberwachung, Datenmissbrauch
Tabelle 10: Gesichtserkennung im öffentlichen Raum
Tabelle 11: Beeinträchtigung des Datenschutzes
Tabelle 12: Gesichtserkennung im persönlichen Umfeld
Tabelle 13: Gesichtserkennung im öffentlichen Umfeld
Symbolverzeichnis
d Stichprobenfehler
n Stichprobenumfang
Gender-Disclaimer
Das in dieser Arbeit gewählte generische Maskulinum bezieht sich zugleich auf die männliche, die weibliche und andere Geschlechteridentitäten. Zur besseren Lesbarkeit wird auf die Verwendung männlicher und weiblicher Sprachformen verzichtet. Alle Geschlechteridentitäten werden ausdrücklich mitgemeint, soweit die Aussagen dies erfordern.
1 Einleitung
„Jeder Versuch eines Einzelnen, für sich zu lösen, was alle angeht, muß scheitern.“1
Dieses vorangestellte Zitat soll aufzeigen, dass die Anwendung von Entwicklungen gleich welcher Art ohne die Sicht und das Verständnis der Benutzer nicht gelingen kann. Immer dann, wenn neue Technologien genutzt werden sollen, muss nach der Akzeptanz bei den potentiellen Anwendern gefragt werden. Ohne hinreichende Informationen zur Nützlichkeit und zum Schutz der Daten bei neuen Techniken ist die Akzeptanz beim Verbraucher nicht gewährleistet.
Das ist ein grundlegendes Thema der vorliegenden Bachelorarbeit, die den Einsatz von Künstlicher Intelligenz (KI) an der Service-Schnittstelle im Marketing untersucht. Dabei soll insbesondere auf das Potential, das sie bietet, aber auch auf mögliche Unsicherheiten von Nutzern bei Kontakt mit KI eingegangen werden. Nur wenn Neues dem Nutzer transparent und verständlich dargebracht wird, kann das Potential auf beiden Seiten, dem Nutzer und den Unternehmen, voll ausgeschöpft werden.
An zweiter Stelle ist aber auch zu betrachten, inwieweit Datenmissbrauch und Manipulation durch KI möglich ist. Zahlreiche Berichte in Zeitungen, Fachzeitschriften und anderen Medien weisen auf Sicherheitslücken in der Software von Sprachassistenten, Fernsehern und sogar Spielzeug hin. Smartassistenten wie zum Beispiel Alexa, Siri und Cortana sind in der Lage mitzuhören. Außerdem lauschen auch Fernseher in heimischen Wohnzimmern oder Spielzeugpuppen zeichnen Gespräche von Kindern auf.
Zu diesem Thema wurde am 26.04.2022 ein Artikel mit dem Titel „Smarte Technik mit Tücken“ (Anhang I) in der WAZ veröffentlicht. In diesem Bericht wird beschrieben, dass Smarttechnologien mit teils erheblichen Sicherheitslücken in Wohnbereiche eindringen. Sie machen das Leben leichter, sammeln aber auch unaufhörlich Daten unter anderen über unsere Lebensgewohnheiten, Wohnungsgrößen, Anwesenheit und Vorlieben. Diese Daten werden analysiert und können viel über die Nutzer aussagen. Als Ergebnis erhält man zum Beispiel personalisierte Werbung auf den Smart-TV oder das Smartphone. Neben diesen vielleicht positiven Effekten können Dritte über unsichere Geräte in die privaten Netzwerke eindringen und beispielsweise Überwachungskameras und Schließsysteme übernehmen, aber auch Schadsoftware in Computer einschleusen. Darüber hinaus gilt es mit dieser Arbeit herauszufinden, inwieweit Verbraucher sich dieser Risiken bewusst sind und welche Konsequenzen dies im Hinblick mit dem Umgang von Technologien mit KI im Alltag hat.2
Diese Arbeit gliedert sich zur Behandlung dieser Thematik in fünf Kapitel. In diesem ersten Kapitel wird zunächst in das Thema „Künstliche Intelligenz an der Service-Schnittstelle im Marketing“ eingefuhrt. Des Weiteren werden Forschungsfragen formuliert und die Motivation und Zielsetzung der Arbeit beschrieben. Abgeschlossen wird die Einleitung mit einer Skizzierung der Vorgehensweise.
Die Entwicklung neuer Technologien im Zusammenhang mit der Digitalisierung hat in den letzten Jahren zunehmend an Bedeutung gewonnen. Dabei ist auch das Thema KI in den Fokus gerückt. Zahlreiche Unternehmen setzen inzwischen in unterschiedlichen Bereichen auf KI-Tech- nologien. Sie sollen dazu dienen, Prozesse zu automatisieren und Probleme zu lösen. Neben der Kommunikation an verschiedensten Stellen ändern sich auch die Arbeitswelten. Es entstehen durch diese Technologien neue Chancen, es sind aber auch Herausforderungen zu überwinden. Bereits seit einigen Jahren wird versucht, durch den Einsatz von KI das Leben und Arbeiten der Menschen zu optimieren. Wir nutzen auf KI basierende Anwendungen im Alltag beispielsweise mit Amazons Alexa oder Apples Siri. Auch die Unternehmen erkennen inzwischen die sich aus der Technologie ergebenden Vorteile. Neben diesen Vorteilen darf man aber auch Probleme, die damit entstehen nicht vernachlässigen. Hierzu gehören in erster Linie Verbraucherängste hinsichtlich der Nutzung privater Daten, deren Missbrauch durch Hacking oder Manipulation.
Zum Thema Manipulation wurde in der WAZ vom 01.06.2022 ein Artikel mit der Überschrift „Fastjede populäre Webseite oder App manipuliert den Nutzer“ (Anhang II) veröffentlicht. Diese Darstellung basiert auf einer von der EU-Kommission in Auftrag gegebenen Studie. Als häufigste Ausprägungen wurden versteckte Informationen, Vorauswahlen, Bedrängen durch Zeitlimits für Abschlüsse, schwierige Stornierungen sowie Zwangsregistrierungen genannt. Die Schaltflächen für einen besseren Datenschutz und die Einschränkung von Cookies sind oft unauffällig platziert. Laut Studie ist die Fähigkeit des Verbrauchers, alle diese Vorgänge zu erkennen, begrenzt. Dies zieht auch nachteilige Auswirkungen auf Wettbewerb, Transparenz und Vertrauen nach sich. Gemäß der Studie sind vor allem ältere Menschen und Menschen mit niedrigem Bildungsniveau von diesen Vorgängen betroffen.3
Auf Grundlage der zuvor beschriebenen Problemstellungen ist es das Ziel dieser wissenschaftlichen Arbeit, eine qualitative Analyse hinsichtlich der Akzeptanz von KI beim Konsumenten durchzuführen. Mit Hilfe einer Online-Umfrage werden Daten zu diesem Thema erhoben und ausgewertet. Zudem soll daraus im Folgenden ermittelt werden, welche Konsequenzen sich für Unternehmen aus den Antworten der Teilnehmenden ergeben können.
Hierzu werden die nachfolgenden Forschungsfragen aufgestellt.
F1: Existieren Vorbehalte oder sogar Ängste bei Nutzern gegenüber KI?
F2: Wird die Anwendung von KI in Unternehmen durch Konsumenten ausgebremst?
F3: Können Konsumenten die Vorbehalte durch zielgerichtete Informationen bezüglich KI in Anwendungen genommen werden?
Nach der Einleitung sowie der Benennung der zentralen Fragestellungen werden in den Kapiteln zwei und drei zunächst mit Hilfe von Literatur und zitierfähigen Internetquellen die theoretischen Grundlagen erarbeitet. Dazu gehören in Kapitel zwei die Definitionen von KI, von Schnittstellen, hier speziell den Kundenkontaktpunkten und dem Verbraucher. Außerdem wird noch die historische Entwicklung von KI betrachtet. Als nächstes werden in Kapitel drei Fragen zur KI beantwortet. Zur Erklärung der Technologie werden zunächst die Begriffe Big Data, Data Analytics, Data Mining sowie Machine Learning und Deep Learning mit Inhalt gefüllt. Nachfolgend wird eine Darstellung zur Datenreife von Unternehmen mit Maturity Modellen vorgenommen, da KI in Unternehmen oft noch sehr zurückhaltend eingesetzt wird. Außerdem erfolgt eine Übersicht über verschiedene Modelle, mit deren Hilfe die Akzeptanz neuer Technologien bei Kunden getestet wird. Weiterhin erfolgt eine Betrachtung von Marketing-Algorithmen und deren Potential für Veränderungen in Entscheidungsprozessen. Darüber hinaus werden Begriffe wie Customer Experience, Voice- und spielbasiertes Marketing erläutert. Abschließend werden Potential und Grenzen von KI im Marketing verdeutlicht sowie ethische Fragen und die zukünftige Entwicklung erarbeitet. Die in diesen Kapiteln gewonnen Erkenntnisse sind für den weiteren Verlauf der Arbeit und der Ergebnisbewertung unerlässlich.
Anhand dieser Erkenntnisse lassen sich die nachstehenden Hypothesen ableiten:
H1: Es existieren geschlechtsspezifische Unterschiede bezüglich der Forschungsfragen.
H2: Es existieren altersspezifische Unterschiede bezüglich der Forschungsfragen.
H3: Es existieren wohnortspezifische Unterschiede bezüglich der Forschungsfragen.
H4: Es existieren Unterschiede bei verschiedenen intellektuellen Voraussetzungen der Nutzer.
H5: Weiß der Verbraucher wenig über KI, so sind seine Vorbehalte stark ausgeprägt.
H6: Weiß der Verbraucher viel über KI, so sind seine Vorbehalte schwach ausgeprägt.
H7: Eine maximale Transparenz bei Prozessen und Anwendungen mindert die Vorbehalte.
H8: Missbrauch persönlicher Daten ist ein zentraler Grund für Vorbehalte.
H9: Kontrollen der durch KI gestützten Anwendungen nützen nichts.
H10: Im privaten Umfeld wird KI mehr akzeptiert als in öffentlichen Bereichen.
In Kapitel vier werden dann zunächst die Vorbehalte der Nutzer gegenüber KI herausgearbeitet und im Weiteren das Konzept der Online-Umfrage erläutert. Nachfolgend werden die Ergebnisse analysiert und auf neue Erkenntnisse hin geprüft. Daraus abgeleitet, ergeben sich ergebnisgestützte Handlungsempfehlungen für Unternehmen. Den Schlussteil dieser Arbeit bildet Kapitel fünf mit dem Fazit, welches mit der Zusammenfassung der Ergebnisse beginnt. Hier wird die Erreichung der Zielsetzung dieser Arbeit überprüft und versucht, eine Antwort auf die zentrale Fragestellung im Titel zu geben. Ebenfalls werden die in der Einleitung aufgestellten Forschungsfragen beantwortet. An dieser Stelle ist es auch notwendig die Grenzen, dieser Arbeit aufzuzeigen sowie die Vorgehensweise zu reflektieren.
2 Definitionen
2.1 Definition „Künstliche Intelligenz“
Versuche, die Weisheit und Intelligenz des Menschen zu beschreiben, gehen bis in die Antike zurück und umfassen heute die Bereiche Philosophie, Mathematik, Psychologie, Neurowissenschaft und Informatik. Die Erforschung der KI ist hingegen ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens befasst.4
Als Frage daraus stellt sich, was eigentlich Intelligenz ausmacht. Menschliche Intelligenz wird durch menschliches und rationales Denken und Handeln geprägt. In der Psychologie wird Intelligenz als ein hypothetisches Konstrukt dargestellt, das keine direkt beobachtbaren Phänomene aufweist. Es umfasst die erworbenen kognitiven Fähigkeiten wie Lernen, Denken und Erkennen ebenso wie Kreativität, Gedanken und Erinnerungen einer Person, die ihr zu einem bestimmten Zeitpunkt zur Verfügung stehen. Intelligenz bedeutet, Beziehungen erfassen zu können sowie sprachliche Fähigkeiten, Raumvorstellung und Rechenfertigkeiten zu haben. Hinzu kommt die Gabe der Induktion, die Wahrnehmungsgeschwindigkeit und das mechanische Gedächtnis. Unter Induktion versteht man hier die Fähigkeit, aus beobachteten Phänomenen abstrahierte Schlüsse zu ziehen. Das mechanische Gedächtnis ist zudem in der Lage, sich Input durch permanentes Wiederholen einzuprägen.5 6 Der Duden hingegen definiert Intelligenz „als ,die Fähigkeit [des Menschen], abstrakt und vernünftig zu denken und daraus zweckvolles Handeln abzuleiten‘ “.6
KI oder auch im Englischen Artificial Intelligence stellt dagegen einen Oberbegriff für viele unterschiedliche Ausprägungen dar. Hierzu zählen zum Beispiel Big Data Analytics, Machine Learning, Deep Learning, digitale Transformation und Bots. Aus der Definition von menschlicher Intelligenz folgt für die KI von Maschinen, dass sie einen Bereich der Informatik abdeckt, der sich mit dem Erwerb kognitiver Fähigkeiten, wie Lernen, Problemlösung und Mustererkennung beschäftigt.7 Bei KI handelt es sich „um den Versuch, menschliches Lernen und Denken auf den Computer zu übertragen“.8
Diese vordergründige Ambivalenz von menschlicher und künstlicher Intelligenz führt dazu, dass es je nach Betrachtungsweise unterschiedliche Definitionen für KI gibt, die im Folgenden näher aufgezeigt werden.
Rich definierte 1983 KI als die Lehre, wie man Computer dazu bringt, Dinge zu tun, die Menschen momentan noch besser können.9 Görz und Wachsmuth gingen 1995 bereits weiter: „Künstliche Intelligenz (KI) ist eine wissenschaftliche Disziplin, die das Ziel verfolgt, menschliche Wahrneh- mungs- und Verstandsleistung zu operationalisieren und durch Artefakte, kunstvoll gestaltete technische - insbesondere informationsverarbeitende - Systeme verfügbar zu machen.“10 Eine aktuelle Definition stammt von Heinrich und Stühler aus dem Jahr 2018: „KI beschreibt im Allgemeinen die Fähigkeit einer Maschine, komplexe Probleme eigenständig zu interpretieren, zu lösen und von diesem Prozess zu lernen.“11
Zudem lässt sich KI über die folgenden Kompetenzfelder definieren. Dazu gehören Wahrnehmungsvermögen, die Fähigkeit zur Argumentation, die Kompetenz des selbstständigen Lernens und das eigenständige Finden von Problemlösungen. Diese Kompetenzen führen jeweils zu drei Arbeitsschritten.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Arten der Auswertung von Kompetenzen.
Quelle: eigene Darstellung.
Am Anfang ist die Frage „Was liegt vor?“, die sogenannte Description. Danach steht die Frage nach dem „Was wird passieren?“, der Prediction, im Fokus. Zuletzt wird die Preception mit der Arbeitsfrage „Was ist zu tun?“ behandelt.12
KI kann darüber hinaus auch in Gruppen aufgeteilt werden. Zum einen in vorprogrammierte Systeme, die nicht lernen, den Menschen aber unterstützen oder vollautomatisiert ablaufen und zum anderen in adaptive Systeme, die während der Arbeit lernen und von Menschen unterstützt werden und in solche, die ohne Hilfe von Menschen lernen.13
Diese Aufteilung findet man auch in den Begriffen der starken und schwachen KI wieder. Unter schwacher KI versteht man, wenn nur wenige Merkmale der menschlichen Intelligenz vorliegen. Die meisten der heutigen Anwendungen liegen im Bereich der schwachen Intelligenz. Beispiele hierfür sind Sprachassistenten, Navigationssysteme, Chat- und Socialbots. Bei der starken KI sind Maschinen in der Lage, genauso gut oder besser als die menschliche Intelligenz zu agieren und ihr erworbenes Wissen in Kombinationen anwenden zu können.14 15 Die höchste Form der KI ist die von Bostrom beschriebene Artificial Superintelligence, kurz ASI. Diese stellt im Moment noch eine Hypothese dar und soll dem intelligentesten Menschen noch überlegen sein, ,, einschließlich wissenschaftlicher Kreativität, allgemeiner Lebensweisheit und sozialer Fähigkeiten “15 Zentrale Begriffe bei der Betrachtung von KI sind Machine Learning, Deep Learning und das Cognitive Computing. Sie unterscheiden sich in der Klarheit der Anwendung und dem Grad der Autonomie. Das heißt, je klarer der Zweck ist, desto geringer ist die Autonomie und umgekehrt.16 KI wird befähigt, aus strukturierten und unstrukturierten Daten Informationen zu extrahieren, die ein Mensch nur schlecht oder gar nicht erfassen kann.
In der folgenden Abbildung wird noch einmal verdeutlicht, dass Deep Learning als ein vertiefender Teil des Machine Learning verstanden wird. Beide Arbeitsfelder sind Teil des Oberbegriffs Künstliche Intelligenz.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2: Methoden der Künstlichen Intelligenz.
Quelle: Kirste, M./Schürholz, M. (2019), S. 22, in Anlehnung an Copeland, M. (2016).
Das Machine Learning (ML) erlaubt eine sinnvolle Verarbeitung großer Datenmengen und benötigt dafür eine Zielfunktion. Mit einem solchen Ziel und unter Zuhilfenahme von selbstlernenden Algorithmen wird die KI trainiert, um Muster oder immer wiederkehrende Merkmale zu erkennen. Unter einem Algorithmus versteht man ,,[e]ine präzise ... Beschreibung eines allgemeinen Verfahrens unter Verwendung elementarer Verarbeitungsschritte zur Lösung einer gegebenen Aufgabe.“17 Das Ergebnis wird dann zur Analyse und Findung richtiger Schlussfolgerungen bei neuen Daten und unbekannten spezifischen Problemstellungen genutzt. Mit ML können bereits bei kleinen Datenmengen unter Verwendung geringer Rechenleistungen brauchbare Ergebnisse erreicht werden, ohne dass speziellere Algorithmen dafür entwickelt werden müssen.18 Es werden so „im Rahmen des maschinellen Lernens Datenmodelle erzeugt, die zukünftige Szenarien auf Grundlage der vorhandenen Datenbasis prognostizieren können“.19 Dies bezeichnet man auch als Predictive Analytics. Im Einsatz von selbstlernenden Algorithmen, die Prognosen aus neuen Datensätzen erstellen, liegt der Unterschied zum reinen Data-Mining, mit dem nur Muster in bestehenden Datensätzen erkannt werden.20 Beispiele für ML sind Spam-Filter, Content-Personalisierung, Kundenmigrationsprognosen, Erkennung von Transaktionsbetrug, allgemeine und medizinische Diagnosesysteme, Chat-Bot-Anwendungen und persönliche Assistenten, wie Siri und Alexa.21
Das Deep Learning (DL) hingegen ist eine höher spezialisierte Form des ML, bei der statistische Datenanalysen zur Auswertung der Input-Daten verwendet werden. DL basiert auf künstlichen neuronalen Netzen. Die Struktur dieser Netze beruht auf der biologischen Vernetzung im Gehirn von Säugetieren, bei dem Synapsen Nervenzellen zur Informationsübertragung verbinden. Neuronale Netzwerke lernen, ohne dafür speziell programmiert worden zu sein.22
In diesem Forschungsbereich findet man Konzepte des sogenannten Cognitive Computing. Hierunter versteht man Systeme, die Aufgaben und Entscheidungen von Menschen übernehmen, die bisher durch diese durchgeführt wurden. Diese Systeme können bereits mit Doppeldeutigkeit und Unschärfe umgehen. „Von wirklicher Künstlicher Intelligenz spricht man, wenn Maschinen über vollständige kognitive Fähigkeiten verfugen.“23 Sie treffen dabei eigene Entscheidungen, legen eigenständige Strategien fest und bestimmen Art und Weise ihres Kommunikations- und Lernverhaltens. Das führt dazu, dass sich Mensch und Maschine von außen nicht mehr unterscheiden lassen.24
Wenn Maschinen oder Computer kognitive Fähigkeiten zeigen, die ähnlich denen des Menschen sind, spricht man von KI. Um festzustellen, ab wann es sich aber bei einer Maschine um KI handelt, wird der Turing-Test angewendet, der 1950 erstmals von Alan Turing vorgeschlagen wurde. Hierbei kommuniziert ein Prüfer mit einem Computer und einem intelligenten menschlichen Experten. „Wenn der Prüfer nach ausgiebiger Kommunikation mit beiden Kommunikationspartnem [zu einem bestimmten Sachverhalt] nicht entscheiden kann, wer Computer und wer Mensch ist, ... kann man den Computer als intelligent bezeichnen.“25
Zusammenfassend kann man sagen, dass der Begriff der Künstlichen Intelligenz kein klar definiertes Themenfeld darstellt, sondern lediglich beschreibt, welche kognitiven Fähigkeiten Maschinen oder Computer im Vergleich zum Menschen aufweisen. Die Aufteilung in schwache und starke Intelligenz ist dabei nur eine technologische Leitlinie mit gleitenden Übergängen. Das gesamte Forschungsgebiet entwickelt sich zurzeit rasant und rückt mit all seinen Facetten immer mehr in den Fokus zahlreicher Anwendungen.
2.2 Entwicklungen der Künstlichen Intelligenz von den ersten Schritten bis heute
„Künstliche Lebewesen, die zu formellem Denken fähig sind, beschäftigen Philosophen und frühe Naturwissenschaftler in fast allen Kulturen und Gesellschaften.“26 Der Weg dahin sollte jedoch ein langer werden. In den 1940er Jahren begannen die ersten Forschungen dazu. Grundlagen wurden entwickelt und erste Anwendungen und Methoden konzipiert.27
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3: Entwicklungsweg der Künstlichen Intelligenz von 1940 bis heute.
Quelle: Gentsch, P. (2019), S. 25.
McCarthy - lisp Rosenblatt - Perceptron 1943 veröffentlichten McCulloch und Pitts erstmals primäre Gedanken und Ideen, die man dem Bereich der KI zuordnen kann. Sie erläutern das sogenannte McCulloch-Pitts-Neuron, das auf Kenntnissen aus den Fachbereichen Neurologie, Mathematik und Programmiertheorie basiert und beschreiben erstmals modellhaft, wie die Struktur künstlicher neuronaler Netze aussehen sollte, die einem menschlichen Gehirn nachempfunden sind. Sie stellten heraus, dass solche Strukturen lernfähig sind und Daten speichern können.28 Die Ideen konnten zu dieser Zeit jedoch wegen fehlender technologischer Möglichkeiten nicht umgesetzt werden, da die Rechenleistungen der vorhandenen Hardware zu gering war und nicht genügend gespeicherte Daten Vorlagen.29
Mitte des 20. Jahrhunderts wurden erste programmierbare Computer entwickelt und Forscher dachten darüber nach, ob diese KI aufweisen können. Im Jahr 1955 wurde dann durch den Mathematiker McCarthy ein Forschungsprojekt zur KI angestoßen. Er stellte dazu die Vermutung auf, „dass jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz im Prinzip so genau beschrieben werden kann, dass eine Maschine zur Simulation eingesetzt werden kann.“30
Als eigentlichen Startschuss für die KI wird das von McCarthy und Minsky durchgeführte Dartmouth Summer Research Project of Artificial Intelligence im Jahr 1956 angesehen.31 Hier versammelten sich führende amerikanische Forscher und Vordenker der KI-Technologie, die ihre Ideen zu den Themen neuronale Netze, automatische Computer und Spracherkennung austauschten. Dies galt als ein Meilenstein, der jedoch keine konkreten Durchbrüche erzielte.32
1957 entwickelte Rosenblatt erste Ansätze zu einem Perzeptron. Dies ist ein neuronales Netz, das darauf trainiert werden kann, einfache Muster zu erkennen.33 In den nächsten Jahren wurden Projekte entwickelt, die bis dahin nicht für möglich gehalten wurden. Hierzu gehört z.B. ELIZA, ein 1966 von Weizenbaum entwickeltes Computerprogramm, das die Möglichkeit der Kommunikation zwischen Mensch und Maschine in menschlicher Sprache in einfacher Form möglich machte.34 Ein weiteres Programm stellt STRIPS dar, einen von Fikes und Nilsson entwickelten Problemlöser.35
Auf der Basis dieser Erfolge investierten zahlreiche Regierungsorganisationen Millionen in die Erforschung von KI. In den 1960er Jahren während des „kalten Krieges“ wurden vor allem Übersetzungsprogramme erforscht, die zum Beispiel die Übersetzung vom Russischen ins Englische ermöglichen sollten. Auch hierbei, dem sogenannten Language Processing, stieß man jedoch schnell an Grenzen, weil die Rechenleistungen der zur Verfügung stehenden Computer zu gering waren. Als weiteres Problem stellten sich die fehlenden Datenbanken dar, die das notwendige Hintergrundwissen nicht zur Verfügung stellen konnten. Um erfolgreich Übersetzungsprogramme umzusetzen, muss ein System nicht nur auf einen großen Wortschatz zugreifen, sondern auch mit Umschreibungen, Idiomen und dem Auflösen von Mehrdeutigkeiten umgehen können. Da die Ergebnisse der Versuche für Anforderungen in der realen Welt unbrauchbar waren, wurden Forschungsgelder gestoppt und die weitere Entwicklung zunächst aufgegeben.36
Parallel begann allerdings die Entwicklung der sogenannten Expertensysteme. 1965 wurde durch Feigenbaum das Expertensystem DENDRAL vorgestellt, das „mithilfe von Regeln Probleme der organischen Chemie lösen konnte.“37 Dies wurde in den 1970er Jahren so weiterentwickelt, dass in abgegrenzten Fachbereichen spezifische Kenntnisse und Vorgehensweisen genutzt wurden. Zu den Expertensystemen gehörte auch MYCIN der Stanford University, das für medizinische Anwendungen entwickelt wurde.38
Die Expertensysteme enthalten in ihren Programmen sogenannte Interferenzmaschinen, die dazu genutzt werden konnten, mit anderen Daten auch beliebige Anwendungen durchzuführen. Dies führte zu einem neuen Ansatz, der erste kommerzielle Verwendungen zuließ.39 Eine Interferenzmaschine ist ein „Bestandteil eines wissensbasierten Systems, [das] die Aufgabe hat, mithilfe von Inferenzregeln ... Schlussfolgerungen aus der Wissensbasis abzuleiten, die zur Lösung des zu bearbeitenden Problems beitragen.“40 Unter dem Namen R1/XCON wurde durch die Firma DEC das erste produktive Expertensystem vorgestellt. Es wurde für Bestellvorgänge von Hardwarekomponenten, wie Treiber, Kabel und Platinen entworfen. Da diese Bestellungen sehr fehleranfällig waren, führte dieses automatisierte System, das auf 2500 Regeln basierte, zu einer sehr niedrigen Fehlerquote, was mit erheblichen Einsparungen einherging.41 1969 wurde dazu parallel durch Minsky und Papert aufgezeigt, dass einfache einlagige Perzept- rons nicht in der Lage sind, komplexe Probleme zu lösen. Dies war für die Expertensysteme nicht weiter hinderlich, bremste aber die Forschung in vielen Bereichen wieder aus.42 Erst 1982 wurde in Japan wieder in Computer investiert, die Bilder erkennen, Übersetzungen liefern und in der Lage waren, zu argumentieren. Dieses 5th Generation Computer Project führte dazu, dass auch andere Staaten wieder in diese Technologie investierten.43
Jahre später wurde gezeigt, dass mehrlagige neuronale Netze nötig waren, um komplexe Aufgabenstellungen nicht durch Programmierung, sondern durch Training zu lösen.44 Unter einem mehrlagigen neuronalen Netz versteht man mehrere durch Kommunikationskanäle verbundene Verarbeitungseinheiten, den sogenannten Layern.45 Neuronale Netze bestanden in der Anfangsphase nur aus zwei bis drei Layern, heute können es bis zu Hunderte sein.46
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4: Darstellung eines neuronalen Netzes mit zwei Hidden Layers.
Quelle: Wennker, P. (2020), S. 19.
In dieser Darstellung wird der Aufbau eines neuronalen Netzwerks beschrieben. Ausgehend von den, dem Input-Layer zur Verfügung stehenden Daten werden schrittweise über nicht sichtbare Ebenen Informationen zu Schlussfolgerungen verarbeitet, die dann über den Output-Layer ausgegeben werden. Jede Stufe erfüllt dabei eine einzige Aufgabe. Dieses Ergebnis dient dabei als Input für die nächste Stufe. Mit hochwertigen Trainingsdaten sind solche Strukturen lernfähig.47
Ein entscheidender Fortschritt gelang 1986 Rumelhardt, Hinton und Williams. Sie zeigten, dass sich solche Systeme mit dem sogenannten Backpropagation-Algorithmus trainieren lassen. Dieser Algorithmus stellt ein überwachtes, sehr effizientes Lernverfahren dar, das auf verschiedene Probleme der Informatik angewendet werden konnte. Dieser Schritt in der Entwicklung belebte die Forschung an neuronalen Netzen wieder.48
Ende der 1980er Jahre wandte man sich endgültig von reinen Expertensystemen ab. IBM und Apple entwickelten erste eigenständige leistungsfähige Systeme, die allen bekannten Expertensystemen deutlich überlegen waren. Ab 1990 entstanden spezielle Gattungen intelligenter Maschinen, die auch in der breiteren Öffentlichkeit bekannt wurden. Hierzu gehörten die Schachmatches von Kasparov mit dem IBM Computer Deep Blue. In dieser neuen Gattung „wurden Systeme zusammengefasst, die ihre Umgebung wahrnehmen und Handlungen vornehmen, die ihre Chancen auf Erfolg erhöhen.“49
1997 schlugen Hochreiter und Schmidthuber das Long Short-Term Memory vor. Dieses LSTM stellt ein künstliches, auf Wiederholungen basierendes neuronales Netzwerk dar. Damit konnten wesentlich bessere Ergebnisse bei der Modellierung von Sequenzen zur Text- und Spracherkennung erzielt werden.50
Ab 1990 wurde man auch im Bereich Marketing und Vertrieb auf diese neuen Technologien aufmerksam. In dieser Zeit, in der erste gespeicherte Datensätze verfügbar waren, entstand der Begriff Data-Mining. Dieser sollte in den weiteren Jahrzehnten immer mehr an Bedeutung gewin- nen.51
Ende der 1990er Jahre wurde erstmals ein System entwickelt, das auf der Basis einer einheitlichen, mathematischen Notation es ermöglichte, zahlreiche komplexe Probleme kleinschrittig zu lösen.52
Auch Mitte der 1990er Jahre war die Erforschung der KI noch deutlich von ihrem Ziel der denkenden Maschine entfernt, das heißt, dass es Maschinen gibt, die ihre Aufgaben besser oder mindestens genauso gut wie Menschen erledigen können.53
Dies änderte sich erst Ende der 1990er Jahre. Der Bereich der Neuroinformatik, zu der auch neuronale Netze gehören, machte unter dem Einfluss von Psychologie, Linguistik, Neurobiologie und Kognitionswissenschaften erhebliche Fortschritte.54 Parallel dazu nahm die Digitalisierung in Arbeitswelt und Privatleben stark zu. Durch das sich immer mehr durchsetzende Internet und die progrediente Vernetzung vieler Bereiche entstanden ungeahnte Datenmengen, die mit den vorhandenen Methoden nicht mehr analysiert werden konnten.55 Begriffe wie Machine Learning und Deep Learning gewannen deshalb immer mehr an Bedeutung.
2015 wurde durch He ein neuronales Netz mit 152 Layern vorgestellt, das in der Lage war, Bilder besser als der Mensch zu erkennen. Auch in den Bereichen der Sprach- und Texterkennung sowie bei Übersetzungsprogrammen werden deutliche Fortschritte erzielt.56
Viele Systeme werden heute unter dem Begriff „Artificial Narrow Intelligence“ zusammengefasst. Das bedeutet, dass man zwar das Ziel der umfassenden KI noch nicht erreicht hat, diesem aber deutlich nähergekommen ist. Solche Systeme findet man häufig im Rahmen von Suchmaschinen im Internet, Crawlern oder Empfehlungssystemen. Hier reicht die Vielfalt von einfachen Skripten bis hin zu ausgereiften Chatbots, die menschliche Intelligenz simulieren.57 Unter Crawlern versteht man intelligente Suchmaschinen, die selbstständig das Internet durchsuchen und gleichzeitig analysieren. Somit gehen sie über das Ziel der reinen Stichwortsuche hinaus.58
Grundsätzlich sind die Methoden noch sehr ähnlich. Die fortschreitende Digitalisierung hat neue Kommunikations- und Vertriebskanäle in Unternehmen erschlossen und jede Interaktion von Kunden mit Unternehmen an den diversen Schnittstellen führt zur Entstehung neuer Daten, die gesammelt und gespeichert werden.59
Heutzutage findet man oft unbemerkt immer mehr Anwendungen von KI in unserem Alltag. Vorangetrieben wird diese Entwicklung durch Konzerne wie Google, Apple, Facebook oder Amazon. Die meisten dieser Anwendungen basieren auf neuronalen Netzen, die Aufgaben ähnlich dem Menschen erledigen und werden als schwache KI bezeichnet. Darüberhinausgehende Fähigkeiten erwarten Forscher erst im Zeitraum von 2030 bis 2060. Zweifel bestehen jedoch, ob man mit den zurzeit verwendeten Algorithmen und zur Verfügung stehenden Datenmengen überhaupt eine solche generelle, dem Menschen grundsätzlich überlegene KI, erschaffen kann.60 In diesem Zusammenhang versucht ein neues Softwareprojekt, Brain Simulation II, „Module für Sicht, Gehör, Kontrolle eines Roboters, Lernen, Modellierung sowie Planung und Vorstellung“61 für die nächste Phase der KI zu entwickeln.
Die KI ist inzwischen nicht nur ein akademisches Thema, sondern erlebt eine neue große Innovations- und Wachstumsphase. KI ist aus dem Bereich der Forschung herausgewachsen und findet inzwischen breite Anwendung in vielen Lebensbereichen. Dazu gehören unter anderem Sprachassistenten, digitale Helfer in Form von Bots, autonomes Fahren und Krankheitsdiagnostik. In zahlreichen Fällen verläuft dabei der Übergang zwischen Mensch und Maschine gleitend. All diese Prozesse sind nur durch steigende Rechenleistung, Cloud-Anwendungen und durch die Verfügbarkeit riesiger Datenmengen möglich geworden.62
2.3 Schnittstellen
2.3.1 Definition Schnittstelle
Schnittstellen entstehen bei der Teilung von Aufgaben und stellen dabei sogenannte Transferpunkte, also Übergabestellen, dar. An diesen Punkten werden Informationen zwischen Funktionsbereichen, Projekten, Unternehmen oder Personen übergeben. „Eine Schnittstelle stellt eine vermittelnde, informationsflussbezogene Verbindung zwischen Elementen und/oder Subsystemen eines Systems her.“63 Sie koppelt für den Anwender oft unbemerkt zum einen interne Informationssysteme und zum anderen auch Systeme des Unternehmens mit der Umwelt.64
An den Schnittstellen werden unterschiedliche Ebenen der Datenintegration beschrieben. Als Datenintegration versteht man die gemeinsame und wiederholte Nutzung von Datenbeständen. Auf den beiden unteren Ebenen steht die manuelle Eingabe von Daten an der Erfassungsschnittstelle. Die Eingabe kann per Hand, aber auch schon in digitaler Form durch Datenträger erfolgen. Diese Systeme sind in der Regel nicht miteinander verknüpft und arbeiten nur in abgegrenzten Bereichen, so dass Informationen oft manuell in Form von Listen an andere Abteilungen übergeben werden. Bei der automatischen Datenübergabe findet der Datenaustausch nun über Rechnernetze statt. Auf der höchsten Stufe findet die Datenverarbeitung mit einer für alle Abteilungen und Anwendungen gemeinsamen Datenbasis statt. Das heißt, dass einmal eingegebene Daten allen Nutzern sofort zur Verfügung stehen.65
Eine weitere Einteilung bezieht sich auf die Integrationsreichweite. Schnittstellen erster Ordnung sind Verknüpfungen von Systemen des Warenwirtschaftssystems, die zweiter Ordnung beschreiben Beziehungen der Unternehmensintegration von einem oder mehreren Standorten und mit der dritten Ordnung werden externe Beziehungen zwischen Unternehmen und Umwelt beschrieben.66 Im Rahmen dieser Arbeit sind vor allem diese externen Schnittstellen von Interesse. Als Schnittstellen zwischen Unternehmen und Kunden sind zum Beispiel die In-Store Kontaktstellen, wie der direkte Kontakt zwischen Mitarbeiter und Kunden, Texteingabesysteme, Werbeflyer und Plakate genauso zu nennen, wie sprachgestützte Dateneingabe, die Kommunikation auf Online-Plattformen und Mobile Payment-Systeme.
Als wichtigste Schnittstelle sind aktuell die sprachgestützten Kommunikationsschnittstellen zu nennen. Diese werden heute als Mensch-Maschine-Schnittstelle immer wichtiger. Hinzu kommen noch diverse Benutzerschnittstellen, wie beispielsweise die in Kraftfahrzeugen oder Smartphones, welche über Touchscreens bedient werden.67 Eine weitere Entwicklung ist die Nutzung künstlicher Implantate, wie das Gehirn-Computer-Interface, das bei der Rehabilitation gelähmter Menschen zum Einsatz kommt.68
Zu Beginn der Entwicklung an der Unternehmen-Kunden-Schnittstelle gab es rein textbasierte Eingabeschnittstellen zur Kommunikation. Dabei mussten die Nutzer eine Frage eintippen und erhielten die Antwort als Text in einem Textausgabefeld. Mit der Entwicklung von Chatbots wurden die ersten sprachbasierten Schnittstellen, die sogenannten Conversational Interfaces realisiert. Hier war die Kommunikation ohne Bildschirm, Tastatur oder Maus möglich.69
Unter Chatbots versteht man Computerprogramme, die als Dialogsystem mit natürlicher Sprache fungieren und mit entsprechenden Algorithmen auch Kunden beraten der Produkte bewerben können. Im weitesten Sinne gehören hierzu auch reine Sprachassistenten, wie man sie bei Cortana oder Alexa findet. „Ein Chatbot untersucht die Eingaben der Benutzer und gibt Antworten und (Rück-)Fragen aus.“70 Auch können Chatbots nach vorgegebenen Regeln handeln und sie können u.a. mit Suchmaschinen verbunden werden.71
Chatbots werden heute von Unternehmen so kreiert, dass sie sowohl im Einklang mit den Corporate Images des Unternehmens korrespondieren als auch durch eine natürliche Sprachqualität eine als angenehm wahrgenommene Schnittstelle zu Kunden darstellen. Ziel ist es dabei, den Nutzer durch die Persönlichkeit der Chatbots zu einer fortlaufenden Interaktion mit dem Unternehmen 72 zu animieren.72
2.3.2 Definition Verbraucher
Gemäß §13 des Bürgerlichen Gesetzbuches ist der Verbraucher oder auch Konsument eine „natürliche Person, die ein Rechtsgeschäft zu einem Zweck abschließt, der weder ihrer gewerblichen noch ihrer selbstständigen beruflichen Tätigkeit zugerechnet werden kann“.73 Er ist demzufolge Endverbraucher, der Waren wie Lebensmittel oder Güter zur privaten Verwendung oder zur Verwendung im eigenen Haushalt im Einzelhandel erwirbt, aber er ist ebenso Kunde bei OnlineHändlern, Versicherungen, Banken oder auch bei Liefer- oder Streamingdiensten. Darüber hinaus konsumiert ein Verbraucher auch die permanent im Internet oder über diverse Werbeträger zur Verfügung gestellten Informationen.
Im Gegensatz dazu sind Unternehmen, Kommunen, Staaten, Organisationen, Banken oder Stiftungen keine Verbraucher im Sinne des §13 BGB.
2.3.3 Schnittstelle Künstliche Intelligenz und Verbraucher
„Die Schnittstelle zum Kunden und die Art und Weise, wie Unternehmen mit den Kunden umgehen, sind heute ein entscheidender Faktor für den Erfolg und ein Wettbewerbsvorteil.“74 Bei optimalen Kunden-Unternehmen-Schnittstellen fühlt sich der Kunde vom Unternehmen begleitet, individuell wertgeschätzt und wahrgenommen. Dieser Gedanke ist auch ein zentraler Gegenstand der Forschung. Ziel ist es dabei, den Kunden hinsichtlich seiner Interaktionswünsche zu verstehen und so die Schnittstellen zu verbessern.75
Erwähnenswert sind in diesem Zusammenhang aber auch sogenannte In-Store-Technologien. Händlern und Unternehmen stehen immer mehr digitale Technologien in ihren Ladenlokalen zur Verfügung, um Abläufe zu optimieren und die Einkaufserlebnisse der Kunden, also die Customer Journey, zu verbessern. Diese Schnittstellen bilden wichtige Kontaktpunkte mit den Kunden im Laden und können Mitarbeiter bei der Befriedigung von Kundenwünschen unterstützen. Hierbei müssen zwei Dimensionen berücksichtigt werden. Zum einen handelt es sich um die soziale Präsenz, bei der Kunden durch die digitale Technologie die Anwesenheit anderer Personen wahrnehmen können und zum anderen geht es um die dadurch erzeugte Bequemlichkeit beim Einkauf. Soziale Präsenz kann „durch soziale Netzwerke und gemeinsame Online-Aktivitäten mit anderen Menschen ... oder eine Vermenschlichung der Technologie (z.B. menschliche Stimmen bei Sprachausgaben oder eine humanoide Erscheinungsform)“76 entstehen. Konsumenten unterscheiden sich deutlich im Rahmen der folgenden zwei Dimensionen. Auf der einen Seite legen Verbraucher starken Wert auf die soziale Präsenz beim Einkauf, auf der anderen Seite schätzen sie hingegen die Bequemlichkeit, z.B. schnell Produkte zu finden, gut informiert zu werden, oder auch automatische Kassensysteme, um insgesamt weniger Zeit aufzuwenden. Zu den In-StoreTechnologien zählen unter anderem digitale Preisschilder, Roboter, die Regale auffüllen, Projektionssysteme für Social Media Spots und Smart-Displays zur Kundeninformation.77
Insgesamt kann festgehalten werden, dass KI im Handel weiter fortgeschritten ist als zunächst vermutet wird. Auch im Hintergrund steuern Systeme Abläufe, die für den Verbraucher einen großen Mehrwert schaffen. Diese Mehrwerte kann KI in Form von Entscheidungshilfen bei der Bedarfsplanung und der Vorhersage der Nachfrage schaffen. Dies hat für den Verbraucher den direkten Nutzen, dass gewünschte Waren vorhanden sind und Wünsche individuell erfüllt werden können. Automatische Systeme zu Preisanpassungen, die mit automatisierten Kassen, dem sogenannten Self-Checkout, verknüpft sind, führen zu erheblicher Zeiteinsparung sowohl für die Unternehmen als auch für die Verbraucher.78 Noch weitergehend sind die Just-Walk-Out Technologien, die Wartezeiten im Check-out Bereich völlig überflüssig machen. Diese basieren auf einer durch Kameras gestützten Warenkorbverfolgung. Interaktions- und Artikelidentifizierung greifen ineinander, sobald der Kunde einen Artikel aus dem Regal entnimmt. Der Bezahlvorgang wird beim Verlassen des Geschäftes oft handygestützt automatisch ausgeführt. Amazon eröffnete 2016 erstmalig einen Shop mit dieser Technologie in Seattle und erweist sich somit als Pionier auf diesem Gebiet.79
Darüber hinaus hat die intelligente Sprachsteuerung in Form von Voice-Assistenten heute unseren Alltag in breiter Form erreicht. Wir sprechen mit unseren Smartphones über die besten Routen, geben Mitteilungen über Messenger-Dienste im Auto ein, fragen Smart-Speaker-Systeme wie Cortana oder Siri nach Wettervorhersagen oder bestimmter Musik. Auch können im Bereich der Smart-Home-Services Lampen oder Elektrogeräte per Sprachsteuerung bedient werden. Immer intensivere Vernetzung der Sprachassistenten mit Unternehmen liefern eine ständig wachsende Zahl von Anwendungen, die dem Verbraucher Vorteile, wie zum Beispiel Komfort, Flexibilität und Personalisierung bieten.80 Den dazu eingesetzten Chatbots kommen in diesem Zusammenhang eine große Bedeutung zu. Einerseits muss ihre Persönlichkeit mit dem Corporate Image der Unternehmen harmonisieren, andererseits müssen sie der Maschine einen menschlichen, komplexen Charakter verleihen. Kunden nehmen diese Anwendungen in erster Linie wegen einer bestimmten Funktionalität in Anspruch. Dabei ist es das Ziel, den Nutzer durch die Persönlichkeit des Bots zu einer fortlaufenden Interaktion zu bewegen.81 Wichtig ist zudem auch der Aufbau von Vertrauen gegenüber einem vom Chatbot gestützten System. Studien zeigen, dass Menschen eher bereit sind, Technik zu vertrauen, wenn diese eine empathische Benutzerschnittstelle aufweist. Diese muss neben einer gewissen Menschlichkeit auch mit den eigenen sozio-kulturellen Normen korrespondieren.82 Dies gilt besonders an Schnittstellen, die Bestellungen, Zahlungen und Finanztransaktionen durchführen. Hier ist es besonders wichtig, dass der Kunde die Maschine als Partner ansieht.83
Der generelle Vorteil von Sprachschnittstellen ist die schnelle, für den Menschen natürliche Interaktion durch Sprache. „Aus kommerzieller Sicht bieten Sprachassistenten eine neue, innovative Plattform zur Interaktion mit Kunden und zur Vermarktung von Produkten und Dienstleis- tungen.“84 Ein Treiber für den Einsatz von KI an der Unternehmen-Kunden-Schnittstelle ist ECommerce. Online-Plattformen wie Amazon, Ebay und andere sind heute Vorreiter in Sachen Optimierung von Kunden-Schnittstellen. Auf diesen Plattformen werden Kaufempfehlungen und Werbebotschaften durch lernende automatische Systeme generiert.85 Durch das sogenannte ReTargeting können Unternehmen personalisierte Empfehlungen und Werbebotschaften direkt an den Konsumenten weitergeben, sobald er zur Webseite zurückkehrt. KI wird an dieser Stelle benutzt, um zugeschnittene Vorhersagemodelle zu erstellen.86
Anhand dieser Ausführungen ist schnell erkenntlich wie wichtig die Kunden-Unternehmen- Schnittstelle ist. Unzureichende Personalisierung oder schlechte technische Umsetzung führen zu einem Verlust von interessierten Verbrauchern. Auch durch KI gestützte Auswertungen von Kundendaten, die an diesen Kontaktpunkten genutzt werden können, sind für ein Bestehen von Unternehmen im Wettbewerb zwingend notwendig.
3 Künstliche Intelligenz im Marketing
3.1 Datengewinnung, -Verarbeitung und Anwendungen
3.1.1 Big Data, Data Analytics und Data Mining
Data Mining, Data Analytics und Big Data sind zwar eng miteinander verknüpft, stellen aber keine Synonyme dar. Die Grundlage aller auf Künstlicher Intelligenz beruhender Technologien ist die Fähigkeit von Systemen, große Datenmengen zu speichern, was als Big Data bezeichnet wird. Dieser Begriff wird durch vier Eigenschaften charakterisiert. Zum einen wird Big Data durch eine große Datenmenge, deren Datentypen und -quellen heterogen sind und zum anderen durch die Geschwindigkeit der Datenerhebung und Datenverarbeitung in Echtzeit gekennzeichnet. Darüber hinaus müssen noch die Qualität und Vertrauenswürdigkeit der Datensätze gesichert 87 sein.87
Data Analytics und Data Mining sind dagegen Analysemethoden unterschiedlicher Intensität zur Erkennung relevanter Zusammenhänge. Bei Data Analytics werden die großen Datenmengen des Big Data analysiert und gegebenenfalls durch weitere Datensätze ergänzt und in einem neuen Kontext dargestellt.88 Data Analytics extrahiert dazu aus unterschiedlichen Datenquellen zielgerichtet Informationen. Aufgrund der stetig wachsenden Datenmengen und der Komplexität der Datenbeschaffung werden zunehmend auch komplexere Technologien nötig, um zielgerichtete Aktivitäten aus der Datenanalyse abzuleiten.89 Dies ist möglich geworden, weil sich die Rechengeschwindigkeit der vorhandenen Systeme signifikant erhöht hat, die Auswertungsmöglichkeiten durch bessere Algorithmen verbessert haben und man die Möglichkeiten besitzt, auf externe Daten einfacher zuzugreifen.90 „Data Analytics ... hat das Ziel, Unternehmen durch Daten zu besseren geschäftlichen Entscheidungen zu verhelfen.“91
Data Mining hingegen entwickelt aus den gewonnenen Daten Prognosen, die in verschiedensten Anwendungsfeldern verwendbar sind.92 Dazu nutzt Data Mining verschiedene „Methoden und Algorithmen zur möglichst automatischen Extraktion empirischer Zusammenhänge“.93 Dies wird auf die durch Big Data zur Verfügung gestellte, breite Datenbasis angewendet. Data Mining stellt somit ein Teilgebiet der KI dar, das aus allen den für die Fragestellung verfügbaren Daten, die aus verschiedenen Systemen stammen können, nutzbare Informationen zieht. Diese können dann für strategische Unternehmensentscheidungen eingesetzt werden. Durch Data Mining wird Wissen generiert, „das über die im Controlling üblichen Kennzahlen als Aggregate großer Datenmengen hinausgeht.“94 Durch diese Analyseverfahren können gezielt Informationen aufgespürt und daraus resultierende Prognosen erstellt werden, die für spezielle Fragestellungen notwendig sind.
Dazu nutzt Data Mining Methoden der statistischen Datenanalyse, wie zum Beispiel das Erkennen von Mustern und das Filtern von Informationen, um aus dem gewonnenen Wissen einen Mehrwert zu generieren. Dazu werden zunächst die Rohdaten ausgewählt und auf Vollständigkeit geprüft. Muster, die durch Data Mining-Algorithmen erkannt werden, sind überwiegend statistische Modelle, die auf der Basis der genutzten Daten erzeugt werden. Hieraus lassen sich dann Sachlagen beschreiben oder Prognosen erstellen.95
Grundsätzlich liegt die Schwierigkeit beim Data Mining aber zunächst auf der Organisation der anfallenden Menge unstrukturierter Daten und Metadaten.96 Metadaten beschreiben Daten, die zum Beispiel aus Bildern oder Videos gewonnen werden. In der Anfangsphase des Data Mining lag der Fokus vor allem auf Spracherkennung, Bildklassifikation und der Optimierung von Spielstrategien. Data Mining diente zu dieser Zeit noch nicht der Prognose und sollte auch nicht vordergründig menschliches Denken nachahmen.97 Heute werden jedoch dazu sechs Aufgabengebiete unterschieden. Hierzu zählen die Anomalie Detektion, die inkonsistente Objekte in Datenmengen aufspürt, die Assoziationsregelanalyse, bei der nach Korrelationen zwischen Objekten gesucht wird, um daraus eine Regel abzuleiten und die Regressionsanalyse, die eine „Funktion mit der geringsten Abweichung zum jeweiligen Datensatz für verschiedene Attribute model- liert.“98 Zu den sechs Aufgabengebieten kommen dann noch die Clusteranalyse, bei der Gruppen und Strukturen mit Ähnlichkeiten aufgedeckt werden und das Klassifikationsverfahren, mit dem Daten aus einem Datensatz in Gruppen oder Klassen geordnet werden. Zuletzt schließen sich noch die Zusammenfassung und Aufbereitung der Daten an, die so für den Benutzer in Modellen visualisiert werden, dass er einen Informationsgewinn daraus ziehen kann.99
Bei der Analyse und der Suche nach geeigneten Modellen können jedoch auch Fehler auftreten oder es können wichtige Aspekte vergessen werden. Deshalb wurde für den gesamten Prozess eine Leitlinie durch den Cross-Industry Standard Process for Data Mining, dem sogenannten CRISP-DM, entwickelt.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 5: Phasen bei der Konstruktion eines Modells nach dem CRISP-DM Schema.
Quelle: Paaß, G./Hecker, D. (2020), S. 110.
Die Abbildung 5 verdeutlicht noch einmal den Prozess der Modellierung nach CRISP-DM. Aus einem vorhandenen Datensatz wird ein Modell konzipiert, das auf einer konkreten Fragestellung basiert. Diese wird dabei immer wieder mit den sich ergebenden Daten verglichen. Anschließend werden die Daten vorverarbeitet und ein Modell konstruiert, um dies weiteren Evaluationsschritten zu unterziehen. Im Schema des CRISP-CM wird eine ständige Evaluation der Modellfindung beschrieben, die erst nach Abschluss dieses Prozesses zur Anwendung kommt.100
3.1.2 Data Maturity Modelle
Neben der Analyse von Daten und der Aufbereitung für Anwendungen in Unternehmen ist auch die Fähigkeit eines Unternehmens oder einer Organisation zu nennen, mit diesen Daten effektiv umzugehen. Mit dieser Thematik beschäftigen sich die sogenannten Maturity Modelle. Diese beschreiben die sogenannte Datenreife eines Unternehmens.101
[...]
1 Dürrenmatt, F. (1998), S. 93.
2 Vgl. Böhme, A. (2022).
3 Vgl. o.V. (2022).
4 Vgl. Kirste, M./Schürholz, M. (2019), S. 21.
5 Vgl. Maier, G.W. (2018).
6 Bünte, C. (2018), S. 5, mit einem Zitat von Duden (2018).
7 Vgl. Bünte, C. (2018), S. 5.
8 Herrmann, M./Horstmann, M./Kaper, N. (2021), S. 506.
9 Vgl. Richter, A. et al. (2019), S. 35.
10 Richter, A. et al. (2019), S. 35.
11 Richter, A. et al. (2019), S. 36.
12 Vgl. Kreutzer, R.T. (2022), S. 120.
13 Vgl. Bünte, C. (2018), S. 5 f.
14 Vgl. Richter, A. et al. (2019), S. 37.
15 Gausling, T. (2020), S. 13, mit einem Zitat von Bostrom, N. (1998).
16 Vgl. Richter, A. et al. (2019), S. 38.
17 Lackes, R./Siepermann, M./Lübbecke, M. (2018).
18 Vgl. Richter, A. et al. (2019), S. 39.
19 Gausling, T. (2020), S. 15.
20 Vgl. Gausling, T. (2020), S. 15.
21 Vgl. Richter, A. et al. (2019), S. 39.
22 Vgl. Wennker, P. (2020), S.15.
23 Richter, A. et al. (2019), S. 40.
24 Vgl. Richter, A. et al. (2019), S. 40.
25 Paaß, G./Hecker, D. (2020), S. 12.
26 Wennker, P. (2020), S. 2.
27 Vgl. Wuttke, L. (2021), S. 9.
28 Vgl. Gentsch, P. (2019), S. 24.
29 Vgl. Wuttke, L. (2021), S. 9.
30 Richter, A. et al. (2019), S. 33.
31 Vgl. Wennker, P. (2020), S. 2.
32 Vgl. Gentsch, P. (2019), S. 26.
33 Vgl. Paaß, G./Hecker, D. (2020), S. 10.
34 Vgl. Überland, L. (2016).
35 Vgl. Fikes, R.E./Nilsson, N.J. (1971), S. 189; Wennker, P. (2020), S. 2.
36 Vgl. Wennker, P. (2020), S. 3.
37 Paaß, G./Hecker, D. (2020), S. 11.
38 Vgl. Gentsch, P. (2019), S. 27.
39 Vgl. Gentsch, P. (2019), S. 27.
40 Lackes, R./Siepermann, M. (2018a).
41 Vgl. Wennker, P. (2020), S. 4.
42 Vgl. Paaß, G./Hecker, D. (2020), S. 11.
43 Vgl. Wennker, P. (2020), S. 4.
44 Vgl. Paaß, G./Hecker, D. (2020), S. 12.
45 Vgl. Lackes, R./Siepermann, M. (2018b).
46 Vgl. Gentsch, P. (2019), S. 271.
47 Vgl. Richter, A. et al. (2019), S. 40.
48 Vgl. Paaß, G./Hecker, D. (2020), S. 11 f.
49 Wennker, P. (2020), S. 6.
50 Vgl. Paaß, G./Hecker, D. (2020), S. 12.
51 Vgl. Wuttke, L. (2021), S. 9.
52 Vgl. Wennker, P. (2020), S. 6.
53 Vgl. Gentsch, P. (2019), S. 28 f.
54 Vgl. Gentsch, P. (2019), S. 28 f.
55 Vgl. Wennker, P. (2020), S. 6.
56 Vgl. Paaß, G./Hecker, D. (2020), S. 12.
57 Vgl. Gentsch, P. (2019), S. 29.
58 Vgl. Lackes, R./Siepermann, M. (2018c).
59 Vgl. Wuttke, L. (2021), S. 9.
60 Vgl. Wennker, P. (2020), S. 7.
61 Wennker, P. (2020), S. 8.
62 Vgl. Richter, A. et al. (2019), S. 32.
63 Brenig, H. (1990), S. 30.
64 Vgl. Rotthowe, T. (1998), S. 33.
65 Vgl. Rotthowe, T. (1998), S. 42.
66 Vgl. Rotthowe, T. (1998), S. 49.
67 Vgl. Holland, H. (2019), S. 88.
68 Vgl. Dettmann, U./Kopecz, J. (2020), S. 15.
69 Vgl. Kreutzer, R.T. (2022), S. 134.
70 Bendel, O. (2021a).
71 Vgl. Bendel, O. (2021a).
72 Vgl. Lehmann, J. (2021), S. 314.
73 Kirchgeorg, M. et al. (2018).
74 Schulze, M. (2022), S. 182.
75 Vgl. Schulze, M. (2022), S. 182.
76 Lasarov, W. (2021), S. 246 f.
77 Vgl. Lasarov, W. (2021), S. 247.
78 Vgl. Gläß, R. (2018), S. VII.
79 Vgl. Gläß, R. (2018), S. 16 f.
80 Vgl. Paluch, S./Wittkop, T. (2020), S. 510.
81 Vgl. Lehmann, J. (2021), S. 314.
82 Vgl. Gläß, R. (2018), S. 19.
83 Vgl. Gentsch, P. (2019), S. 157.
84 Paluch, S./Wittkop, T. (2020), S. 511.
85 Vgl. Gläß, R. (2018), S. 38.
86 Vgl. Richter, A. et al. (2019), S. 45.
87 Vgl. Gausling, T. (2020), S. 14.
88 Vgl. Bär, U. (2020), S. 107.
89 Vgl. Schulze, M. (2022), S. 180.
90 Vgl. Schulze, M. (2022), S. 182.
91 Schulze, M. (2022), S. 181.
92 Vgl. Bär, U. (2020), S. 107.
93 Lackes, R. (2018).
94 Lackes, R. (2018).
95 Vgl. Gentsch, P. (2019), S. 33 f.
96 Vgl. Büching, C. et al. (2019), S. 151.
97 Vgl. Paaß, G./Hecker, D. (2020), S. 78.
98 Gentsch, P. (2019), S. 34.
99 Vgl. Gentsch, P. (2019), S. 34.
100 Vgl. Paaß, G./Hecker, D. (2020), S. 110.
101 Vgl. Luber, S. (2021).
- Citation du texte
- Marc Bäumer (Auteur), 2022, Wie gut akzeptieren Kunden KI im Marketing? Potenziale der Künstlichen Intelligenz und Vorbehalte von Konsumenten, Munich, GRIN Verlag, https://www.grin.com/document/1318969
-
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X.