Als Ergebnis von Big Data und der zunehmenden Vernetzung von Maschinen ist die künstliche Intelligenz (kurz: KI) zu einem wichtigen Treiber für die fortlaufende Digitalisierung in sämtlichen Bereichen der Gesellschaft und Wirtschaft geworden. Der Gebrauch der natürlichen Sprache wird in diesem Zusammenhang zu einem immer populäreren Kanal für die Mensch-Maschine-Interaktion (kurz: MMI). In zahlreichen Szenarien ist die Sprachinteraktion herkömmlichen Benutzerschnittstellen vorzuziehen, deren Benutzung unbequem oder sogar gefährlich sein kann, wie beim Autofahren.
Viele Menschen haben bereits weltweit Erfahrungen mit sprachgesteuerten digitalen Assistenten wie Alexa und Cortana sammeln können, die viele nützliche Funktionen für den Alltag bieten. Mittlerweile sind auch Szenarien für den Arbeitsalltag möglich. Dadurch das digitale Sprachassistenten Routineaufgaben übernehmen, kann Freiraum für Mitarbeiter im Büroalltag geschaffen werden, damit diese kreativeren Aufgaben nachgehen können. Laut einer Studie von Tractica sollen bis 2021 weltweit 1,8 Milliarden Nutzer Zugang zu digitalen Assistenten haben. Da die Erkennungsgenauigkeit der natürlichen Sprache innerhalb dieser Systeme bedeutend zunimmt und Gespräche immer flexibler und humaner werden, verringern sich zunehmend die damit verbundenen Barrieren und Nutzer finden vermehrt Anwendungen, die ihr tägliches Leben erleichtern. Bisher werden digitale Sprachassistenten jedoch hauptsächlich im privaten Bereich eingesetzt und dienen als Sprachschnittstelle, z.B. zur Beantwortung von Fragen, zur Bedienung des Lichts oder zum Musikhören. Aus der Arbeitswelt ist daher häufig die Wahrnehmung zu vernehmen, dass Sprachassistenten wenig oder keinen Einfluss auf die Wertschöpfung eines Unternehmens haben. Das Leistungspotenzial von Sprachassistenten wird dabei gänzlich unterschätzt. So wie mit dem Aufkommen aller neuen Technologien müssen sich die Anwender vorerst mit den Funktionen von digitalen Sprachassistenten vertraut machen und sich daran gewöhnen, diese im Alltag einzubinden.
Inhaltsverzeichnis
Abkürzungsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
1 Einleitung
1.1 Motivation und Ausgangslage
1.2 Aufbau und Inhalt der Arbeit
2 Theoretischer Teil
2.1 Digitale Sprachassistenten
2.1.1 Historische Entwicklung
2.1.2 Technische Funktionsweise
2.1.3 Hindernisse und Treiber am Arbeitsplatz
2.2 Akzeptanzforschung
2.2.1 Diffusionstheorie
2.2.2 Einordnung des Akzeptanzbegriffes
2.2.3 Akzeptanzmodelle
2.3 Modelle zur Erklärung der Technologieakzeptanz
2.3.1 Verhaltenstheorien
2.3.2Technology Acceptance Model
2.3.3 Unified Theory ofAcceptance and Use of Technology
2.3.4Task-Technology Fit Modell
3 Modellentwicklung und Hypothesenbildung
3.1 Forschungsmodell
3.2 Ableitung von Hypothesen
4 Empirischer Teil
4.1 Literaturrecherche
4.2 Erhebungsinstrument
4.2.1 Gestaltung des Fragebogens
4.2.2 Festlegung der Stichprobe
4.2.3 Pretest und Güterkriterien
4.3 Datenanalyse
5 Darstellung der Ergebnisse
5.1 Deskriptive Auswertung der Stichprobe
5.2 Datennormalität
5.3 Faktoren- und Reliabilitätsanalyse
5.4 Regressionsanalyse
5.4.1 Darstellung der überprüften Hypothesen
5.4.2 Auswertung des Forschungsmodells
6 Diskussion
6.1 Beantwortung der Forschungsfragen
6.2 Interpretation der Ergebnisse
7 Fazit
7.1 Zusammenfassung der Ergebnisse
7.2 Kritische Würdigung und Ausblick
Anhang
Literatur- und Quellenverzeichnis
Abkürzungsverzeichnis
ASR Automatic Speech Recognition
Bl Behavioral Intention
EE Effort Expectancy
FC Facilitating Conditions
IT Informationstechnologie
Kl Künstliche Intelligenz
KMO Kaiser-Meyer-Olkin
ML Machine Learning
MMI Mensch-Maschine-Interaktion
NLP Natural Language Processing
PE Performance Expectancy
SI Social Influence
TAC Task Characteristics
TAM Technology Acceptance Model
TEC Technology Characteristics
TPB Theory of Planned Behavior
TRA Theory of Reasoned Action
TTF Task-Technology Fit
UB Use Behavior
UTAUT Unified Theory of Acceptance and Use of Technology
Abbildungsverzeichnis
Abbildung 1: Meilensteine der Spracherkennung
Abbildung 2: Kernprozess digitaler Sprachassistenten
Abbildung 3: Raumstatus per Sprachsteuerung prüfen ein Anwendungsbeispiel .
Abbildung 4: Entscheidungsprozess zur Übernahme von Innovationen
Abbildung 5: Zweidimensionale Skala der Einstellungs- und Handlungsebene
Abbildung 6: Akzeptanzprozess nach Kollmann
Abbildung 7: TRA-Modell
Abbildung 8: TPB-Modell
Abbildung 9: TAM-Modell
Abbildung 10: TAM-Modell 2
Abbildung 11: UTAUT-Modell
Abbildung 12: TTF-Modell
Abbildung 13: Forschungsmodell für digitale Sprachassistenten
Abbildung 14: Altersverteilung der Teilnehmer
Abbildung 15: Häufigkeit der Nutzung digitaler Sprachassistenten
Abbildung 16: Ausgewertetes Forschungsmodell
Abbildung 17: Zusammenhang zwischen TAC und TTF
Abbildung 18: Zusammenhang TEC und TTF
Abbildung 19: Zusammenhang zwischen TTF und PE, sowie UB
Abbildung 20: Zusammenhang zwischen PE und Bl
Abbildung 21: Zusammenhang zwischen EE und Bl (Moderationseffekt)
Abbildung 22: Zusammenhang zwischen Sl und Bl
Abbildung 23: Zusammenhang zwischen FC und UB
Abbildung 24: Zusammenhang zwischen Bl und UB
Abbildung 25: Begrüßung der Online-Umfrage
Abbildung 26: Einführung in die Online-Umfrage
Abbildung 27: Fragen zur Kenntnis und Nutzung
Abbildung 28: Fragen überAufgabenmerkmale
Abbildung 29: Fragen über Technologiemerkmale
Abbildung 30: Fragen zur Leistungserwartung
Abbildung 31: Fragen zur Aufwandserwartung
Abbildung 32: Fragen zum sozialen Einfluss
Abbildung 33: Fragen zu unterstützenden Rahmenbedingungen
Abbildung 34: Fragen zur Technologierelevanz am Arbeitsplatz
Abbildung 35: Fragen zur Verhaltensabsicht
Abbildung 36: Fragen zur tatsächlichen Nutzung
Abbildung 37: Abfrage des Alters und Geschlechts
Abbildung 38: Fragen zur Abteilungs- und Branchenzugehörigkeit
Abbildung 39: Branchenzugehörigkeit der 230 Teilnehmer
Abbildung 40: Tätigkeitsbereich der 230 Teilnehmer
Abbildung 41: Grafische Normalverteilung - Aufgabenmerkmal
Abbildung 42: Grafische Normalverteilung-Technologiemerkmal
Abbildung 43: Grafische Normalverteilung - Leistungserwartung
Abbildung 44: Grafische Normalverteilung-Aufwandserwartung
Abbildung 45: Grafische Normalverteilung - Sozialer Einfluss
Abbildung 46: Grafische Normalverteilung - Rahmenbedingungen
Abbildung 47: Grafische Normalverteilung - Task-Technology fit
Abbildung 48: Grafische Normalverteilung - Verhaltensabsicht
Abbildung 49: Grafische Normalverteilung-Tatsächliche Nutzung
Tabellenverzeichnis
Tabelle 1: Abgeleitete Suchbegriffe
Tabelle 2: Aussagen zur Technologieakzeptanz in der Online-Befragung
Tabelle 3: Fragen zur Technologieakzeptanz der Online-Befragung Teil2
Tabelle 4: Übersicht möglicher uni-, bi und multivariater Analyseverfahren
Tabelle 5: Normalverteilung der Untersuchungsvariablen
Tabelle 6: KMO- und Bartlett-Test
Tabelle 7: Reliabilitätsprüfung der Konstrukte des Forschungsmodells
Tabelle 8: Ergebnis der Regressionsanalyse für TACa und TTFb
Tabelle 9: Ergebnis der Regressionsanalyse für TECa und TTFb
Tabelle 10: Ergebnis der Regressionsanalyse für TTFa und UBb
Tabelle 11: Ergebnis der Regressionsanalyse für TTFa und PEb
Tabelle 12: Ergebnis der Regressionsanalyse PEa und Blb
Tabelle 13: Regressionsanalyse PE und Bl (Moderationseffekt)
Tabelle 14: Ergebnis der Regressionsanalyse EEa und Blb
Tabelle 15: Regressionsanalyse EE und Bl (Moderationseffekt)
Tabelle 16: Ergebnis der Regressionsanalyse Sla und Blb
Tabelle 17: Regressionsanalyse Sl und Bl (Moderationseffekt)
Tabelle 18: Ergebnis der Regressionsanalyse FCa und UBb
Tabelle 19: Regressionsanalyse FC und Bl unter Einfluss des Alters
Tabelle 20: Ergebnis der Regressionsanalyse Bla und UBb
Tabelle 21: Stichprobenverteilung nach Alter und Geschlecht
Tabelle 22: Kenntnis digitaler Sprachassistenten nach Alter und Geschlecht
Tabelle 23: Nutzung digitaler Sprachassistenten nach Alter und Geschlecht
Tabelle 24: Analytische Normalverteilung - Aufgabenmerkmal
Tabelle 25: Analytische Normalverteilung - Technologiemerkmal
Tabelle 26: Analytische Normalverteilung - Leistungserwartung
Tabelle 27: Analytische Normalverteilung - Aufwandserwartung
Tabelle 28: Analytische Normalverteilung - Sozialer Einfluss
Tabelle 29: Analytische Normalverteilung - Rahmenbedingungen
Tabelle 30: Analytische Normalverteilung - Task-Technology fit
Tabelle 31: Analytische Normalverteilung - Verhaltensabsicht
Tabelle 32: Analytische Normalverteilung - Tatsächliche Nutzung
Tabelle33: Reliabilitätsstatistik-Aufgabenmerkmal
Tabelle34: Auswertung der Itemstatistiken-Aufgabenmerkmal mit2 Items
Tabelle 35: Reliabilitätsstatistik - Technologiemerkmal
Tabelle 36: Auswertung der Itemstatistiken - Technologiemerkmal mit 4 Items
Tabelle 37: Reliabilitätsstatistik - Leistungserwartung
Tabelle 38: Auswertung der Itemstatistiken - Leistungserwartung mit 4 Items
Tabelle39: Reliabilitätsstatistik-Aufwandserwartung
Tabelle40: Auswertung der Itemstatistiken-Aufwandserwartung mit4 Items
Tabelle 41: Reliabilitätsstatistik - Sozialer Einfluss
Tabeile 42: Auswertung der Itemstatistiken - Sozialer Einfluss mit 4 Items
Tabelle43: Reliabilitätsstatistik - Rahmenbedingungen
Tabelle 44: Auswertung der Itemstatistiken - Rahmenbedingungen mit 3 Items
Tabelle 45: Reliabilitätsstatistik - Task-Technology fit
Tabelle 46: Auswertung der Itemstatistiken - Task-Technology fit mit 2 Items
Tabelle 47: Reliabilitätsstatistik - Verhaltensabsicht
Tabelle 48: Auswertung der Itemstatistiken - Verhaltensabsicht mit 2 Items
Tabelle49: Reliabilitätsstatistik - Nutzung
Tabelle 50: Auswertung der Itemstatistiken - Nutzung mit 2 Items
Tabelle 51: Regressionsanalyse - TAC und TTF
Tabelle 52: Regressionsanalyse - TEC und TTF
Tabelle 53: Regressionsanalyse - TTF und UB
Tabelle 54: Regressionsanalyse - TTF und PE
Tabelle 55: Regressionsanalyse - PE und Bl
Tabelle 56: Multiple Regressionsanalyse - PE und Bl moderiert
Tabelle 57: Regressionsanalyse - EE und Bl
Tabelle 58: Multiple Regressionsanalyse-EE und Bl
Tabelle 59: Regressionsanalyse - Sl und Bl
Tabelle60: Multiple Regressionsanalyse-Sl und Bl
Tabelle 61: Regressionsanalyse - FC und UB
Tabelle 62: Multiple Regressionsanalyse - FC und UB
Tabelle 63: Regressionsanalyse - Bl und UB
Tabelle 64: Mittelwertvergleich der Variablen unter Einbezug des Alters
Tabelle 65: Mittelwertvergleich der Variablen unter Einbezug des Geschlechts .
Tabelle 66: Mittelwertanalyse der evaluierten Variablen
1 Einleitung
1.1 Motivation und Ausgangslage
Als Ergebnis von Big Date und der zunehmenden Vernetzung von Maschinen ist die künstliche Intelligenz (kurz: Kl) zu einem wichtigen Treiber für die fortlaufende Digitalisierung in sämtlichen Bereichen der Gesellschaft und Wirtschaft geworden.1 Der Gebrauch der natürlichen Sprache wird in diesem Zusammenhang zu einem immer populäreren Kanal für die Mensch-Maschine-Interaktion (kurz: MMI). In zahlreichen Szenarien ist die Sprachinteraktion herkömmlichen Benutzerschnittstellen vorzuziehen, deren Benutzung unbequem oder sogar gefährlich sein kann, wie beim Autofahren.2 Viele Menschen haben bereits weltweit Erfahrungen mit sprachgesteuerten digitalen Assistenten wie Alexa und Cortana sammeln können, die viele nützliche Funktionen für den Alltag bieten. Mittlerweile sind auch Szenarien für den Arbeitsalltag möglich. Dadurch das digitale Sprachassistenten Routineaufgaben übernehmen, kann Freiraum für Mitarbeiter im Büroalltag geschaffen werden, damit diese kreativeren Aufgaben nachgehen können.3 Laut einer Studie von Tractica sollen bis 2021 weltweit 1,8 Milliarden Nutzer Zugang zu digitalen Assistenten haben.4 Da die Erkennungsgenauigkeit der natürlichen Sprache innerhalb dieser Systeme bedeutend zu nimmt und Gespräche immer flexibler und humaner werden, verringern sich zunehmend die damit verbundenen Barrieren und Nutzer finden vermehrt Anwendungen, die ihr tägliches Leben erleichtern. Bisher werden digitale Sprachassistenten jedoch hauptsächlich im privaten Bereich eingesetzt und dienen als Sprach- schnittstelle, z. B. zur Beantwortung von Fragen, zur Bedienung des Lichts oder zum Musikhören. Aus der Arbeitswelt ist daher häufig die Wahrnehmung zu vernehmen, dass Sprachassistenten wenig oder keinen Einfluss auf die Wertschöpfung eines Unternehmens haben. Das Leistungspotenzial von Sprachassistenten wird dabei gänzlich unterschätzt. So wie mit dem Aufkommen aller neuen Technologien müssen sich die Anwender vorerst mit den Funktionen von digitalen Sprachassistenten vertraut machen und sich daran gewöhnen, diese im Alltag einzubinden.5
Die fortschreitende Entwicklung von Informationssystemen weisen die Richtung ins Informationszeitalter, in dem ein signifikantes Wachstum an innovativen Produkten zu beobachten ist. Die Einführung dieser Technologien stellen jedoch neue Anforderungen an bestehende Schnittstellen der Informationstechnologie (kurz: IT) und indizieren Verhaltensänderungen bei denjeweiligen Endnutzern. Bei der Einführung neuer Technologien besteht daher Bedarf an einer Erfolgsprognose und der damit unmittelbar verknüpften Messung der Nutzerakzeptanz. In diesem Zusammenhang wird der Begriff der Akzeptanz häufig innerhalb der sozial- und wirtschaftswissenschaftlichen Forschung diskutiert. Diese Diskussionen zeigen auf, dass der Begriff der Akzeptanz einen wichtigen Indikator für die Erfolgsmessung einer technologischen Innovation darstellt. Dies wird mit der Tatsache begründet, dass die erfolgreiche Einführung neuer Produkte und der damit verbundene ökonomischen Gewinn nicht nurvon dertechnischen Möglichkeit, sondern auch von der Akzeptanz derAn- wender beeinflusst wird.6 Dabei wird die Einführung neuer IT-Systeme mit hohen Erwartungen verbunden, die sich von der Verbesserung von Geschäftsprozessen bis hin zu Kostensenkungen und Produktivitätssteigerungen erstrecken. Insbesondere wird der Erfolg bei der Einführung von IT-Systemen primär durch den Grad der Akzeptanz bestimmt. Zur Erfüllung dieser Ansprüche muss das neue Informationssystem jedoch von der jeweiligen Zielgruppe zunächst akzeptiert werden.7 Somit wird Akzeptanz als ein wesentlicher Indikator für den Erfolg neuer Informationssysteme gesehen, um Auskunft darüber zu schaffen, inwiefern diese Innovationen von der jeweiligen Zielgruppe aufgefasst werden. Zur Verringerung der Risiken und für eine erfolgreiche Einführung dieser Produkte ist daher eine vorausgehende empirischen Studie zur Evaluierung der Nutzerakzeptanz erforderlich.8
In den letzten Jahren haben digitale Assistenten, die mit Hilfe der natürlichen Sprache die Interaktion zwischen Menschen und Maschine vorantreiben, Endverbraucher auf vielen Ebenen erreicht. Auch im Unternehmensumfeld ist dieser Trend zu beobachten. Bei der aktuell erreichten Qualität der Kl ist es möglich, Systeme zu entwickeln, die sich personalisieren lassen und mittels natürlicher Sprache, Anwender bei Geschäftsprozessen systemübergreifend unterstützen.9 Mit dem dynamischen Wandel der Technologielandschaft im IT-Umfeld ändert sich auch die Akzeptanz der Anwender entsprechend. Die Nutzerakzeptanz von Technologien wird von vielen Faktoren bestimmt, z. B. von der Benutzerfreundlichkeit, der Verfügbarkeit, den Nutzerbedürfnissen und den sozialen Aspekten, die Menschen miteinander interagieren lassen.10 Zu verstehen, warum Individuen ein System akzeptieren oder ablehnen, hat sich als eine der größten Herausforderungen in der IT-Forschung erwiesen.11 Neue technologiebasierte Produkte können aus technischer Sicht noch so gewinnbringend sein, wenn der Menschen diese Innovationen nicht akzeptiert, findet keine Anwendung statt. Um mögliche Hindernisse und Treiber in einem frühen Entwicklungsstadium zu ermitteln, ist es wichtig, eine sozio-ethische Evaluierung der Technologie anzustreben. Damit können die Bedürfnisse und Meinungen der betroffenen Personengruppen hinsichtlich der neuen Technologie, in einem frühen Entwicklungsstatus berücksichtigt werden.12 Dabei wird mit dem Stand der Forschung deutlich, wie umfangreich das Einsatzfeld der digitalen Sprachassistenten ist. Beim derzeitigen Forschungsstand sticht hervor, dass dieser sich vorwiegend mit den Chancen und Möglichkeiten befasst, die sich mit der Implementierung und Nutzung von digitalen Sprachassistenten auftun. Die daraus resultierenden Effekte aufdas Kom- munikations- und Nutzungsverhalten der Menschen als Individuen bleiben allerdings weitgehend unberücksichtigt. Die vorliegende wissenschaftliche Arbeit knüpft an diese Feststellung an und dient primär der Untersuchung von Hindernissen und Treibern, die die Nutzerakzeptanz von digitalen Sprachassistenten am Arbeitsplatz beeinflussen.
In diesem Kontext soll folgende Forschungsfrage behandelt werden:
F1: Welche Einflussfaktoren beeinflussen die Nutzerakzeptanz von digitalen Sprachassistenten am Arbeitsplatz?
Zur Beantwortung der Forschungsfrage F1 wird vorausgesetzt zunächst eine Antwort auf folgende Forschungsfrage zu finden:
F2: Welches Technologieakzeptanzmodell aus der Literatur eignet sich zur Messung der Akzeptanz von digitalen Sprachassistenten am Arbeitsplatz?
1.2 Aufbau und Inhalt der Arbeit
Für die Beantwortung der gestellten Forschungsfragen und damit zur Erreichung des Forschungsziels befasst sich diese Arbeit im Wesentlichen mit der Erarbeitung des Themenfeldes der digitalen Sprachassistenten. Darüber hinaus soll als weiteres Forschungsfeld die Akzeptanzforschung mit dem Fokus auf innovative Technologien vertieft werden. Die Literaturanalyse wird in dieser Arbeit als wissenschaftliche Methode zur Unterstützung dieses Vorhabens eingesetzt. Im Rahmen dieser Arbeit sollen die Inhalte der Literaturrecherche systematisch interpretiert und aufbereitet werden. Die vorliegende Arbeit ist dazu zusammen mit der Einleitung in sieben Kapitel gegliedert. In dem zweiten Kapitel werden digitale Sprachassistenten zunächst historisch und technisch eingeordnet. Dabei werden theoretische Grundlagen und praktische Beispiele aus der Literaturrecherche anhand der verwendeten Quellen aufgelistet und Hindernisse sowie Treiber verglichen, um Transparenz über die aktuelle Situation der digitalen Sprachassistenten am Arbeitsplatz zu schaffen. Der Schwerpunkt dieser Arbeit liegt auf der Evaluierung der Akzeptanz von digitalen Sprachassistenten, weshalb an dieser Stelle auch verschiedene Aspekte der Akzeptanz vorgestellt werden. Im Vordergrund steht die Aufarbeitung bestehender Theorien und Modelle, die versuchen, die Akzeptanz einer Technologie zu beschreiben. Basierend auf den Ergebnissen der Literaturrecherche wird im dritten Kapitel ein Forschungsmodell entwickelt, das die Technologieakzeptanz von digitalen Sprachassistenten am Arbeitsplatz erklären soll. Ausgehend von diesem Forschungsmodell werden zur Unterstützung des Forschungsziels verschiedene Hypothesen abgeleitet. Im vierten Kapitel folgen die Planung und Durchführung einer Online-Umfrage zur Erhebung der notwendigen Daten. Diese Umfrage zielt darauf ab, Daten für das Modell zu sammeln, um die gesammelten Daten zielführend auszuwerten und die aufgestellten Hypothesen zu überprüfen. Im fünften Kapitel werden die Ergebnisse der Umfrage demografisch ausgewertet und durch den Einsatz von quantitativen Analysemethoden analysiert. Daraufhin werden die Ergebnisse im sechsten Kapitel interpretiert. Abschließend befasst sich das letzte Kapitel kritisch mit dem Aufbau und den Ergebnissen dieser Arbeit.
2 Theoretischer Teil
2.1 Digitale Sprachassistenten
Bei digitalen Sprachassistenten handelt es sich um eine Software, die durch den Einsatz von Spracherkennung ausgewählte Informationen auswertet oder bestimmte Aufgaben abarbeitet. Die bekanntesten Vertreter von digitalen Sprachassistenten sind Alexa von Amazon, Bixby von Samsung, Cortana von Microsoft, Google Assistant von Google und Siri von Apple. Mit Siri ist es Apple gelungen, die Art der Kommunikation zwischen Menschen und Maschine effektiv zu realisieren und damit dafür zu sorgen, dass die wichtigsten Wettbewerber nachziehen mussten. Durch die zunehmende Möglichkeit, Sprachsteuerung in unterschiedlicher Hardware zu implementieren und somit Alternativen für das Smartphone zu schaffen, wird der Erfolg der digitalen Sprachassistenten weiter gefördert. Aktuell trägt besonders Amazon durch das breite Hardware-Angebot und einem erfolgreichen Marketing dazu bei, dass diese technologische Innovation immer mehr Anwender abholt.13 Zu den wesentlichen Bestandteilen eines digitalen Sprachassistenten gehören die computergenerierte Sprache, die wahrgenommene Persönlichkeit des Assistenten, die Algorithmen, die das Gespräch ermöglichen, sowie Informationen, die überdas Internet abgerufen und gespeichert werden. Alternativ zum Smartphone können digitale Sprachassistenten dabei in unterschiedliche Objekte eingebettet werden wie z. B. Lautsprecher, Uhren und Fernbedienungen.14 Die prinzipielle Idee eines digitalen Sprachassistenten beschränkt sich aber nicht auf die reine Befehlsausführung, sowie die damit verbundene Erkennung der gesprochenen Sprache und den Ersatz eines physischen Bedienelementes auf einem Gerät. Stattdessen sollen Assistenzdienste erbracht werden, um den Anwender zu entlasten und zu unterstützten.15
2.1.1 Historische Entwicklung
Die Entwicklung heutiger digitaler Sprachassistenten ist grundlegend auf das Jahr 1952 zurückzuführen. In diesem Jahr wurde Audrey, die erste maschinelle Spracherkennung vorgestellt, mit der es möglich war gesprochene Zahlen zu erkennen. Bis zu den 1960er Jahren war es nur möglich eine geringe Anzahl von Wörtern zu verarbeiten. In den 1970er Jahren wurde dann mittels Spracherkennung ermöglicht, das Vokabular eines 3-Jährigen abzudecken, was ungefähr einem Wortschatz von 1000 Wörtern entspricht. Die 1980er Jahre wurden durch die Entwicklung des stochastischen Modells Hidden-Markov-Modell geprägt. Mit dem Einsatz dieses Modells war es innerhalb der Spracherkennung möglich, eine größere Anzahl von Wortzusammenhängen effizient auszuwerten und zu verarbeiten. Durch die Entwicklung weiterer stochastischer Methoden, wurde die Genauigkeit bei der Spracherkennung in den 1990er Jahren gesteigert.16 Der Fortschritt in der Spracherkennung wurde vor allem durch den Einfluss verschiedener Institutionen und Unternehmen, wie dem amerikanischen Verteidigungsministerium und IBM gefördert. Somit wares in den neunziger Jahren möglich, die ersten sprachgesteuerten Anwendungen für den öffentlichen Gebrauch zugänglich zu machen. Die Spracherkennungssysteme konnten am PC z. B. für Diktieraufgaben in Anwaltskanzleien oder Arztpraxen genutzt werden. Zur Markteinführung des iPhone 4s im Jahr 2011, brachte Siri dann neuen Aufschwung in den Markt. Zu Beginn konnte Siri die Sprachen Englisch, Deutsch und Französisch verstehen, sowie Telefonate starten. Mittlerweile ist es für Siri möglich komplexe Rechenaufgaben zu lösen oder Vorträge über bestimmte Themen zu halten. Im Jahr 2014 folgten auch Amazon mit Alexa und M icrosoft mit Cortana diesem Trend. Heute funktionieren digitale Sprachassistenten bereits zufriedenstellend, sie befinden sich jedoch noch in einem frühen Entwicklungsstadium und werden fortlaufend weiterentwickelt. Sprachgesteuerte Assistenten integrieren sich dabei zunehmend im menschlichen Alltag.17
Abbildung in dieser Leseprobe nicht enthalten
Quelle: In Anlehnung an Karla et al. (2019), S. 29. Abbildung 1: Meilensteine der Spracherkennung
2.1.2 Technische Funktionsweise
Spracherkennung stellt ein Teilgebiet der Computerlinguistik, Informatik und Ingenieurswissenschaften dar, mit dem Ziel Verfahren zu entwickeln, die gesprochene Sprache dem Computer zugänglich zu machen.18 Je nach Betriebssystem und Plattform können Anwenderzwischen mehreren Sprachassistenz-Systemen wählen. Einige sind spezialisiert auf Smartphones oder Lautsprecher, andere sind wiederum auf einer Vielzahl von Plattformen kompatibel. Außerdem variiert der Umfang der möglichen Anfragen und Funktionen von Anbieter zu Anbieter. Dennoch weisen diese Systeme eine grundsätzlich vergleichbare Struktur auf. Am Anfang des Prozesses erfolgt die Spracheingabe, die digitalisiert und von Störgeräuschen bereinigt wird. Im nächsten Schritt wird die Intention der gewählten Aussage gedeutet. Allerdings ist die digitalisierte Sprache in vielen Situationen allein nicht ausreichend, um die Intention vollständig zu verstehen. Deshalb wird zusätzlich zur Sprachanfrage eine Auswahl weiterer Informationen wie frühere Anfragen, Käufe, Standortsdaten und andere Quellen zum Sprachverständnis herangezogen, um gezielt auf die Anfrage zu reagieren. Dieser Informationszugang variiert je nach System und wirkt sich auf die wahrgenommene Intelligenz der digitalen Sprachassistenten aus. Nach Bearbeitung der Anfrage erfolgt die Formulierung einer passenden Rückmeldung z. B. in Form eines Textes, die an den Anwender übermittelt wird.19 Der eigentliche Kern eines Sprachassistenten befindet sich im Rechenzentrum des jeweiligen Anbieters. Die verwendeten Geräte, die sich in Büros, Küchen oder Wohnzimmern befinden, fungieren im Grunde nur als Gehör und Mund für digitale Sprachassistenten wie Alexa, Cortana oder Siri. Die Software im Rechenzentrum des Anbieters verwendet komplexe Algorithmen und maschinelle Lernverfahren, um Störgeräusche von der eigentlichen Nachricht zu trennen und in Maschinensprache umzuwandeln. Im nächsten Schritt wird die Nachricht analysiert und verarbeitet, um die konkrete Intention und damit verbundene Parameter des Anwenders zu ermitteln. Um die jeweilige Anfrage zu bearbeiten und eine Rückmeldung zu erzeugen, wird als nächstes ein passender Softwareprozess gestartet. Das daraus resultierende Ergebnis wird vom zentralen Rechenzentrum über das Internet zurück zum Eingabegerät übertragen und dort, z. B. über die integrierten Lautsprecher, ausgegeben.20 Innerhalb dieses Kernprozesses wird für den ersten Schritt auf die Methode Automatic Speech Recognition (kurz: ASR) zurückgegriffen, die es ermöglicht die Spracheingabe in Textform zu konvertieren. Um den einzelnen Textbausteinen eine Bedeutung zu verleihen, wird dann die Methode Natural Language Processing (kurz: NLP) eingesetzt. In der Folge werden durch den sogenannten Dialogmanager die erforderlichen Arbeitsschritte zur Beantwortung der Anfrage veranlasst und durchgeführt. Auf die erfolgreiche Abwicklung der vorangehenden Prozessschritte folgt dann die Rückmeldung. Für die Verarbeitung der in diesem Kernprozess anfallenden Daten sind Cloud-Lö- sungen vorteilhaft. Damit haben digitalen Sprachassistenten im Vergleich zu rein offline agierenden Systemen stets Zugriff auf aktuelle Informationen und größere Datenmengen lassen sich effizienter verarbeiten.21 22
Abbildung in dieser Leseprobe nicht enthalten
Quelle: In Anlehnung an Wege et al. (2018), S. 16.
Abbildung 2: Kernprozess digitaler Sprachassistenten
Dabei werden im Rahmen des ASR folgende Anwendungsziele adressiert:22
- Sprecherunabhängige Spracherkennung: Hierbei handelt es sich um Anwendungen, bei denen jeder potenzielle Anwender das jeweilige Produkt verwenden kann. Diese Art der Sprachinteraktion findet z. B. bei smarten Spielzeugen ihren Einsatz. Dabei haben Kinder die Möglichkeit ihre Spielzeuge durch den Gebrauch der natürlichen Sprache zu Bewegungsaktionen zu verleiten, ohne dass irgendwelche Schalter oder Knöpfe betätigt werden müssen.
- Sprecherspezifische Spracherkennung: Dies bezieht sich auf Anwendungen, bei denen das Endprodukt auf eine bestimmte Person abgestimmt sind. Diese Art der Anwendung könnte z. B. für Autofahrer von Nutzen sein. Die Einstellung des Audiosystems, das Einschalten der Scheibenwischer und die Steuerung der Klimaanlage sind als unkritische Fahrzeugfunktionen zu sehen, können aus Sicherheitsaspekten jedoch ablenkend für den Fahrer sein. Durch die Integration der Sprachsteuerung zur Ausführung dieser Funktionen kann das Gefahrenpotenzial durch Ablenkung gesenkt werden und der Fahrer sich auf das Fahren konzentrieren. Da ein Auto in der Regel einer begrenzten Anzahl an Fahrern zur Verfügung steht, könnte die Sprachsoftware auf die individuelle Aussprache dieser Personen trainiert und somit effizienter eingesetzt werden.
- Verifizierung des Sprechers: Im Gegensatz zu den beiden vorangehenden Anwendungsgebieten, liegt der Schwerpunkt der Verifizierung eines Sprechers im Sicherheitsaspekt und nicht auf Kontrollfunktionen. Dabei handelt es sich im Wesentlichen um eine Art biometrischer Mustererkennung. An dieser Stelle werden Merkmale der Stimme einer Person analysiert, um den Zugang zu einem System zu ermöglichen oder zu verweigern. Als typische Beispiele sind hier persönliche Geräte wie das Smartphone oder Laptops zu nennen, bei denen die Stimme einer Person als Passwort genutzt werden kann, um das Gerät einzuschalten oder sich anzumelden.
- Identifikation des Sprechers: Die Sprachidentifikation steht im engen Zusammenhang mit der Sprachverifizierung. Jedoch wird hier die Äußerung des Sprechers mit denen weiterer Sprecher verglichen, um den Sprecher aus einem Pool möglicher Anwender zu identifizieren. Vereinfacht ausgedrückt kann das Ziel darin bestehen, den Anwender aus einer Vielzahl von berechtigen Nutzern zu erkennen.
Die im Hintergrund eines digitalen Sprachassistenten verborgene NLP-Software stellt ein Teilgebiet der Kl dar.23 Mit NLP wird der Prozess und die Fähigkeit von Computern beschrieben, gesprochene oder geschriebene Texte zu erkennen und deren Bedeutung zu extrahieren, sowie lesbare und grammatikalisch richtige Texte zu erzeugen. Mittels NLP-Systemen werden Computer in die Lage versetzt auf natürliche Sprachen wie Deutsch und Englisch zu reagieren. Die kommunizierte Bedeutung des Gesagten ist allerdings oft von der Semantik abhängig. Ein Mensch ist in der Lage, die Bedeutung von Wortzusammenhängen intuitiv richtig zu erkennen, was für Maschinen auch heute noch eine große Herausforderung darstellt. So ist die Semantik der menschlichen Sprache nicht einheitlich und richtet sich beispielsweise nach der jeweiligen Grammatik, Intention und der kulturellen Prägung. Um diesen Herausforderungen entgegenzuwirken werden beim NLP verschiedene Methoden des Machine Learnings (kurz: ML) kombiniert. Indem ein System mit großen Datenmengen trainiert wird, steigt die Wahrscheinlichkeit bestimmte Wortdeutungen besser zu identifizieren.24
Ein Dialogmanager repräsentiert einen Prozess, der die von den verschiedenen Eingabemodalitäten gelieferten Daten analysiert und die nächsten Aktionen des digitalen Sprachassistenten bestimmt, z. B. die Bereitstellung von Informationen für den Anwender. Für die Umsetzung dieses Prozesses können in der Literatur eine Reihe von Modellen gefunden werden. Ein Beispiel stellt das Finate-State-Modell dar, bei dem zur Verarbeitung von Anfragen auf eine Netzwerkstruktur zurückgegriffen wird, die eine endliche Anzahl an Zuständen aufweist. Die Nutzeranfrage wird strukturiert anhand eines festgelegten Prozesspfads bearbeitet. Diese Art des Dialogmanagers kommt häufig bei unkomplizierten Aufgabenstellungen zum Einsatz. Der wesentliche Vorteil dieses Ansatzes ist die einfache Handhabung, die die Entwicklung eines Dialogmanagers erleichtert. Als Hauptnachteil ist festzuhalten, dass diese Methode aufgrund der mangelnden Flexibilität für die Bearbeitung komplexer Anfragen ungeeignet ist.25
Mit Bezug auf die natürliche Sprache sind in Abhängigkeit der Eingabemodalität grundsätzlich folgende Ein- und Ausgabevarianten zu unterscheiden:26
- Speech-to-Text: Bei diesem Format wird das gesprochene Wort umgehend in einen digitalen Text übersetzt. Dies ist z. B. der Fall, wenn Siri zum Diktieren von Notizen im Smartphone genutzt wird.
- Speech-to-Speech: In diesem Konzept folgt auf eine Spracheingabe eine Sprachausgabe. Ein Frage-Antwort-Szenario, das bei der Verwendung von digitalen Sprachassistenten wie Alexa auftritt, stellt hierzu ein typisches Beispiel dar.
- Text-to-Text: An dieser Stelle wird ein digitaler Text mit Hilfe eines Programms wie DeepL in eine andere Sprache übersetzt und in Textform ausgegeben.
- Text-to-Speech: Mit diesem Anwendungsbereich können digitale Textinformationen akustisch abgespielt bzw. vorgelesen werden. In diesem Zusammenhang hat z. B. das chinesische Unternehmen Baidu die Anwendung Deep Voice entwickelt, mit der es möglich ist, die Stimme einer Person in wenigen Sekunden auf der Grundlage von Trainingsdaten zu klonen. Nach dem Klonen ermöglicht die Anwendung die Wiedergabe eines beliebigen Textes mit der zuvor geklonten Stimme und einer gewünschten Intention.27
Um in diesem Prozess basierend auf der MMI, die Inhalte der natürlichen Sprache zu analysieren und kontextbasiert zu bewerten, sind Lösungen aus dem Gebiet der Kl notwendig. In den letzten Jahren hat sich das Verständnis zu Fragen im Gebiet der Kl weit entwickelt. Mit diesem Fortschritt hat sich der Computer vom reinen Speicher- und Rechenmedium zum intelligenten Analyseinstrument entwickelt. Durch den Einsatz der Kl werden die Anwendungsbereiche, die auf die natürliche Sprache zurückzuführen sind, weiter ausgebaut. In der klassischen Form der Spracherkennung werden Anwendungen auf der Grundlage eines definierten Vokabulars implementiert. Im Kontext der Kl ist ein definiertes Vokabular nicht notwendig, da die Kl aus Gesprächen lernt und das Vokabular selbstständig weiterentwickeln kann. Um ein natürliches Gespräch führen zu können, ist somit nicht eine vollständige Definition jedes einzelnen Wortes erforderlich, sondern nur ein Grundvokabular und Trainingsdaten, mit denen die Kl die Sprache selbst erlernt. Das hier verfolgte Ziel ist letztlich die Entwicklung einer Maschine, die sich verhält, als Verfüge sie über Intelligenz.28 Kl stellt dabei einen Zweig der Informatik dar und beschreibt in erster Linie, wie rechnergesteuerte Systeme die kognitiven Fähigkeiten von Menschen imitieren. Die Anwendung von Kl-Systemen soll Softwaresysteme, Maschinen oder Roboter in die Lage versetzen, mit und ohne menschliches Eingreifen vielfältige Aufgabenstellungen in bisher unbekannten Umgebung zu lösen.29 ML ist ein Zweig der Kl, der in den letzten Jahren von einem rasanten technologischen Wachstum geprägt ist. Beim ML werden Algorithmen verwendet, die auf Grundlage von Daten verschiedene Muster erkennen und entsprechende Informationen ableiten. Auf diese Weise wird künstliches Wissen generiert.30 Dabei wird grundlegend zwischen den ML-Konzepten Supervised ML (zu Deutsch: überwachtes ML), Unsupervised ML (zu Deutsch: unbeaufsichtigtes ML) und Reinforcement Learning (zu Deutsch: bestärktes ML) unterschieden.31 Der Zweck des überwachten ML besteht darin, durch beispielhafte Ein- gabe-Ausgabe-Paare zunächst ein Modell aufzustellen, das es ermöglicht eine Beziehung zwischen vorgegebenen Eingabewerten und bekannten Zielwerten herzustellen. Damit soll ein Computer befähigt werden, auch eigenständig Prognosen über bisher unbekannte Ein- und Ausgaben zu erstellen. Zur Validierung der Leistungsfähigkeit eines Modells werden Testdaten herangezogen, die dem Modell bisher unbekannt sind.32 Beim unbeaufsichtigten ML werden hingegen keine Regeln vorgegeben, die die Beziehung zwischen Ein- und Ausgabewerten bestimmten. Bei diesem Ansatz teilt der Algorithmus die Eingangsdaten anhand der vorhandenen Daten selbstständig in Kategorien ein, um Muster zu identifizieren. Mit dem bestärkenden ML-Ansatz wird der Fokus daraufgelegt, eine wirksame Strategie für ein konkretes Problem zu erlernen. Innerhalb der Strategie erhält der Algorithmus in Abhängigkeit der gewählten Handlungen eine Belohnung oder Strafe. Somit muss der Algorithmus anhand dieser Erfahrungen beschließen, mit welcher nächsten möglichen Handlung eine optimale Entscheidung getroffen werden kann.33
2.1.3 Hindernisse und Treiber am Arbeitsplatz
Immer mehr Bereiche der Gesellschaft und Wirtschaft werden durch potenzielle Anwendungsmöglichkeiten von digitalen Sprachassistenten durchdrungen. Neben der privaten Nutzung finden sich zunehmend auch berufliche Einsatzbereiche. So werden digitale Sprachassistenten im privaten Umfeld häufig eingesetzt, um Informationen aus dem Internet abzurufen, z. B. die Wettervorhersage oder Nachrichten und um Haushaltsgeräte wie Küchengeräte oder Beleuchtungen zu steuern. Im Arbeitsalltag ergeben sich durch Sprachsteuerung weitere intelligente Anwendungsmöglichkeiten wie für das Büro oder zur Maschinensteuerungen.34 Diese Assistenzsysteme können Mitarbeiter bei täglich anfallenden Aufgaben wie bei der Planung oder zur Aufbereitung und Bereitstellung benötigter Informationen unterstützten. So können Assistenzsysteme z. B. zur Terminkoordination zwischen verschiedenen Projektmitgliedern und zur Belegung von Besprechungsräumen eingesetzt werden oder den jeweiligen Organisator bei sonstigen anfallenden Tätigkeiten entlasten. Sie können aber auch außerhalb von organisatorischen Szenarien sinnvoll eingesetzt werden. Mit ihrer Hilfe kann z. B. die Zustandserfassung von einzelnen Komponenten eines Systems erfolgen und damit Wartungspersonal auf kritischen Stellen eines Betriebsprozesses hingewiesen werden. Dort könnten Assistenzsysteme den zuständigen Mitarbeiter anleiten und entsprechende Hinweise zur Lösung des Problems liefern. In Abhängigkeit vom Verwendungszweck zeigen Assistenzsysteme somit verschiedene Vorteile auf und erleichtern alltägliche Aufgaben der jeweiligen Anwender. Durch das Delegieren von Aufgaben kann der Anwender Kosten und Zeit sparen und Ressourcen gezielter einsetzen.35
Abbildung in dieser Leseprobe nicht enthalten
Quelle: In Anlehnung an Schaber et al. (2019), S. 10.
Abbildung 3: Raumstatus per Sprachsteuerung prüfen ein Anwendungsbeispiel
Dabei hat das Interesse an Assistenzsystemen wie Alexa for Business oder Cortona Skills Kit for Enterprise, die für den Arbeitsplatz entwickelt wurden, in den letzten Jahren zugenommen. Allerdings bedarf es noch weiterer Untersuchungen, wie digitale Sprachassistenten erfolgreich am Arbeitsplatz etabliert werden können. Hinzu kommt, dass der Einsatz von digitalen Sprachassistenten für arbeitsbezogene Aufgaben noch begrenzt ist und die Entwickler dieser Assistenzsysteme dementsprechend Probleme haben, in den Arbeitsbereich vorzudringen. Um die Akzeptanz dieser Systeme für den Arbeitsplatz zu erhöhen, muss daher ein besseres Verständnis dafür geschaffen werden, auf welche Weise digitale Sprachassistenten einen Mitarbeiter unterstützen können.36 Aktuell agieren Assistenzsysteme generell passiv und werden nur beim Öffnen von bestimmten Apps, beim Drücken einer Taste oder wenn eine Begrüßung ausgesprochen wird aktiv. Hingegen könnten Assistenzsysteme, die aktiv agieren sich potenziell auch selbstständig in eine Situation einbringen und mit den Anwendern interagieren, indem z. B. Ratschläge gegeben oder Missverständnisse aufgeklärt werden. Jedoch könnte dies auch als Nachteil gesehen werden, da das Assistenzsystem auch innerhalb einer Situation aktiv unerwünschte Aussagen treffen könnte.37 Für das Verständnis der Bedeutung einer Äußerung ist innerhalb einer bestimmten Situationen eine Interpretation notwendig, bei der der Kontext, in dem sie getroffen wurde und weitere Zusatzinformationen berücksichtigt werden. Dies lösen Menschen meist intuitiv. Für digitale Sprachassistenten stellt dies jedoch weiterhin eine Herausforderung dar und hängt von der vorliegenden Rechenleistung und den eingesetzten ML-Methoden ab.38 Diese Herausforderungen haben die Anbieter erkannt und bemühen sich, die Verständigung mit ihren digitalen Sprachassistenten an die menschliche Kommunikation weiter anzunähern. Des Weiteren herrscht ein Trend in Richtung einer tieferen Personalisierung der digitalen Sprachassistenten auf der Grundlage des Stimmprofils des jeweiligen Anwenders. Ferner ist somit auch denkbar, dass aus der Anfrage die Stimmung eines Anwenders erkannt und dies mit in die Antwort einbezogen wird. Neben der menschlichen Stimme können diese Systeme aber auch weitere Umgebungsgeräusche wahrnehmen. Damit könnte ein digitaler Sprachassistent auch unter Sicherheitsaspekten eingeführt werden, um in der eingesetzten Umgebung vorhandene Alarmsysteme effektiver zu gestalten.39 Damit die zuvor genannten Vorteile auch in Unternehmen ausgeschöpft werden können, muss dem Wissensmanagement eines Unternehmens zunächst eine wichtige Rolle zugeschrieben werden. Dazu ist es notwendig jegliches Wissen von und über ein Unternehmen in elektronischer Form, für den digitalen Assistenten zur Verfügung zu stellen. Der Schwerpunkt liegt hier vor allem in der elektronischen Aufbereitung des Wissens, das in den Köpfen der Mitarbeiter vorliegt. Die erfolgreiche Implementierung eines digitalen Assistenten kann damit z. B. auch die Automatisierung des unternehmensweiten Wissensmanagement vorantreiben und die jeweiligen Anwender durch eine effiziente Bereitstellung von Informationen bei Entscheidungen unterstützen.40
Die beim Einsatz von digitalen Sprachassistenten entstehenden und vorhandenen Daten werden auf die Server der Anbieter übermittelt, dort gesammelt und verarbeitet. Somit werden zu der eigentlichen Nutzeranfrage auch zusätzliche Metadaten wie Benutzerkennung, Gerätekennung, Kontextinformationen, Standort und Zeitpunkt übertragen. Falls die Suchhistorie aktiviert ist, werden alle vom Anwender gestellten Anfragen auf den Server der Anbieter gespeichert. Zudem werden häufig Berechtigungen für Kalender- und Kontaktdaten angefordert, die dann ebenfalls auf den Servern der Anbieter gesichert werden. Sollten diese Berechtigungen nicht erteilt werden, können digitale Sprachassistenten nur mit einer hohen Einschränkung eingesetzt werden. Die erhobenen Daten dienen neben der Abwicklung von Anfragen auch zur allgemeinen Optimierung der Sprachmodule des jeweiligen Anbieters. So erklärt Google, dass das Unternehmen die gesammelten Daten nicht ausschließlich zur Bereitstellung der Dienste verwendet, sondern auch zur kontinuierlichen Verbesserung bestehender Dienste oder zur Personalisierung von Werbung einsetzt. Sämtliche Anbieter liefern dabei eher ungenaue Informationen über den Ort der Datenspeicherung.41 Wenn ein Arbeitgeber einen digitalen Sprachassistenten für berufliche Ziele einführen möchte, ist es somit notwendig, die Einhaltung von Datenschutzbestimmungen zu beachten.42 Ergänzend nimmt auch die Informationssicherheit im Umgang mit digitalen Sprachassistenten eine besondere Rolle ein. Grundlegend sind digitale Sprachassistenten so konzipiert, dass sie Anfragen zügig beantworten. Daher wird häufig keine Authentifizierung des Anwenders verlangt. Infolgedessen ist es für Unbefugte möglich z. B. auf die Kontaktdaten des eigentlichen Anwenders zuzugreifen oder E-Mails im Namen des Anwenders perSprachbefehl zu versenden. Inzwischen bieten die meisten Anbieter deshalb die Erstellung von Stimmprofilen an, um den Zugang für Unbefugte zu erschweren. In diesem Zusammenhang kann sich das umfassende Aufnahmespektrum der Sprachassistenten ebenso nachteilig auswirken, da auch Frequenzen außerhalb des hörbaren Bereichs erfasst werden können. Damit ist es z. B. möglich verschiedene Befehle für einen digitalen Sprachassistenten in harmlos erscheinenden Musikstücken unterzubringen, die der Mensch nicht wahrnehmen kann. Auf diese Weise könnte z. B. ein vernetztes Türschloss den Befehl zum Öffnen einer Wohnungstür annehmen. Zudem können lokale Sicherheitslücken zu unberechtigtem Abhören von Gesprächen führen. Zuvor konnten Angreifer unter anderem eine Sicherheitslücke im Bluetooth-Protokoll nutzen, um unbemerkt die Kontrolle über Alexa zu erhalten. Mittlerweile ist diese Sicherheitslücke beseitigt worden, es ist jedoch durchaus möglich, auch künftig ähnliche Schwachstellen vorzufinden.43
2.2 Akzeptanzforschung
Die Akzeptanzforschung hat sich laut Kollmann in den 1970er bis 1980er Jahren etabliert. In diesem Zeitraum wurde vor allem die Erschließung von Kriterien zur Annahme und Ablehnung von innovativen Produkten fokussiert. Einen Schwerpunkt stellte die Untersuchung der Einführung neuer Technologien im Büroumfeld dar. Kollmann beschreibt die Akzeptanzforschung als eine Fusion von Arbeitswissenschaft und Betriebswirtschaftslehre, die um kognitive Ansätze und soziologische Erkenntnisse erweitert wird und somit eine Synthese aus ökonomischen und soziologischen Konzepten bildet.44 Die Akzeptanzforschung beschäftigt sich dabei mit der Erschließung von Gründen und Verhaltensmustern auf der Anwenderseite, um Gründe für Treiber und Hindernisse zur Annahme und auch für die ablehnende Haltung gegenüber einem Akzeptanzobjekt zu ermitteln. Damit sollen Barrieren bei der Einführung innovativer Produkte gelöst und Indikatoren für den Markterfolg prognostiziertwerden. Zur Ermittlung der Nutzerakzeptanz werden dazu auf unterschiedliche Theorien und Ansätze zurückgegriffen.45 Die Technologieakzeptanz ist ein Teilbereich der Akzeptanzforschung und umschließt ebenso unterschiedliche Forschungsfelder. Dabei wird sowohl die individuelle Akzeptanz von Anwendern als auch die gesellschaftliche Akzeptanz gegenüber einer Technologie behandelt. In der Literatur ist ein umfassender Überblick, welches den Anspruch auf Vollständigkeit erhebt, das gesamte Spektrum der Akzeptanzforschung oder der Technologieakzeptanz abzudecken, nicht zu finden.46 Zur Erklärung der individuellen Nutzerakzeptanz von Technologien, können daher aus wissenschaftlicher Sicht eine Vielzahl an Akzeptanztheorien, die sich forschungsübergreifend ergänzen und auch überschneiden, herangezogen werden. In diesem Zusammenhang stellt die Diffusionstheorie den ältesten Forschungszweig dar, die als Quelle für darauffolgende Konzepte der Akzeptanzforschung gedient hat. Dazu zählen theoretische Konzepte aus dem amerikanischen Raum zur Forschung von IT-Systemen und Konzepte der Wirtschaftsinformatik, die überwiegend dem deutschsprachigen Raum zuzuordnen sind.47
2.2.1 Diffusionstheorie
Die Erkenntnisse der Diffusionstheorie sind auf die Veröffentlichung Diffusions of Innovations von Rogers zurückzuführen. Das darin hervorgebrachte Untersuchungsziel beschäftigt sich mit der Ermittlung von Erklärungsansätzen für den Ausbreitungsverlauf von Produktinnovationen im Markt. Dabei wird der Neuheit eines Produktes eine relative Gewichtung zugeschrieben, da sie nicht durch objektive Produkteigenschaften, sondern durch die subjektive Produktbewertung der Nachfrager resultiert. Die Zusammensetzung der Adoptions- und Diffusionsforschung wird im Allgemeinen als Diffusionstheorie deklariert.48 Auf der Individualebene betrachtet die Diffusionstheorie ebenso den Mehrwert des Nutzungsentscheidungsprozesses, welches die Adoption einer Innovation beeinflussen kann. Dazu stellt Rogers in seiner Ausarbeitung ein Fünf-Phasen-Modell auf, das auf der Individualebene einen allgemeingültigen Entscheidungsprozess zur Nutzung einer Innovationen darstellt. In der ersten Phase erfolgt zunächst die Kenntnisnahme über eine Innovation. Dabei erlangt der Anwender das Wissen darüber, wie eine Innovation funktioniert und nimmt sie entweder aktiv oder passiv wahr.49 In der darauffolgenden Phase wird die Bildung der Einstellung gegenüber einer Innovation fokussiert. Innerhalb dieser Phase werden die Determinanten relativer Vorteil, Kompatibilität, Komplexität, Ausprobierbarkeit sowie Beobachtbarkeit aufgeführt, die einen Einfluss auf die Bewertung einer Innovation ausüben. Mit dem relativen Vorteil wird der Gedanke hervorgehoben, dass die jeweilige Innovation aufgrund ökonomischer und sozialer Aspekte einen besseren Nutzen als bisher genutzte Konzepte bietet. Die Kompatibilität steht für den Abgleich der individuellen Erwartungshaltung und der Wahrnehmung einer Innovation. Mittels der Komplexität wird die Schwierigkeit eine Innovation zu verstehen und einzusetzen beschrieben. Durch die Ausprobierbarkeit erhält ein potenzieller Anwender die Möglichkeit erste Erfahrungen im Umgang mit der Innovation zu sammeln. In der Phase Beobachtbarkeit wird die Sichtbarkeit einer Innovation nach außen behandelt. Darauf aufbauend wird in der dritten Phase die Entscheidung getroffen, ob eine Innovation akzeptiert oder abgelehnt wird. Innerhalb der Implementierungsphase wird die zuvor erworbene Innovation genutzt. Um eine Innovation fortlaufend zu nutzen, wird in der letzten Phase nach einer Bestätigung für die getroffene Entscheidung gesucht. Dabei besteht auch nach der Bestätigungsphase die Möglichkeit, bei Auftritt von nicht lösbaren Konflikten, die Innovation im Nachgang abzulehnen.50
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Entnommen aus Rogers (2003), S. 170.
Abbildung 4: Entscheidungsprozess zur Übernahme von Innovationen
Innerhalb der Diffusionstheorie ist zusätzlich eine Unterscheidung der grundlegenden Theorie der Adoptions- und Diffusionsforschung aufzuführen, die zwar miteinander verwandt aber zum Verständnis voneinander zu unterscheiden sind. Als Untersuchungsgegenstand beschäftigen sich beide Forschungsstränge mit Innovationen, betrachten diese jedoch aus unterschiedlichen Blickwinkeln. Die Adoptionsforschung beschäftigt sich mit der Bewertung von Faktoren, die den Adoptionsprozess von Individuen beeinflusst. Als Adoption wird die Entscheidung eines Individuums zur Übernahme einer Innovation verstanden, welches den finalen Schritt des Adoptionsprozesses darstellt. Die Diffusionsforschung bewertet unter Einbezug der kumulierten Faktoren, die die Adoption einer Innovation beeinflussen, die zeitliche Entwicklung der Übernahme im Gesamtmarkt. Zusätzlich zur Innovation und dem Zeitaspektwerden an dieser Stelle unterschiedliche Kommunikationskanäle als zentrale Elemente des Adoptionsprozesses gesehen, die es ermöglichen Informationen über eine Innovation, zwischen den Mitgliedern eines sozialen Systems zu verbreiten.51
2.2.2 Einordnung des Akzeptanzbegriffes
Der BegriffAkzeptanz findet seinen Ursprung im lateinischen Begriff acipere wieder und bedeutet so viel wie annehmen, billigen oder erhalten52 und umschreibt nach Lucke in erster Linie „die Chance, für bestimmte Meinungen, Maßnahmen, Vorschläge und Entscheidungen bei einer identifizierten Personengruppe ausdrückliche oder stillschweigende Zustimmung zu finden und unter angebbaren Bedingungen aussichtsreich auf deren Einverständnis rechnen zu können“.53 Die Akzeptanz nimmt als Instrument zur Messung des Erfolges bzw. des Misserfolges einer technologischen Innovation eine wichtige Rolle ein. Daher führt die Wissenschaft erhebliche Untersuchungen durch, um zu ermitteln welche Faktoren die Akzeptanz einer technologischen Innovation bei Konsumenten oder von Mitarbeitern eines Unternehmens beeinflussen. Jedoch wird dieser Begriff sowohl in der Literatur als auch im alltäglichen Wortschatz interdisziplinär eingesetzt und in Abhängigkeit des Untersuchungsziels unterschiedlich definiert. Trotz unterschiedlicher Begriffsdefinition ist sich die Akzeptanzforschung weitestgehend darüber einig, dass die Akzeptanz keinen binären Beschluss darstellt, dem nur ein Attribut wie Kauf oder Nicht-Kauf zugewiesen werden kann.54 Die Akzeptanz stellt ein Ergebnis dar, hinter dem sich ein komplexer Prozess verbirgt. Dabei wird die Akzeptanz vor allem von individuellen Erfahrungs- und Lernprozessen beeinflusst.55 Aus wissenschaftlicher Sicht werden dem Akzeptanzbegriff daher eine Vielzahl von differierenden Definitionen zugeschrieben.56 Müller-Böling und Müller haben alleine aus der betriebswirtschaftlichen Literatur, zur Verdeutlichung der Vielfältigkeit des Akzeptanzbegriffes, eine Liste von 20 unterschiedlichen Akzeptanzdefinitionen aufgestellt.57 In der Literatur finden sich auch verschiedene Ansichten zur Definition der Nicht-Akzeptanz wieder. Die NichtAkzeptanz kann, sowohl aktiv als auch passiv erfolgen. Eine genauere Festlegung dieser Begrifflichkeit hängt vom jeweiligen Untersuchungsziel ab.58 Lucke schlägt einen Definitionsansatz vor, bei der Nicht-Akzeptanz beschrieben wird als „die Wahrscheinlichkeit, mit Meinungen, Maßnahmen etc. bei einer identifizierbaren Personengruppe auf ausdrückliche oder stillschweigende Ablehnung zu stoßen und unter an- gebbaren Bedingungen mit Widerspruch und Widerstand signalisierenden Handlungen und dementsprechenden Meinungsäußerungen rechnen zu müssen“.59
Für eine differenziertere Betrachtung des Begriffs der Akzeptanz ist es zunächst notwendig, zwischen dem Akzeptanzsubjekt, dem Akzeptanzobjekt und dem Akzeptanzkontext zu unterscheiden.60 Der Prozess des Akzeptierens ist von diesen drei Elementen abhängig.61 Die Instanz Akzeptanzsubjekt stellt dabei die Einheit dar, die einen Gegenstand akzeptiert bzw. ablehnt. Beim Akzeptanzobjekt handelt es sich um den Gegenstand der akzeptiert oder abgelehnt wird. Mit dem Akzeptanzkontext werden weitere Faktoren, wie soziokulturelle oder politische Rahmenbedingungen beschrieben, die sich zusätzlich zum Subjekt und Objekt auf den Akzeptanzprozess auswirken.62 Unter Berücksichtigung individueller und äußerlicher Einwirkungen stellt Akzeptanz auf der Subjektseite die aktive Wahrnehmung und Verarbeitung des Akzeptanzobjektes dar. In diesem Sinne wird ein rational handelndes Individuum vorausgesetzt, welches sich am Handlungskontext orientiert.63 Akzeptanzsubjekte können sowohl einzelne Personen, Gruppen aber auch eine Gesamtgesellschaft darstellen. Des Weiteren sind sie dahingehend zu klassifizieren, ob es sich um Anwender, Betroffene oder Entscheider handelt. Ein Akzeptanzobjekt kann einen tatsächlichen Gegenstand, eine Einstellung, Person oder auch ein Thema darstellen. Im Rahmen der Technologieakzeptanz kann das Akzeptanzobjekt in drei Kategorien unterteilt werden. Die Kategorie Haushalts-, Freizeit und Produkttechnik bezieht sich auf die Nutzung von Technologien im Alltag. Das Akzeptanzsubjekt wird hier als Privatperson gesehen und ist sowohl Anwender einer Technologie als auch Entscheiden ob diese Technologie zum Einsatz kommt, wie bei der Nutzung eines Laptops oder Smartphones. Die Kategorie Technik am Arbeitsplatz bezieht sich auf Technologien, mit denen Menschen auf der Arbeit in Berührung kommen. Dazu zählen sowohl Bürotechniken, als auch Maschinen in der Industrie, die unternehmerische Prozesse unterstützten. Die dritte Kategorie externe Technik steht in Verbindung mit dem Akzeptanzbereich Akzeptanz als Nachbar. In diesem Szenario sind Anwohner ungewollt Betroffene einer Technologie, bei der sie z. B. nicht über den Standort einer Mobilfunkantenne entscheiden können.64
2.2.3 Akzeptanzmodelle
Um die Vielfältigkeit von möglichen Definitionen des Akzeptanzbegriffs nachvollziehen und voneinander abgrenzen zu können, ist es notwendig zwischen den einzelnen Ausprägungen der Akzeptanz zu differenzieren.65 Zur näheren Beschreibung des Akzeptanzbegriffs wird im Kontext der Einführung IT-gestützter Innovationen, daher meist auf das Akzeptanzverständnis von Rengelshausen und Kollmann verwiesen.66 Rengelshausen unterscheidet zwischen einer einstellungsbezogenen und der verhaltensbezogenen Ebene der Akzeptanz. Nach dieser Definition liegtAkzep- tanz nur dann vor, wenn zur selben Zeit sowohl die Einstellungsakzeptanz als auch die Verhaltensakzeptanz vorliegt. Dazu muss zunächst eine positive Einstellung gegenüber der Technologie herrschen, die zur Nutzungsbereitschaft führt. Zusätzlich muss im Rahmen der handlungsorientierten Akzeptanz eine aufgabenbezogene Anwendung der Technologie stattfinden.67 Die Einstellungsakzeptanz wird in Anlehnung an das sogenannte Drei-Komponenten-Modell mittels einer affektiven, kognitiven und konativen Komponente dargestellt.68 Innerhalb der affektiven Komponente wird der emotionale Zustand eines Konsumenten gegenüber dem Akzeptanzobjekt festgelegt. Mittels der kognitiven Komponente wird das Wissen eines Konsumenten, im Bezug zum Akzeptanzobjekt aufgefasst. Die konative Komponente resultiert zunächst durch das Zusammenwirken der beiden vorangehenden Komponenten und nimmt ersten Bezug zur Handlungsebene.69 Somit stellt die Einstellungsakzeptanz ein mehrdimensionales Konstrukt dar, welches sich aus emotionalen, gelernten und verhaltensorientierten Elementen zusammensetzt. Hingegen wird mittels der Verhaltensakzeptanz die tatsächliche Nutzung dargestellt.70
Auch Kollmann greift in seinen Arbeiten auf diese Ebenen zurück, führt sie jedoch weiter aus. Dabei lässt sich der Akzeptanzprozess in einem dreistufigen Phasenmodell abbilden. Dazu wird zwischen der Einstellungs-, Handlungs- und Nutzungsebene unterschieden. Durch diese Differenzierung teilt sich die Akzeptanzbetrachtung einer Innovation, in zeitlicher Reihenfolge, in die Einstellungsphase mit dem Zeitraum vor der Übernahme, in die Handlungsphase mit dem Zeitraum während der Übernahme und die Nutzungsphase nach der Übernahme auf. Jeder dieser Ebenen führt dabei zu einer Zwischenakzeptanz. Zur Bildung der Zwischenakzeptanz werden innerhalb dieser Ebenen verschiedene Teilstufen identifiziert. Folglich führt die Zwischenakzeptanz der einzelnen Ebenen aggregiert zur Gesamtakzeptanz. Allerdings können alle Phasen nur dann durchlaufen werden, wenn auf jeder Ebene ein positives Akzeptanzergebnis gebildet wird. Sobald auf einer Ebene eine negative Zwischenakzeptanz hervorgebracht wird, wird der Akzeptanzprozess unterbrochen und daraus resultiert eine ablehnende Haltung gegenüber einer Innovation.71 Die Einstellungsdimension ist auf Basis der Einstellungstheorie nach Trommsdorff, als eine latente Zusammenstellung emotionaler und kognitiver Merkmale eines Individuums zu verstehen, die die Bereitschaft der Akzeptanz gegenüber einer Innovation darstellt.72 Innerhalb der Einstellungsphase kann die Akzeptanzentwicklung des potenziellen Anwenders in unterschiedliche Stufen aufgeteilt werden. Dazu zählen die Stufen Bewusstsein, Interesse und Erwartungshaltung. Bei der ersten Teilstufe Bewusstsein, werden vom Anwender erste Informationen über das Akzeptanzobjekt wahrgenommen und verarbeitet ohne sich explizit um eine Informationssuche bemüht zu haben. Beim anschließenden Interesse tritt eine affektive Komponente hinzu. Dabei rücken mögliche Einsatzmöglichkeiten des Akzeptanzobjektes in das Bewusstsein des Anwenders ein und führen gegebenenfalls dazu, dass der Anwender eine eigenständige Informationssuche durchführt. Im Anschluss werden Chance und Risiken der Neuerung gegenübergestellt. Dabei stellt der Anwender individuelle Ansprüche gegenüber der Technologie auf und nimmt eine Bewertung vor.73 In Definitionen, die der Akzeptanz ausschließlich die Einstellungsebene zuweisen, beschreibt Akzeptanz die positive Annahme eines Akzeptanzobjektes. Dabei können bestimmte Intentionen einfließen, jedoch nicht das Handeln selbst. Dies erfolgt innerhalb der Handlungsebene, wobei eine Handlung möglich aber nicht zwingend ist, da die individuelle Einstellung z. B. auch durch Enthaltung eine Zustimmung implizieren kann.74
Die folgende Visualisierung, die die Einstellungs- und Handlungsebene in einer zweidimensionalen Skala darstellt, fasst das Verhältnis beider Ebenen zusammen:
Abbildung in dieser Leseprobe nicht enthalten
Quelle: InAnlehnung an Schäfer, Keppler (2013), S. 13.
Abbildung 5: Zweidimensionale Skala der Einstellungs- und Handlungsebene
Auch zur Bildung der Handlungsakzeptanz durchläuft der Anwender unterschiedliche Teilstufen. Innerhalb der Teilstufe Versuch bzw. Erfahrung wird die technologische Innovation vom potenziellen Anwender getestet. Die daraus gewonnenen Informationen beeinflussen die Erwartungshaltung des Anwenders, daraus resultiert eine abschließende Bewertung der Nutzungsinnovation. Die nächste Teilstufe bezieht sich dann auf die Übernahme bzw. den Kauf der Innovation. Eine Übernahme findet nur dann statt, wenn die subjektive Erwartungshaltung des Anwenders erfüllt wird. In der Regel ist die Handlungsphase mit einer Übernahme der Nutzungsinnovation abgeschlossen. Oftmals ist jedoch nach der Übernahmeentscheidung ein weiterer Teilschritt notwendig. Dieser Schritt ist die Implementierung, die den Einsatz der Nutzungsinnovation erst ermöglicht. Somit kann der Implementierungsschritt als eine Verlängerung der Handlungsebene interpretiert werden.75 An dieser Stelle ist jedoch zu erwähnen, dass die jeweilige Handlungsweise des Anwenders nur bedingt Aufschluss über die subjektive Einstellung zur Nutzungsinnovation gibt. Zum einen können im privaten als auch im beruflichen Kontext die Nutzung einer Technologie erzwungen werden. Anderseits lässt sich eine Nichtnutzung des Akzeptanzobjektes, nicht ausschließlich mit einer negativen Einstellung begründen, da dem Akzeptanzsubjekt unter anderem das Know-how zur Nutzung der Technologie fehlen kann.76 Nach der Bildung der Handlungsakzeptanz folgt die Nutzungsphase. Innerhalb des Akzeptanzprozesses dient diese Ebene zur Ermittlung von konkreten Anwendungsfeldern, in der die Nutzungsinnovation eingesetzt wird. Die Nutzungsphase teilt sich dabei in die Teilstufen Einsatzbestimmung und Nutzung auf. Im Anschluss auf die Implementierung wird hierbei ein Anwendungsfeld spezifiziert, zu deren Problemlösung die Technologie angeschafft wurde. Damit werden die Rahmenbedingungen des Einsatzes festgelegt, woraufhin die einsatzfähige Technologie genutzt wird.77 Nach Kollmann hängt der Markterfolg einer innovativen Technologie im Wesentlichen von der kontinuierlichen Nutzung ab. Dabei kann die Vernachlässigung der Nutzungsphase, bezüglich der Diffusion einer Technologie zu immensen Fehleinschätzungen führen. In diesem Zusammenhang stellt die sogenannte Nutzungslücke ein fortlaufendes Problem dar, da die Entscheidung der Nicht-Nutzung eines Produktes beim Anwender sowohl am Anfang, aber auch künftig zu jeder anderen Zeit erfolgen kann. Eine Nutzungslücke entsteht, wenn potenzielle Anwender das jeweilige System nutzen können, jedoch nur eine geringe Anzahl an Personen auf diese Möglichkeit zurückgreifen. Damit wird deutlich, dass nicht nur der Verkauf oder die erfolgreiche Implementierung eines neuen Systems zur Übernahme führt, sondern dass auch eine kontinuierliche Nutzung notwendig ist.78
Abbildung in dieser Leseprobe nicht enthalten
Quelle: In Anlehnung an Kollmann (2000), S. 36.
Abbildung 6: Akzeptanzprozess nach Kollmann
2.3 Modelle zur Erklärung der Technologieakzeptanz
Im Kontext der Technologieakzeptanz versucht die Akzeptanzforschung psychologische und soziologische Determinanten der Nutzerakzeptanz auf der individuellen Ebene zu verstehen und mit verschiedenen Modellen darzustellen. Während die Diffusionstheorie eine Grundstruktur für die Beschreibung der Diffusion einer innovativen Technologie innerhalb eines sozialen Systems im Zeitablauf liefert und die Grundlage für Erkenntnisse über die Charakteristika verschiedener Nutzergruppen bildet, bietet sie wenig Informationen über den jeweiligen Entscheidungsprozess von Individuen bezüglich der Übernahme einer Technologie. Aus diesem Grund sind Modelle der Akzeptanzforschung, die emotionale, kognitive und soziale Faktoren im menschlichen Entscheidungsprozess berücksichtigen, besser geeignet, ein tiefes Verständnis der individuellen Einstellungen zu einer Technologie zu gewinnen, um den Adoptionsprozess effektiv zu unterstützen. Zu diesem Zweck gibt es in der Literatur verschiedene Modelle der Technologieakzeptanz, die sich mit der Beschreibung der menschlichen Akzeptanzfaktoren bei der Entscheidung für oder gegen den Nutzen einer Technologie befassen.79
2.3.1 Verhaltenstheorien
Ajzen und Fishbein haben das Modell Theory of Reasoned Action (kurz: TRA) entwickelt.80 Die Theorie dazu leitet sich aus dem sozialpsychologischen Forschungsfeld zur Untersuchung von Einstellungen und Verhalten von Personen ab und verfolgt das Ziel deren Handlungen zu erklären und vorherzusagen. Dabei geht hervor, dass die Verhaltensabsicht einzelner Menschen auf die Annahme zurückzuführen ist, wie sie annehmen, dass andere in einer bestimmten Situation handeln würden. Das Modell wird durch das Verhältnis der Einheiten individuelle Einstellung, subjektive Norm und die Verhaltensabsicht aufgestellt.81 Die Einstellung wird durch persönliche Ansichten und Emotionen gegenüber einer Handlung bestimmt, unter der Berücksichtigung möglicher Auswirkungen. Den Druck, den eine Person aus dem sozialen Umfeld auf die erwartete Ausführung oder Nichtausführung einer Handlung wahrnimmt, wird als subjektive Norm bezeichnet. Ausgehend von der Einstellung und der subjektiven Norm wird eine Bewertung möglicher Folgen vorgenommen, die zur Verhaltensabsicht führt.82 Laut der TRA führen Menschen ein Verhalten dann tatsächlich aus, wenn sie es selbst positiv bewerten und denken, dass Personen, die ihnen wichtig sind dasselbe tun.83
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Entnommen aus Ajzen, Fishbein (1980), S. 100.
Abbildung 7: TRA-Modell
Im Jahr 1985 wurde das TRA-Modell von Ajzen erweitert. Dies hat zur Aufstellung des Modells Theory of Planned Behavior (kurz: TPB) geführt.84 Die Verhaltensabsicht wurde im vorangehenden Modell durch die Einstellung und subjektive Norm dargestellt. Innerhalb des TPB-Modells wird dieser Ansatz um einen dritten Faktor, der wahrgenommenen Verhaltenskontrolle erweitert.85 Dieser Faktor umfasst die Wahrnehmung eines Individuums, inwiefern es sich mit eigenen Mitteln dazu in der Lage sieht ein Verhalten wie gewünscht auszuführen.86 Anders als die individuelle Einstellung und die subjektive Norm wird mit diesem Konstrukt zusätzlich zur Verhaltensabsicht auch das tatsächliche Verhalten direkt beeinflusst.87 Diesem Modell wird zugeschrieben Intentionen und Verhalten besser als sein Vorgänger auswerten zu können.88
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Entnommen aus Ajzen (1991), S. 182.
Abbildung 8: TPB-Modell
2.3.2 Technology Acceptance Model
Auf der Grundlage des TRA-Modells entwickelte Davis 1985 das Technology Acceptance Model (kurz: TAM).89 Es wird weithin eingesetzt, um die Verhaltensabsicht des Menschen in Bezug auf neue Informationssysteme zu erforschen.90 In der Literatur wird beschrieben, dass die TRA allgemein gehalten ist, wodurch es praktisch auf jedes menschliche Verhalten anwendbar ist. Das TAM-Modell hingegen greift zwar auf die Theorie der TRA zurück, ist aber durch die Integration weiterer Forschungen aus dem IT-Sektor spezifischer und damit geeigneter, das menschliche Verhalten in Bezug auf digitale Technologien zu bewerten.91 Genau wie die TRA geht auch das TAM-Modell davon aus, dass die tatsächliche Nutzung einer Technologie durch die Verhaltensabsicht bestimmt wird. Sie unterscheidet sich jedoch dadurch, dass die Verhaltensabsicht durch die Determinanten wahrgenommener Nutzen und wahrgenommene Benutzerfreundlichkeit bestimmt wird.92 Der wahrgenommene Nutzen beschreibt den Umfang, in dem der Einzelne seine Leistung durch den Einsatz neuer Technologien verbessert sieht. Die wahrgenommene Benutzerfreundlichkeit beschreibt den mangelnden Aufwand, den ein Anwender beim Erlernen und im Umgang mit einer neuen Technologie empfindet.93 Laut dem TAM-Modell wird der wahrgenommene Nutzen durch die wahrgenommene Benutzerfreundlichkeit beeinflusst, denn je einfacher das System zu benutzen ist, desto nützlicher kann es sein. Im TAM-Modell wird ebenso argumentiert, dass der Einfluss externer Variablen, wie Systemeigenschaften oder Schulungsprozesse, sich über diese beiden Determinanten auf die Verhaltensabsicht auswirken.94 Jedoch wird in diesem Modell, die subjektive Norm ausgeschlossen.95
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Entnommen aus Venkatesh, Davis (1996), S. 453.
Abbildung 9: TAM-Modell
Das TAM-Modell wurde bereits vielfach in Untersuchungen als Konzeptmodell verwendet, um die Verhaltensabsichten von potenziellen Anwendern einer Technologie zu untersuchen.96 Kritiker des Modells weisen jedoch darauf hin, dass die ausgewählten Einflussfaktoren nicht genügen, um einen Akzeptanzprozess adäquat abzubilden. Im Jahr 2000 haben Venkatesh und Davis ausgehend von der Kritik, das TAM-Modell 2 aufgestellt. Das Vorgängermodell wurde um soziale und kognitiv-in- strumentelle Elemente erweitert. Der soziale Einfluss wird dabei mittels der subjektiven Norm abgebildet, die auf eine freiwillige Nutzung und auf das Image des Informationssystems zurückzuführen ist. Zu den kognitiv-instrumentellen Prozesselementen zählen die Einheiten Arbeitsplatzrelevanz, Ergebnisqualität und Nachweisbarkeit der Ergebnisse.97 Dieses Modell weist darauf hin, dass sich die Einstellung eines Individuums gegenüber einer Technologie über die Zeit verändern kann. Erfahrungen, die ein Individuum macht, können mit der subjektiven Norm und dessen Einfluss auf das Image, den wahrgenommenen Nutzen und indirekt die Verhaltensabsicht beeinflussen. Mit dem Image wird der Grad definiert, in dem die Nutzung einer Innovation als eine Erhöhung des sozialen Status wahrgenommen wird. So wie die sozialen Prozesselemente beeinflussen auch die kognitiv-instrumentalen Elemente den wahrgenommenen Nutzen und damit auch die Verhaltensabsicht.98
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Entnommen aus Venkatesh, Davis (2000), S. 188.
Abbildung 10: TAM-Modell 2
2.3.3 Unified Theory of Acceptance and Use of Technology
ln dem Bemühen, die Nachteile bisheriger Modelle zu überwinden und um ein umfassendes Verständnis für die Nutzerakzeptanz von neuen Technologien zu schaf- fen, schlugen Venkatesh et al. 2003 ein einheitliches Modell vor, das den Titel Unified Theory of Acceptance and Use of Technology (kurz: UTAUT) trägt." Dieses Modell wurde durch den empirischen Vergleich verschiedener Akzeptanzmodelle aufgestellt. Es basiert auf den vier Kerndeterminanten Leistungserwartung, Aufwandserwartung, sozialer Einfluss und erleichternde Faktoren, sowie den vier Kon- trollvariablen Geschlecht, Alter, Erfahrung und freiwillige Nutzung.99 100 Mittels der Kon- trollvariablen wird es ermöglicht die Verhaltensunterschiede verschiedener Nutzergruppen zu erklären.101 Die Verhaltensabsicht wird durch die Leistungserwartung, die Aufwandserwartung und den sozialen Einfluss bestimmt. Mit der Leistungserwartung wird definiert, inwieweit ein Individuum durch die Nutzung eines Systems eine Steigerung der Leistungsfähigkeit bei der Arbeit erreicht, dies zeigt parallelen zum Konstrukt wahrgenommener Nutzen aus dem TAM-Modell auf. Ebenso entspricht der erwartete Aufwand der wahrgenommenen Benutzerfreundlichkeit aus dem TAM. Die sozialen Einflüsse werden wiederum aus dem TPB abgeleitet. Dem Modell zufolge wird die tatsächliche Nutzung durch die Verhaltensabsicht und unterstützende Rahmenbedingungen erklärt. Als unterstützende Rahmenbedingung gilt, inwieweit ein Individuum davon ausgeht, dass ein System übereine organisatorische und technische Infrastruktur verfügt, die den Einsatz der Technologie unterstützt.102
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Entnommen aus Venkatesh et al. (2003), S. 447. Abbildung 11: UTAUT-Modell
[...]
1 Vgl. Wess (2019), S. 156 f.
2 Vgl. Feng etal. (2017), S. 343.
3 Vgl. Schenk (2019), S. 58 f.
4 Vgl. Budzinski etal. (2018), S. 2.
5 Vgl. Hörner (2019), S. 9.
6 Vgl. Kollmann (2000), S. 28.
7 Vgl. Jockisch (2010), S.236.
8 Vgl. Silberer, Wohlfahrt (2001), S. 164.
9 Vgl. Leukert et al. (2019), S. 56 f.
10 Vgl. Allam et al. (2019), S. 154.
11 Vgl. Money, Turner (2004), S. 1.
12 Vgl. Schmitt-Rüth, Simon (2020), S. 1.
13 Vgl. Kollhorst (2019), S. 187.
14 Vgl. Parviainen, S0ndergaard (2020), S. 2.
15 Vgl. Hörner (2019), S. 7 f.
16 Vgl. Karla etal. (2019), S. 29 f.
17 Vgl. Kruse Brandäo, Wolfram (2018), S. 262 ff.
18 Vgl. Kruse Brandäo, Wolfram (2018), S. 264.
19 Vgl. Schaber et al. (2019), S. 9 f.
20 Vgl. Hörner (2019), S. 10 ff.
21 Vgl. Wege et al. (2018), S. 16 f.
22 Vgl. Sinha (2010), S. 144 ff.
23 Vgl. Kreutzer, Vousoghi (2020), S. 1.
24 Vgl. Gentsch (2019), S. 31 f.
25 Vgl. Löpez-Cözar et al. (2011), S. 229 f.
26 Vgl. Kreutzer, Sirrenberg (2019), S. 28 f.
27 Vgl. Wittpahl (2019), S. 8 f.
28 Vgl. Karla et al. (2019), S. 30 f.
29 Vgl. Müller-Quade etal. (2019), S. 5.
30 Vgl. Awad, Khanna (2015), S. 1.
31 Vgl. Welsch et al. (2019), S. 7.
32 Vgl. Lanquillon (2019), S. 96 f.
33 Vgl. Buxmann, Schmidt (2019), S. 10 f.
34 Vgl. Wege et al. (2018), S. 13.
35 Vgl. Wagner (2020), S. 29 f.
36 Vgl. Trippas et al. (2019), S. 5 ff.
37 Vgl. Gentsch (2019), S. 108 f.
38 Vgl. Schaber et al. (2019), S. 15.
39 Vgl. Schaber et al. (2019), S. 21 f.
40 Vgl. Jaksch (2020), S. 151 ff.
41 Vgl. Schaber et al. (2019), S. 23 ff.
42 Vgl. Jaksch (2020), S. 159.
43 Vgl. Schaber et al. (2019), S. 35 ff.
44 Vgl. Kollmann (1998), S. 54 ff.
45 Vgl. Scheuer (2020), S. 25.
46 Vgl. Schäfer, Keppler (2013), S. 7.
47 Vgl. Königstorfer (2008), S. 19 f.
48 Vgl. Weiber (1992), S. 1 ff.
49 Vgl. Königstorfer (2008), S: 21.
50 Vgl. Klosa (2016), S. 76 ff.
51 Vgl. Staufer(2015), S.82ff.
52 Vgl. Lucke, Hasse (1998), S. 17.
53 Lucke (1995), S. 104.
54 Vgl. Königstorfer (2008), S. 10.
55 Vgl. Lang (2017), S. 27.
56 Vgl. Niklas (2015), S. 15.
57 Vgl. Müller-Böling, Müller (1986), S. 20 f.
58 Vgl. Wisser (2018), S. 51 f.
59 Lucke (1995), S. 105.
60 Vgl. Schäfer, Keppler (2013), S. 16.
61 Vgl. Lang (2017), S. 25 f.
62 Vgl. Kudlacek (2015), S. 38.
63 Vgl. Lang (2017), S. 28.
64 Vgl. Wisser(2018), S. 46 ff.
65 Vgl. Schäfer, Keppler (2013), S.11.
66 Vgl. Niklas (2015), S. 15.
67 Vgl. Rengelshausen (2000), S. 72.
68 Vgl. Silberer, Wohlfahrt (2001) S. 164.
69 Vgl. Hoffmann, Akbar (2019), S. 91.
70 Vgl. Müller-Böling, Müller (1986), S. 25 ff.
71 Vgl. Kollmann (2000), S. 36 ff.
72 Vgl. Trommsdorf (1975), S. 8.
73 Vgl. Kollmann (1998), S. 92 f.
74 Vgl. Schäfer, Keppler (2013), S. 11 ff.
75 Vgl. Kollmann (1998), S. 98 f.
76 Vgl. Rengelshausen (2000), S. 73.
77 Vgl. Kollmann (1998), S. 102 f.
78 Vgl. Kollmann (2000), S. 32 ff.
79 Vgl. Fazel (2014), S. 102 f.
80 Vgl. Graf (2007), S. 34.
81 Vgl. Passos et al. (2013), S. 2 ff.
82 Vgl. Fazel (2014), S. 105.
83 Vgl. Prein (2011), S: 27.
84 Vgl. Altpeter (2017), S. 20.
85 Vgl. Kalch (2019), S. 34.
86 Vgl. Hoffmann, Akbar (2019), S. 93.
87 Vgl. Fazel (2014), S. 108.
88 Vgl. Graf (2007), S. 34f.
89 Vgl. Davis (1985), S. 15.
90 Vgl. Han, Jin (2009), S. 28.
91 Vgl. Davis et al. (1989), S. 982 f.
92 Vgl. Kwon, Chidambaram (2000), S. 1.
93 Vgl. Davis (1989), S. 320.
94 Vgl. Venkatesh, Davis (2000), S. 187.
95 Vgl.Zhuet al. (2009), S. 141.
96 Vgl. Shrestha, Vassileva (2019), S. 204.
97 Vgl. Jockisch (2010), S. 237 f.
98 Vgl. Scheuer (2020), S. 42.
99 Vgl. Venkatesh et al. (2003), S. 425 f.
100 Vgl. Alharbi (2014), S. 132.
101 Vgl. Qingfei et al. (2008), S. 259.
102 Vgl. Altpeter (2017), S. 24 f.
- Arbeit zitieren
- Onur Güldali (Autor:in), 2020, Digitale Sprachassistenten am Arbeitsplatz und ihr Weg zur Nutzerakzeptanz. Hindernisse und Treiber beim Anwender, München, GRIN Verlag, https://www.grin.com/document/1041566
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.