Unternehmen werden im Zuge der Digitalisierung fast aller Lebensbereiche vom Datentsunami, besser unter dem Namen Big Data bekannt, nahezu vollständig überflutet. Innerhalb von 60 Sekunden werden weltweit etwa 694.445 Google Suchanfragen durchgeführt, 695.000 Status-Updates in Facebook gepostet, 168 Millionen E-Mails versandt und das Datenvolumen des Webs verdoppelt sich alle 18 Monate.
Unternehmen sind gut darin beraten, dem Überfluss an Daten mit geeigneten Methoden und Technologien entgegenzutreten, da die alt bewährten Legacy Systeme (z.B. Data Warehouses) bereits an ihre technischen Grenzen stoßen. Obwohl Big Data sicherlich eine Herausforderung für die Unternehmen darstellt, ergeben sich auch neue Möglichkeiten und Umsatzquellen. Dafür gilt es nicht nur die Daten zu sammeln, sondern sie sollten auch analysiert und entsprechend ausgewertet werden. Ein wichtiger Schritt der Analyse und Auswertung von Unternehmensdaten ist die Systematisierung dieser.
Die Seminararbeit versucht konkrete Ansätze zur Systematisierung von Unternehmensdaten vor dem Hintergrund von Big Data zu finden und diese zu evaluieren. Im Zuge der Arbeit werden hierfür Experten aus der Praxis hinzugezogen, die einerseits die theoretischen Ansätze aus einer praxisorientierten Sichtweise bewerten und andererseits auch horizonterweiterten Input zum Themenfeld Big Data und Analytics liefern.
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungsverzeichnis
1 Einleitung
2 Grundlagen
2.1 Definition von Big Data sowie Business Intelligence und Business Analytics
2.2 Systematisierung von Unternehmensdaten mit Fokus auf datenspezifische Eigenschaften
2.2.1 Die 3 V’s von Big Data
2.2.2 Der Data-quality Ansatz
2.2.3 Der ressourcen-basierte Ansatz
2.3 Geschäftsmodelle und datenbasierte Geschäftsmodelle
2.3.1 Definitionen zu Geschäftsmodellen
2.3.2 Datenbasierte Geschäftsmodelle
3 Durchführung qualitativer Interviews zum Thema „Systematisierung von Unternehmensdaten“
3.1 Methodische Vorgehensweise und Forschungsmodell
3.2 Vorstellung der Interviewpartner sowie zentrale Themenfelder
3.3 Praktischer Teil des Interviews: Bewertungstool
4 Ergebnisse
4.1 Auswertung der Interviews
4.2 Auswertung des praktischen Teils des Interviews
5 Zusammenfassung und Ausblick
5.1 Zusammenfassung
5.2 Ausblick
Anhang
Literaturverzeichnis
Ehrenwörtliche Erklärung
Abbildung in dieser Leseprobe nicht enthalten
Ich erkläre hiermit ehrenwörtlich, dass ich die vorliegende Arbeit selbstständig angefertigt habe. Sämtliche aus fremden Quellen direkt oder indirekt übernommenen Gedanken sind als solche kenntlich gemacht.
Die Arbeit wurde bisher keiner anderen Prüfungsbehörde vorgelegt und noch nicht veröffentlicht.
Darmstadt, den 23. Juni 2015
Abbildung in dieser Leseprobe nicht enthalten
Abbildungsverzeichnis
Abbildung 1: Schematische Darstellung der Systematisierung anhand der 3 V's (eigene Darstellung)
Abbildung 2: Beispielhafte Darstellung der Systematisierung eines Datensatzes anhand der Data-Quality Kriterien (eigene Darstellung)
Abbildung 3: Komponenten eines Geschäftsmodells (eigene Darstellung in Anlehnung an Hartmann et al. 2014, S.4)
Abbildung 4: Möglichkeiten datenbasierter Geschäftsmodelle (eigene Darstellung)
Abbildung 5: Forschungsmodell
Abbildung 6: Ergebnisse der Data Quality Vertiefung
Tabellenverzeichnis
Tabelle 1: Formulierung und Beschreibung zentraler Themenfelder im Interview
Tabelle 2: Bewertungsergebnisse
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
1 Einleitung
Abbildung in dieser Leseprobe nicht enthalten
„Wir ertrinken in Informationen, aber wir hungern nach Wissen.“ (John Naisbitt, Trend- und Zukunftsforscher)
Unternehmen werden im Zuge der Digitalisierung fast aller Lebensbereiche vom Datentsunami, besser unter dem Namen Big Data bekannt, nahezu vollständig überflutet. Innerhalb von 60 Sekunden werden weltweit etwa 694.445 Google Suchanfragen durchgeführt, 695.000 Status-Updates in Facebook gepostet, 168 Millionen E-Mails versandt und das Datenvolumen des Webs verdoppelt sich alle 18 Monate[1]. Unternehmen sind gut darin beraten dem Überfluss an Daten mit geeigneten Methoden und Technologien entgegenzutreten, da die alt bewährten Legacy Systeme (z.B. Data Warehouses) bereits an ihre technischen Grenzen stoßen. Obwohl Big Data sicherlich eine Herausforderung für die Unternehmen darstellt, so ergeben sich auch neue Möglichkeiten und Umsatzquellen. Dafür gilt es nicht nur die Daten zu sammeln, sondern sie sollten auch analysiert und entsprechend ausgewertet werden. Ein wichtiger Schritt der Analyse und Auswertung von Unternehmensdaten ist die Systematisierung dieser. Die Seminararbeit versucht konkrete Ansätze zur Systematisierung von Unternehmensdaten vor dem Hintergrund von Big Data zu finden und diese zu evaluieren. Im Zuge der Arbeit werden hierfür Experten aus der Praxis hinzugezogen, die einerseits die theoretischen Ansätze aus einer praxisorientierten Sichtweise bewerten und andererseits auch horizonterweiterten Input zum Themenfeld Big Data und Analytics liefern.
Die Seminararbeit ist wie folgt aufgebaut: Nach einer kurzen Einführung in das Thema werden in Kapitel [2] die Grundlagen vorgestellt. Dazu gehören die Begriffe Big Data, Business Intelligence (BI) und Business Analytics (BA), die Systematisierungsansätze [3] V’s von Big Data, Data Quality Model und Resource-based Model, sowie die datenbasierten Geschäftsmodelle. Das nächste Kapitel stellt die Forschungsmethode sowie das Forschungsmodell vor. Im Rahmen des Seminars wurden hierzu zwei Interviews mit Experten aus der Praxis durchgeführt. Das besondere an den Interviews ist, dass diese einen Gesprächs- und einen Bewertungsteil beinhalten. Für den Bewertungsteil wurde im Rahmen der Seminarausarbeitung ein Tool programmiert. Die Ergebnisse der Interviews werden in Punkt [4] vorgestellt und interpretiert. Kapitel [5] fasst die wichtigsten Erkenntnisse der Seminararbeit zusammen und gibt einen Ausblick in die Zukunft.
2 Grundlagen
Das Grundlagenkapitel führt den Leser in das Thema der Seminararbeit „Ansätze zur Systematisierung von Unternehmensdaten vor dem Hintergrund von Big Data“ ein. Insbesondere soll ein Grundverständnis für die Schwerpunkte dieser Thematik vermittelt werden. Weiterhin dient das Kapitel als theoretische Ausgangsbasis für den praktischen Teil der Arbeit.
Der Schwerpunkt im Abschnitt 2.1 ist auf den Begriff Big Data gelegt. Dieser wird definiert und ausführlich thematisiert. Weiterhin werden Im Rahmen dieses Abschnitts die Begriffe Business Intelligence (BI) und Business Analytics (BA), da sie im Kontext von Big Data häufig in der Literatur genannt werden und praxisrelevant sind, vorgestellt und erläutert.
Der Abschnitt 2.2 behandelt drei Systematisierungsansätze, die von der Literatur abgeleitet wurden. Konkret werden die Ansätze „3V’s of Big Data“, „Data Quality model“ und „Resource- based model“ behandelt. Alle drei Ansätze systematisieren die Daten nach ihren jeweiligen spezifischen Eigenschaften. Nachdem die Ansätze einzeln vorgestellt wurden, werden sie miteinander verglichen. Im praktischen Teil der Arbeit, werden diese Ansätze von den Experten aus den Interviews aus einer praxisorientierten Perspektive mit Hilfe eines selbst entwickelten Tools bewertet.
Der Abschnitt 2.3 schließt das Grundlagenkapitel mit der Behandlung des Themas datenbasierte Geschäftsmodelle ab. Dabei werden zwei Geschäftsmodelle herausgegriffen und thematisiert.
2.1 Definition von Big Data sowie Business Intelligence und Business Analytics
Unternehmen sind auf die Analyse verschiedener Daten angewiesen, um die bestmöglichen wirtschaftlichen Entscheidungen treffen zu können. Im Zuge der Systematisierung von Unternehmensdaten müssen sich Unternehmen mit dem Begriff „Big Data“, der erstmals im Jahr 1997 in einem Artikel von Michael Cox und David Elisworth2 zur 8ten IEEE Visualization Konferenz benutzt wurde, auseinander setzen3.
Der Begriff selbst wurde bisher nicht einheitlich definiert. Aus diesem Grund können an dieser Stelle lediglich Definitionsansätze beschrieben werden.
Gartner, ein führendes Unternehmen im Bereich Information Systems Research und Advisory definiert Big Data wie folgt:
„Big data is high-volume, high-velocity and high-variety information assets that demand cost- effective, innovative forms of information processing for enhanced insight and decision making. 4 “
Bei dieser Definition greift Gartner auf die Idee ihres Analysten Doug Laney zurück. Dieser hat bereits 2001 prognostiziert, dass traditionelles Datenmanagement bald an seine technischen Grenzen stößt.5 Er sprach in seiner Arbeit erstmals die drei Dimensionen Data Volume (Volumen), Data Velocity (Geschwindigkeit) und Data Variety (Vielfalt) an. Tatsächlich zeigt die Literaturrecherche, dass es im Allgemeinen üblich ist, Big Data anhand dieser drei Dimensionen zu definieren. So wird dies unter anderem auch von IBM und T-Systems praktiziert.[6] Dabei fasst IBM den Begriff etwas konkreter zusammen und kommt zu folgender Definition:
„Every day, we create 2.5 quintillion bytes of data — so much that 90% of the data in the world today has been created in the last two years alone. This data comes from everywhere: sensors used to gather climate information, posts to social media sites, digital pictures and videos, purchase transaction records, and cell phone GPS signals to name a few. This data is big data. [7] “
Im Folgenden wird erläutert was unter den genannten Dimensionen genau verstanden wird. Die Bezeichnung der Dimensionen wird dabei im Original und somit in englischer Sprache angegeben.
- Volume: Damit ist die Datenmenge gemeint, welche sich in der Realität bereits im mehrstelligen Tera- oder Petabyte-Bereich befindet. Die Menge an Daten wächst fortlaufend und die Bearbeitung dieser stellt eine Herausforderung für viele Unternehmen dar. Zum Einsatz kommen deshalb immer mehr neue Technologien, wie „NoSQL“ oder „Apache’s Hadoop“, die unter anderem eine parallele Abarbeitung von sehr großen Datenmengen auf Computerclustern ermöglichen[8].
- Velocity: Daten fallen mit enorm hohen Raten fortlaufend an und müssen immer schneller aufgefangen, analysiert und verarbeitet werden. In dem Zusammenhang von Velocity sind sogenannte real-time Auswertungen häufig in der Literatur und Praxis anzutreffen. Darunter versteht man im Allgemeinen, dass Daten nicht zunächst in eine Datenbank abgelegt werden, sondern gleich innerhalb einer real-time Architektur in Echtzeit ausgewertet werden[9].
- Variety: Bezieht sich auf die große Vielfalt und Varietät der Daten. Diese können dabei strukturiert (bereits in eine relationale Datenbank eingebettet), unstrukturiert (z.B. Texte, Bilder, Audio, Video) oder semi-strukturiert (z.B. XML-Dateien oder JSON) sein[10]. Oftmals (etwa 80%[11] ) handelt es sich allerdings um unstrukturierte Daten, die nicht von traditionellen Datenbanksystemen verarbeitet werden können. Ein Strukturierungsprozess ist somit unausweichlich.
Es ist anzumerken, dass häufig auch von weiteren Dimensionen gesprochen wird, welche die bereits erklärten Basisdimensionen erweitern. Diese werden im Folgenden kurz angesprochen, können sich aber inhaltlich mit anderen Dimensionen überschneiden:
- Veracity: Diese Dimension bezieht sich auf die Wahrhaftigkeit der Daten. Wahrhaftigkeit beschreibt in dem Zusammenhang das Problem, dass Daten überhaupt keinen unternehmerischen Beitrag leisten oder die Realität nicht wahrheitsgemäß abbilden und somit nutzlos sind. Der Begriff Veracity wird beispielsweise von IBM verwendet[12].
- Value: Klärt die Frage, wie wertvoll ein bestimmter Datensatz für ein Unternehmen ist. Häufig ist der Anteil an wertvollen Daten im Vergleich zu der Datenmenge relativ gering. Value wurde von Oracle eingeführt[13], wird aber auch beispielsweise von T- Systems erwähnt[14].
Variability (und complexity): SAS, ein Softwareunternehmen, welches auf Business Analytics Lösungen spezialisiert ist, nimmt die Variabilität und die Komplexität mit in die Reihung der Dimensionen von Big Data auf. In ihrem Whitepaper erläutern sie, dass Variabilität sich auf die data-flows bezieht, die im Zeitverlauf mit hohen Raten oder mit niedrigen Raten anfallen können und infolgedessen periodische Extrema entstehen können. Mit Komplexität ist hingegen das Verständnis komplexer Verlinkungen von Daten und Systemen gemeint[15].
Wenn das Unternehmen Big Data für sich definiert hat, folgt nun der nächste vermeintlich wichtigere Schritt. Die Sammlung von Daten alleine ist nutzlos, das Ziel ist es aus dieser Datensammlung wertvolle Informationen zu gewinnen. In der Literatur teilt man den Prozess deshalb in zwei Abschnitte nämlich das Datenmanagement (Akquisition und Aufnahme, Extraktion/Bereinigung und zuletzt Integration, Aggregation und Repräsentation) und die Daten-Analyse (Modellierung, Analyse sowie Interpretation) auf[16].
Im zweiten Abschnitt kommen die Terme Business Intelligence (BI) und Business Analytics (BA) ins Spiel. Während BI mit der Ersterwähnung in den 1990ern auf einen längeren historischen Hintergrund zurückblickt, hat sich BA erst seit etwa 2007 etabliert. Chen et. al.[17] zeigen auf, dass die Begriffe im Jahr 2011 häufiger in wissenschaftlichen Publikationen auftauchten als „Big Data“. Beide Begriffe passen in den thematischen Rahmen dieses Abschnitts und werden deshalb erläutert. Chen et. al. verwenden BI und BA als einen einheitlichen Term (BI&A[18] ), obwohl es auch hierbei ähnlich wie zu Big Data, keine offizielle Definition gibt. Die Verwendung von BI und BA als einen gemeinsamen Term deutet bereits daraufhin, dass eine definitorische Trennung kaum möglich ist. Eine häufige Annahme ist, dass BI lediglich ein Teil von BA ist und somit BA so etwas wie ein Oberbegriff für beispielsweise BI, Risiko, Compliance, Governance und andere Unternehmensbereiche ist. Wohingegen Business Intelligence sich stark auf IT-Themen beschränkt. In der BI&A finden sowohl statistische als auch algorithmische und technische Methoden ihre Anwendung. Chen et. al. nennen beispielsweise die multivariate Statistik, aber auch Anwendungen im Data- und Web Mining Bereich[19]. Neben der Text Analyse und Klassifizierung, die im Data- und Web Mining anzutreffen ist, geht die Literatur auch auf Video Analyse (auch video content analysis) sowie auf Audio Analyse ein[20]. Dazu kann das Schaubild von Chen und Zhan betrachten werden, welches die Big Data Techniken abbildet[21]. Das Schaubild befindet sich im Anhang der Seminararbeit (vgl. Anhang: 1 Zusätzliches Material).
2.2 Systematisierung von Unternehmensdaten mit Fokus auf datenspezifische Eigenschaften
Dieser Abschnitt behandelt drei Ansätze zur Systematisierung von Unternehmensdaten aus einer strategischen Perspektive. Insbesondere werden in diesem Abschnitt keine technischen Verfahren oder Software, mit der man systematisieren könnte, vorgestellt.
2.2.1 Die 3 V’s von Big Data
Die 3 V’s von Big Data Volume, Velocity und Variety wurden bereits in Abschnitt 2.1 vorgestellt und erläutert. Häufig verwendet man diese drei Dimensionen, um Big Data überhaupt zu definieren. In diesem Abschnitt allerdings, werden die V’s in einem anderen Kontext dargestellt. Theoretisch ist es nicht nur möglich anhand dieser Dimensionen den Begriff zu definieren, sondern sie beschreiben auch eine gute Möglichkeit, um Unternehmensdaten anhand dieser Dimensionen zu systematisieren. Der Vorteil dieses Ansatzes ist, dass die 3 V’s in der Praxis bereits bekannt und anerkannt sind. So benutzen beispielsweise IBM, T-Systems, Oracle und viele andere Global Player diese Definition (vgl. 2.1 Definition von Big Data sowie Business Intelligence und Business Analytics).
Konkret kann man sich im Rahmen dieses Ansatzes überlegen welche Unternehmensdaten high-volume sind, wie schnell sie anfallen und in welchen Raten sowie in welcher Strukturform sie vorliegen. Diese Daten können dann den Kategorien entsprechend klassifiziert und je nach Klassifikation von den zuständigen internen Geschäftseinheiten bzw. Fachbereichen des Unternehmens bearbeitet werden. Im Folgenden wird auf die Inhalte der einzelnen Dimensionen eingegangen, um zu verstehen wie konkrete Systematisierungsstrategien aussehen könnten.
Data Volume
Bezieht man sich auf eine Studie von McKinsey, so ist das Datenvolumen welches Big Data zuzuordnen ist, die relevanteste Dimension. Das Problem ist nämlich, dass die Datensätze so groß sind, dass es technisch nicht möglich ist diese Daten mit den herkömmlichen Datenbanksystemen oder Softwaretools zu speichern oder zu verarbeiten[22]. Welche Datengrößen existieren im Bereich Big Data Volume? In einem BITKOM Leitfaden zu Big Data wird erläutert, dass das Volumen von Daten zwischen Tera- und Yottabytes liegen kann[23]. Yottabyte ist dabei ein extrem hohes Volumen, das man sich bisher kaum vorstellen kann. Bei Yottabytes handelt es sich um 1024 Bytes. Zum Vergleich: Im Moment wird geschätzt, dass die NSA (National Security Agency) ihr Volumen von gesammelten Daten in Yottabytes angeben kann[24]. Das ist allerdings keine offizielle Aussage der NSA, sondern lediglich eine Vermutung.
Konkret müssten also Unternehmen zunächst abschätzen wie groß die Datenmenge ist, um sie dann danach (d.h. nach der jeweiligen Größe) zu klassifizieren. Die Systematisierung von Unternehmensdaten nach der Dimension Volume würde somit die Daten einfach anhand des Volumens systematisieren.
Data Velocity
Die zweite Dimension im Rahmen der Systematisierung nach den 3 V’s ist Data Velocity. Eine Aufteilung anhand dieser Dimension könnte so erfolgen, dass man zunächst analysiert welche Datenströme überhaupt existieren. Weiterhin müsste man sich überlegen, ob es Datenströme sind, die permanent anfallen (wie etwa neue Posts in social media sites, Forenbeiträge etc.) oder ob die Daten unregelmäßig anfallen (z.B. Zeitreihendaten). Je nachdem wie die Raten der Datenströme sind, kann das Unternehmen auch hier intern eine Zuordnung und Aufgabenverteilung vornehmen.
Die Systematisierung von Unternehmensdaten nach der Dimension Velocity würde die Daten anhand folgender Kriterien systematisieren: Geschwindigkeit mit der die Daten anfallen, zeitliche Regelmäßigkeit oder Unregelmäßigkeit und ob eine Echtzeit-Architektur bzw. Auswertung benötigt wird oder nicht.
Data Variety
Wenn das Unternehmen Daten anhand der Varietät systematisieren möchte, kann hierfür zunächst die Aufteilung nach unstrukturierten, semistrukturierten und strukturierten Daten nützlich sein. Die Unterschiede zwischen den Strukturformen wurden bereits in Abschnitt 2.1 erläutert. Während strukturierte und semistrukturierte Daten bei der Analyse weniger Probleme bereiten, aufgrund ihrer bereits vorhandenen Integrität, so sind es die unstrukturierten Daten, die meist nur schwer auszuwerten sind. Intern könnte das
Unternehmen aber auch hier noch eine Abstraktionsebene tiefer gehen. Handelt es sich bei den unstrukturierten Daten um Textdateien? Video Dateien? Audio Dateien? Je nachdem, ob der Datensatz einem Typ zugeordnet werden kann, könnte bereits hier eine Weiche gestellt werden. Das Unternehmen kann weiterhin beliebig auf dem Abstraktionsniveau weiter runtergehen bis es gar nicht mehr möglich ist, bzw. bis eine entsprechende Data Mining Technologie oder Maschinelles Lernen dafür notwendig ist.
Die Systematisierung von Unternehmensdaten nach der Dimension Variety würde die Daten anhand des Strukturierungsgrads systematisieren und dann beliebig tief (solange technisch möglich) in die Detailebene steigen.
Die nachfolgende Abbildung zeigt schematisch wie eine Ansatz zur Systematisierung von Unternehmensdaten anhand der 3 V’s von Big Data erfolgen könnte. Vor allem in dem Variety Pfad ist denkbar, dass es weitere Ebenen geben kann, die nochmals genauer systematisieren.
Abbildung 1: Schematische Darstellung der Systematisierung anhand der 3 V's (eigene Darstellung)
Abbildung in dieser Leseprobe nicht enthalten
2.2.2 Der Data-quality Ansatz
Die Systematisierung von Unternehmensdaten anhand der Daten Eigenschaften, bzw. noch genauer anhand der Daten-Qualität ist abgeleitet von West, welcher versucht ein Datenmodell zu definieren, das zuverlässig ist, sich dem Unternehmensumfeld flexibel anpassen kann sowie erweiterbar ist[25]. Im Rahmen seiner Arbeit spricht er unter anderem von der Daten Qualität, welche sich durch folgende Eigenschaften definieren lässt:
- Relevanz: Der Nutzen der Daten im Kontext der Unternehmensstrategie.
- Klarheit: Die Existenz von klaren Definitionen.
- Konsistenz: Kompatibilität von Daten gleichen Typs, selbst wenn sie aus anderen Quellen stammen.
- Zeitlichkeit: Aktualität der Daten und die Verfügbarkeit zu der Zeit zu der die Daten gebraucht werden.
- Genauigkeit: Wie genau bilden die Daten die Realität ab.
- Vollständigkeit: Wie viel der benötigten Daten ist verfügbar. Wie vollständig ist der Datensatz?
- Zugänglichkeit: Wo, wie und wer hat Zugriff auf die Daten (Stichwort „data governance“ und „data security“)
- Kosten: Die Kosten bzw. der Aufwand der entsteht, um die Daten zu sammeln und zu verarbeiten.
Im Zuge von Big Data und mit dem einhergehenden extremen Datenwachstum wird die 4. Dimension Veracity, die bereits in Kapitel 2.1 angesprochen wurde immer wichtiger. Es gilt die Daten Qualität, die sich durch die oben beschriebenen Kriterien bestimmen lässt, aufrecht zu erhalten, auch bei enorm großen und vielfältigen Datenmengen. Häufig muss dafür ein (Big) Data Quality Management einberufen werden, dessen Aufgabe es ist stets eine hohe Datenqualität zu gewährleisten. Gleichzeitig entsteht unter Beibehaltung aller Data Quality Kriterien ein trade-off zwischen der Genauigkeit der Daten sowie der Kosten bzw. der Effizienz. Wenn die Genauigkeit hochgefahren wird, so entstehen dadurch entsprechend hohe Kosten und Aufwendungen und die Bearbeitungsgeschwindigkeit, da es sich um genauere Daten handelt, sinkt. Damit einhergehend sinkt auch die Effizienz. Saha und Srivastatva sprechen in ihrem Paper genau diesen trade-off und die damit verbunden Probleme an[26]. Das Thema Data Quality ist brandaktuell, das zeigt sich zum Beispiel auch darin, dass am MIT die „international conference of information quality“ am 24.07.2015 stattfinden wird[27]. Betitelt ist die Konferenz mit „Making high-quality data the norm“. Man hat also in der Wissenschaft und Praxis erkannt, dass eine erhöhte oder standardisierte Daten Qualität notwendig ist, um die Funktionsweise des Unternehmens zu optimieren.
Ein Unternehmen, welches anfallende Daten anhand des Data Quality Ansatzes systematisieren möchte, sollte darauf achten ein funktionierendes (Big) Data quality management (DQM) in ihrem Unternehmen zu implementieren. Zu den Aufgaben dieses DQM gehört 1. Die Aufteilung/Systematisierung existierender und neu gewonnener Daten anhand der 8 Qualitätskriterien. 2. Die Einhaltung und stetige Verbesserung der Qualität der Daten.
Es folgen einige Hinweise zu Punkt 1) Aufteilung bzw. Systematisierung von Unternehmensdaten anhand der Qualitätskriterien. Zunächst ist zu vermuten, dass alleine das Feststellen der einzelnen Kriterien bzw. die Analyse davon, bereits einen hohen Rechen- und Leistungsaufwand mit sich bringt. Weiterhin wären das keine einheitlichen Kennzahlen. Betrachtet man beispielsweise das Kriterium Kosten/Aufwand. Da stellt sich die Frage, wenn ein neues Data Set verarbeitet werden soll, wie quantifiziert man dieses Kriterium? Inwiefern kann man Kosten/Aufwand mit beispielsweise Genauigkeit vergleichen? Die Vergleichbarkeit von unterschiedlichen Kriterien schafft man durch Standardisierung der Kriterien. Das Unternehmen muss ein einheitliches Stufen- oder Scoringsystem entwickeln. In diesem System würde man von den genauen Zahlen abstrahieren, d.h. man müsste jedes Kriterium bspw. von 1 bis 10 bewerten. Wie beim Scoringverfahren üblich, kann zu jedem Kriterium ein Gewichtungsfaktor hinzugezogen werden. Detailfragen müssen unternehmensintern geklärt werden.
Das nachfolgende Schaubild zeigt eine Möglichkeit, um Unternehmensdaten (hier ein Datensatz welches nach einem neuen Produktrelease aufbereitet wurde) anhand der 8 Qualitätskriterien zu systematisieren. Es gilt zu beachten, dass die Kosten eine negative Ausprägung auf den Qualitätswert für diesen Datensatz haben. Das heißt, dass die Qualitätszahl hier maximal den Wert 70 annimmt (7 * 10 – 1 * 0 = 70).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2: Beispielhafte Darstellung der Systematisierung eines Datensatzes anhand der Data- Quality Kriterien (eigene Darstellung)
Das Unternehmen hat nun mehrere Möglichkeiten den Datensatz zu systematisieren. Sie erkennen, dass der Qualitätswert für den Datensatz nicht optimal ist (31 von 70). Das liegt vor allem an der Klarheit (2 Punkte), der Vollständigkeit (4 Punkte) und den enorm hohen Kosten (8 Punkte) des Datensatzes. Gleichzeitig ist dieser beispielhafte Datensatz aber auch relevant für die Unternehmensstrategie (8 Punkte) und hat eine konsistente Form (8 Punkte).
Bei der Systematisierung von Unternehmensdaten anhand der Daten Qualität sind den Unternehmen viele Freiräume gegeben. Der Kerninhalt dieses Ansatzes beschränkt sich auf die 8 zugrunde liegenden Qualitätsmerkmale.
2.2.3 Der ressourcen-basierte Ansatz
Ein weiterer Ansatz zur Systematisierung von Unternehmensdaten ist der ressourcen-basierte Ansatz. Hierbei werden die Ressourcen in den Mittelpunkt gestellt, da die Ressourcen ein zentraler Bestandteil für die Leistung eines Unternehmens sind. Unternehmen, die den Ressourcenfluss an bedeutenden Ressourcen steuern, sind meist am Einflussreichsten.[28] Im Wesentlichen handelt der ressourcen-basierte Ansatz davon, dass Unternehmen verschiedene Ressourcen besitzen und diese Ressourcen Leistungsunterschiede aufweisen.[29] Durch diese unterschiedliche Verteilung der Ressourcen entwickeln sich daraufhin Wettbewerbsvorteile bzw. -nachteile. Unternehmensressourcen werden auch als materielle und immaterielle Vermögensgegenstände, die an das Unternehmen gebunden sind, bezeichnet, weswegen Ressourcen auch zur Auswertung etwaiger Stärken oder Schwächen eines Unternehmens dienen können.[30]
Um nun Unternehmensdaten anhand des ressource-basierten Ansatzes zu systematisieren, muss gelten, dass Daten auch Ressourcen sind. Dazu hat sich in der Literatur die Definition, dass Daten, die eine Bedeutung haben Informationen darstellen, herausgebildet. Das bedeutet, dass Daten reines Material darstellen, die erst in eine sinnvolle Form gebracht werden müssen.[31] Dementsprechend ist jede Art von Daten, die eine Bedeutung hat als Information anzusehen. Nun stellt sich die Frage, ob Informationen als Ressourcen angesehen werden können, um den ressourcenbasierten-Ansatz nutzen zu können. Nach Eaton und Bawden gilt das Information Resource Management, welches besagt, dass Informationen genauso anzusehen sind wie Ressourcen.[32] Somit sind Unternehmensdaten gleichzeitig Ressourcen eines Unternehmens.
Unternehmensressourcen bezeichnen nun alle Kapital- und Vermögensgegenstände, Fähigkeiten, Eigenschaften, Wissen, die eine Firma besitzt und es ihr ermöglicht eigene Strategien zur Effizienz- und Effektivitätssteigerung umzusetzen. Diese Firmenressourcen lassen sich unterteilen in Sach-, Human- und Organisationskapital. Mit diesen Unternehmensressourcen lässt sich nun ein Wettbewerbsvorteil erzielen, wenn man eine Wertschöpfungsstrategie umsetzt, die nicht gerade von einem anderen Wettbewerber ebenfalls durchgeführt wird.
Von einem nachhaltigen Wettbewerbsvorteil spricht man, wenn es den anderen Wettbewerbern nicht einmal ermöglicht wird die Wertschöpfungsstrategie zu vervielfältigen.[33]
Damit nun eine Firmenressource einen nachhaltigen Wettbewerbsvorteil hat, müssen vier Eigenschaften erfüllt sein. Die Ressource muss einen Wert haben, selten sein, nicht perfekt nachahmbar sein und es darf keinen gleichwertigen Ersatz geben.[34]
Eine Ressource ist werthaltig, wenn sie dem Unternehmen eine Steigerung der Effizienz und Effektivität ermöglicht. Des Weiteren müssen die Firmeneigenschaften einen Wert besitzen, um als Ressource betrachtet zu werden. Wenn eine Ressource nicht selten ist, dann wird sie von allen Unternehmen gehalten und es kann kein Wettbewerbsvorteil entstehen. Die Firma kann zwar ein neue Wertschöpfungsstrategie entwickeln um einen Wettbewerbsvorteil zu erlangen, aber solange die Ressourcen nicht knapp sind und von einem Unternehmen gehalten werden, solange gibt es auch keinen Marktführer.[35]
Die nicht perfekt nachahmbare Ressource ist die dritte Eigenschaft und entsteht durch die Kombination einer wertvollen und seltenen Ressource.[36]
Die letzte Anforderung, dass durch die Firmenressource ein nachhaltiger Wettbewerbsvorteil ermöglicht wird ist die Austauschbarkeit. Dies bedeutet, es gibt keine strategisch äquivalente wertvolle Ressource, die selbst wiederum nicht selten oder imitierbar ist. Strategisch äquivalent bedeutet in diesem Zusammenhang, dass es zwar zwei unterschiedliche Ressourcen gibt, diese jedoch untereinander ersetzbar sind. Somit könnte ein zweites Unternehmen dieselbe Wertschöpfungsstrategie verwenden, da es eine austauschbare Ressource B nimmt, um das Problem der knappen, nicht imitierbaren Ressource A zu umgehen.[37]
2.3 Geschäftsmodelle und datenbasierte Geschäftsmodelle
Im folgenden Kapitel werden datenbasierte Geschäftsmodelle behandelt. Hierzu werden zuerst die gängigsten Definitionen von Geschäftsmodellen aufgezeigt und eine Abgrenzung zur Definition datenbasierter Geschäftsmodelle vorgenommen. Im Anschluss werden die wichtigsten Kernelemente für ein datenbasiertes Geschäftsmodell hervorgestellt und mit Beispielen aus der Praxis verdeutlicht.
2.3.1 Definitionen zu Geschäftsmodellen
In der Literatur existieren mehrere Definitionen, die den Begriff des Geschäftsmodells erklären[38]. Wie Hartmann et al. bereits verdeutlichen fehlt bislang jedoch Einigkeit über die Definition und Darstellung von Geschäftsmodellen[39]. In ihrem Paper Big Data for Big Business listen Hartmann et al. die bekanntesten Geschäftsmodell Frameworks auf. So wurde 2002 von Chesbrough und Rosenbloom eines der ersten Geschäftsmodell Frameworks entworfen. In den folgenden Jahren sind weitere Ansätze und Strategien zur Erstellung von Geschäftsmodell Frameworks hinzugekommen.
Im nun folgenden Abschnitt werden drei Definitionen zu Geschäftsmodellen und ihre jeweiligen Kernelemente betrachtet.
Die erste Definition stammt von Osterwalder et al., die ein Geschäftsmodell als ein „Grundprinzip, nach dem eine Organisation Werte schafft, vermittelt und erfasst“ erklären.[40] Osterwalder et al. haben zur Modellierung von Geschäftsmodellen den Business Model Canvas erstellt, welcher aus neun Teilbereichen besteht. Im Folgenden werden diese kurz erläutert.
Kundensegmente werden als „verschiedene Gruppen von Personen oder Organisationen, die ein Unternehmen erreichen oder bedienen will“ verstanden. Es erfolgt eine Segmentierung in einzelne Kundengruppen, die jeweils unterschiedliche Bedürfnisse haben und eine Bereitschaft zeigen für verschiedene Varianten des Angebots zu bezahlen.[41]
Das Wertangebot ist eine Zusammenstellung von Produkten und Dienstleistungen, die einen Wert für ein bestimmtes Kundensegment erzeugen. Es dient dem Unternehmen einerseits zur Befriedigung der Kundenbedürfnisse und andererseits zur Lösung von Problemen der Käufer.[42]
Der Bereich Kanäle erklärt die Art der Kommunikation des Unternehmens mit seinen Kunden. Dem Kunden wird über diese Schnittstelle zum einen die Möglichkeit gegeben Produkte und Dienstleistungen zu kaufen. Außerdem erfolgen Lieferung und Kundendienst über die Kanäle.[43]
Kundenbeziehungen beschreiben die unterschiedlichen Arten von Beziehungen, die ein Unternehmen mit Kundensegmenten aufbaut. Die Motivation für eine Kundenbeziehung ist die Gewinnung eines Neukunden und dessen Bindung an das Unternehmen.[44]
Nach Osterwalder sind Einnahmequellen die Einnahmen, die das Unternehmen von jedem Kundensegment erhält. Besonders relevant sind hierbei die Zahlungspräferenzen der Kunden als auch ihre Zahlungsbereitschaft.[45]
Schlüsselressourcen werden als wichtige Posten für eine erfolgreiche Umsetzung der Unternehmenstätigkeit bezeichnet. Mit ihrer Hilfe werden das Produkt- und Dienstleistungsangebot, sowie der Aufbau von Kundenbeziehungen und die Erzielung von Umsätzen ermöglicht.[46]
Unter Schlüsselaktivitäten sind nach Osterwalder die bedeutendsten Tätigkeiten, die ein Unternehmen für ein erfolgreiches Geschäftsmodell ausführt zu verstehen. Wichtig sind der Einfluss auf die Wertangebote, Kanäle, Kundenbeziehungen und Einnahmequellen.[47]
Mit Schlüsselpartner sind Lieferanten und Partner gemeint, die essentiell für die Unternehmensleistung sind. Vorteile von Partnerschaften bestehen sowohl in der Risikominimierung, als auch im Ressourcengewinn.[48]
Die Kostenstruktur beschreibt alle Kosten, die im Unternehmen anfallen. Hierbei können die Strukturen eines Geschäftsmodells eine kosten- oder wertorientierte Strategie verfolgen.[49]
Chesbrough und Rosenbloom definieren ein Geschäftsmodell als ein Set von sechs Eigenschaften. Es muss ein Nutzenversprechen formuliert werden, d.h. welcher Wert wird für den Kunden generiert. Des Weiteren sind Marktsegmente zu identifizieren, um herauszufinden für wen die Produkte oder Dienstleistungen nützlich sind. Außerdem muss eine Abgrenzung der Wertschöpfungskette vorgenommen werden, welche für die Produktion und Distribution des Angebots benötigt wird. Ein weiterer Punkt ist die Ermittlung von Kosten und Profit für die Herstellung der Produkte und Dienstleistungen. Ebenfalls muss die Position des Unternehmens innerhalb des Wertschöpfungsnetzes bestimmt werden, hierzu zählt auch die Identifizierung von Wettbewerbern. Der letzte Punkt beinhaltet das Erstellen einer wettbewerbsfähigen Strategie, um dauerhafte Vorteile gegenüber der Konkurrenz zu haben.[50]
Eine weitere Aufstellung einzelner Elemente eines Geschäftsmodells erfolgte von Johnson et al. Ihrer Definition nach besteht ein Geschäftsmodell aus vier ineinander greifenden Elementen, dem Nutzenversprechen, der Profit Formel, den Schlüsselressourcen und den
Schlüsselprozessen. Die Profit Formel lässt sich noch unterteilen in Einnahmen, Kosten, Gewinnspanne und Ressourcengeschwindigkeit.[51]
Wie man nun sehen kann, lassen sich Gemeinsamkeiten bei den Kernelementen der drei Geschäftsmodell Frameworks erkennen. Folgende Abbildung verdeutlicht dies.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3: Komponenten eines Geschäftsmodells (eigene Darstellung in Anlehnung an Hartmann et al. 2014, S.4)
Nach Hartmann et al. sind die sechs Komponenten eines jeden Geschäftsmodells Value Proposition, Key Resource, Key Activity, Market/Customer Segment, Revenue Stream und Cost Structure.[52]
2.3.2 Datenbasierte Geschäftsmodelle
Das datenbasierte Geschäftsmodell unterscheidet sich vom generellen Geschäftsmodell in dem Aspekt, dass die Daten die wichtigste Quelle für die unternehmerische Tätigkeit sind, d.h. Unternehmen, deren Geschäftsmodell datenbasiert ist, generieren einen Geschäftswert, indem sie die Daten kapitalisieren.[53]
Um die Daten jedoch zu kapitalisieren, muss das Nutzenversprechen des Unternehmens oder des neuen Geschäftsmodells datenbasiert sein. Das bedeutet, die Daten des Unternehmens müssen dem Produkt- oder Dienstleistungsangebot hinzugefügt werden. Dies findet beispielsweise dann statt, wenn Unternehmen infolge von neuen Wettbewerbern weiterhin Marktführer bleiben wollen oder keinen Preiskämpfen ausgesetzt werden wollen. So verbaut Osram in seinen neuen LED-Lampen (speziell für den öffentlichen Sektor) Sensoren ein, die bspw. Bewegungen registrieren, um öffentliche Anlagen nur bei Bedarf zu beleuchten, oder als zusätzliche Möglichkeit der Verkehrsüberwachung dienen können. Hierdurch wird es Osram ermöglicht in keinen Preiskampf mit anderen LED-Herstellern gezwungen zu werden, da sie einen zusätzlichen Mehrwert anbieten.[54]
Ressourcen sind für ein funktionsfähiges Geschäftsmodell unabdingbar. (vgl. Osterwalder et al. 2010, S. 34) Bei einem datenbasierten Geschäftsmodell sind die Daten des Unternehmens somit als Ressourcen anzusehen, da sie, genauso wie physische oder menschliche Ressourcen, für ein funktionierendes Geschäftsmodell nötig sind. Beispielsweise verwendet der Drogeriekonzern dm zur Mitarbeitereinsatzplanung eine Big Data Lösung, um jegliche Daten zu Tagesumsätzen, Anlieferungsprognosen und Öffnungszeiten der Filialen für die Planung des Mitarbeiterbedarfs zu nutzen. Somit werden die Daten als Ressource genutzt, um andere Ressourcen noch effizienter einzusetzen.[55]
Die Schlüsselaktivitäten sind, ähnlich den Ressourcen, für ein funktionsfähiges Geschäftsmodell vonnöten. Deswegen lassen sich in einem datenbasierten Geschäftsmodell die Aktivitäten besser durchführen, wenn dauerhaft oder in regelmäßigen Abständen Datenaufzeichnungen von z.B. Kenngrößen, Messwerten, etc. vorgenommen werden. So lassen Betreiber von Windparks alle erdenklichen Daten von ihren Windkraftanlagen, mithilfe von Sensoren aufzeichnen. Diese Daten werden sowohl zum Testen neuer Betriebsstandorte, als auch für die Früherkennung von Störungen verwendet.[56]
Ebenfalls lässt sich der Bereich der Kunden für ein datenbasiertes Geschäftsmodell nutzen. Mittels Nutzungsdaten, die das Kundenverhalten dokumentieren ist es z.B. möglich für den Kunden passend zugeschnittene Werbung zu schalten oder man versucht durch das erfasste Nutzerverhalten seine Kunden langfristig zu binden, indem passend auf sie abgestimmte Produkte angeboten werden. Beispielsweise hat Telecom Italia diesen Ansatz verfolgt, um durch gezielte Angebote Bestandskunden zu halten. Außerdem wurden mittels der sozialen Netze der Bestandskunden zielgerichtet neue Kunden angesprochen.[57]
Ferner lassen sich Daten hernehmen, um Einnahmen eines Geschäftsmodells zu prognostizieren oder anhand großer Datensätze frühzeitig Absatz- und demzufolge Einnahmenrückgänge feststellen. Ebenso lässt sich, anhand von Macy’s, einem amerikanischen Handelsunternehmen, zeigen, dass auf Basis von Datenanalysen Preispolitik betrieben wird. Sofern sich starke Wettbewerber in der Nähe der Filialen befinden, werden für bestimmte Produkte die Preise auf das Niveau des Wettbewerbers gesenkt, um wettbewerbsfähig zu bleiben und weiterhin Einnahmen zu verzeichnen.[58]
Der letzte Aspekt, die Kosten, ist differenziert zu betrachten, da er als einziger eine negative Ausprägung aufweist. Wenn ein Unternehmen ein datenbasiertes Geschäftsmodell einführt, um einen Vorteil in den fünf bis jetzt genannten Bereichen zu erzielen, so entstehen ihm zusätzliche Kosten für die Nutzung der Daten. Dies beginnt bei den Kosten für die Datensammlung über die Kosten für die Speicherung der Daten bis hin zu den Kosten für Datenaufbereitung und –analyse. Hierbei muss nun eine Gegenüberstellung des Mehraufwands und des tatsächlich hinzugewonnenen Nutzens getätigt werden. Ein höherer Nutzen stellt sich jedoch definitiv ein, da man durch das Sammeln und Auswerten von Daten erfolgreicher sein wird, also ohne dies zu tun.[59] Ferner entstehen durch den Einsatz eines datenbasierten Geschäftsmodells nicht nur Kosten für die Datenauswertung, sondern es besteht auch ein Einsparungspotential, indem z.B. Support- und Wartungskosten reduziert werden. Ebenfalls sind zeitliche Einsparungen infolge der Datenanalysen möglich. Beispielsweise wurde für die Vaillant Group mittels Big Data Analytics-Lösungen die verschiedenen Teilbereiche der Ressourcen, Kunden, Einnahmen und Kosten kombiniert, um Geschwindigkeitsverbesserungen zu erzielen.[60]
Zusammenfassend lässt sich nun sagen, dass Daten in jedem Bereich des Geschäftsmodells gewinnbringend genutzt werden können, wie folgende Abbildung verdeutlicht.
Abbildung 4: Möglichkeiten datenbasierter Geschäftsmodelle (eigene Darstellung)
Abbildung in dieser Leseprobe nicht enthalten
[...]
[1] vgl. T-Systems (2013)
[2] vgl. Cox; Ellworth (1997)
[3] vgl. Press (2013)
[4] Gartner (2015)
[5] vgl. Laney (2001)
[6] vgl. T-Systems (2015)
[7] IBM (2015)
[8] vgl. Dittrich et al. (2013)
[9] vgl. Martínez-Prieto et al. (2015)
[10] vgl. Gandomi; Haider (2015)
[11] vgl. ITBusinessEdge (2015)
[12] vgl. Die 4 V's von Big Data nach IBM
[13] vgl. Gandomi; Haider (2015)
[14] vgl. T-Systems (2015)
[15] vgl. SAS (2012)
[16] vgl. Gandomi; Haider (2015)
[17] vgl. Chen et al. (2012)
[18] Ebd.
[19] Ebd.
[20] vgl. Gandomi; Haider (2015)
[21] vgl. Chen; Chun-Yang (2014)
[22] vgl. Manyika et al. (2011)
[23] BITKOM (2012), S. 19
[24] vgl. Knur (2013)
[25] West (2003), S. 5
[26] vgl. Saha; Srivastava (2014)
[27] ICIQ (2015)
[28] Meznar (1995)
[29] Barney (1991), S. 101
[30] Wernerfelt (1984), S. 172
[31] Floridi (2005), S. 353
[32] Eaton; Bawden (1991), S. 158
[33] Barney (1991), S. 101
[34] Ebd., S. 105f.
[35] Ebd., S. 106.
[36] Ebd., S. 107.
[37] Ebd., S. 111.
[38] Scheer et al. (2003), S. 7-22
[39] Hartmann et al. (2014), S. 3;Weill (2011), S. 17
[40] Osterwalder et al. (2011), S. 18
[41] Ebd., S. 20f.
[42] Ebd., S. 22-25.
[43] Ebd., S. 26f.
[44] Ebd., S. 28.
[45] Ebd., S. 30.
[46] Ebd., S. 34.
[47] Ebd., S. 36.
[48] Ebd., S. 38f.
[49] Ebd., S. 40f.
[50] Chesbrough; Rosenbloom (2002), S. 533f.
[51] Johnson (2008), S. 3-5
[52] Hartmann et al. (2014), S. 7-10
[53] Ebd., S. 1.
[54] SAS (2015), S. 7
[55] BITKOM (2012), S. 58
[56] SAS (2015), S. 9
[57] BITKOM (2012), S. 66
[58] Ebd., S. 60.
[59] SAS (2015), S. 18
[60] BITKOM (2012), S. 74
- Quote paper
- Alexander Pilipas (Author), Michael Sack (Author), 2015, Ansätze zur Systematisierung von Unternehmensdaten vor dem Hintergrund von Big Data, Munich, GRIN Verlag, https://www.grin.com/document/343316
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.