Die Anforderungen, die an Unternehmen und deren Mitarbeiter gestellt werden, haben in den letzten Jahren immer mehr an Komplexität zugenommen. Besonders im Hinblick auf die Flexibilität, welche in Zeiten ständig wachsenden Wettbewerbs verlangt wird, müssen Betriebe ihre Geschäfts- und Produktionsprozesse anpassen. Diese sollen dabei auf der einen Seite immer besser und schneller von statten gehen. Auf der anderen Seite jedoch so kostengünstig wie möglich sein. Ein Aspekt, der dabei höchste Relevanz erlangt hat, ist die Beziehung zum Kunden. Um diese Beziehung zu sichern und weiter
auszubauen gilt es in erster Linie ein sehr hohes Maß an Qualität zu anzustreben....
Inhaltsverzeichnis
1 Einleitung
2 Problematik
2.1 Allgemeine Betrachtung der Problematik
2.2 Fall aus der Praxis
2.3 Diskussion
3 Theoretische Grundlagen
3.1 Konzepte des Qualitätsmanagements
3.1.1 Total Quality Management (TQM)
3.1.2 Six Sigma
3.1.3 KAIZEN
3.1.4 Lean Management
3.2 Business Intelligence
3.2.1 Intension
3.2.2 Data Warehouse
3.2.3 ETL-Prozess
4 Wissenschaftliche Methode
4.1 Modelle der Softwareentwicklung
4.1.1 Wasserfall-Modell
4.1.2 V-Modell
4.1.3 Iterative Verfahren
4.1.4 Weitere Vorgehensmodelle
4.1.5 Prototypbasierte Entwicklung
4.2 Die Methode des Prototypings
4.2.1 Prototyping allgemein
4.2.2 Anwendung der prototypbasierten Softwareentwicklung
5 Dokumentation der Ergebnisse
5.1 Entwicklung des Prototyps einer Business Intelligence Architektur im Qualitätsmanagement
5.1.1 Software des operativen Systems
5.1.2 Data Warehouse
5.1.3 ETL-Prozess
5.2 Anwendung des Prototyps
6 Fazit
Zielsetzung & Themen
Ziel dieser Arbeit ist die Konzeption und Entwicklung einer flexiblen, durchgängigen Business-Intelligence-Architektur zur Optimierung der Qualitätssicherung in einem mittelständischen Unternehmen. Die Forschungsfrage fokussiert sich darauf, wie manuelle, fehleranfällige Dokumentationsprozesse durch eine automatisierte Softwarelösung ersetzt werden können, um eine fundierte ökonomische Analyse von Produktionsfehlern und deren Folgekosten zu ermöglichen.
- Analyse moderner Qualitätsmanagement-Konzepte wie TQM, Six Sigma und Lean Management.
- Evaluation von Softwareentwicklungsmodellen mit Fokus auf prototypbasierte Entwicklung.
- Aufbau einer datenbankgestützten BI-Struktur inklusive Data-Warehouse und ETL-Prozessen.
- Praktische Implementierung eines Erfassungsformulars und einer Auswertungslogik mittels C#.
Auszug aus dem Buch
3.1.1 TQM (Total Quality Management)
Das TQM wurde in den 1940er Jahren von dem US-amerikanischen Physiker William Edwards Deming entwickelt. Vor Allem im, vom zweiten Weltkrieg zerstörten Japan, erlangte es von Beginn an, an Popularität. In den folgenden Jahrzehnten wurde seine Methode dabei immer weiter verbessert und gelangte in den siebziger und achtziger Jahren, aufgrund der steigenden Qualitätsgüte japanischer Unternehmen, schließlich auch in den USA Bekanntheit.
Das TQM (sinngemäß übersetzt: „allumfassendes Qualitäts-Management“) setzt sich zum Ziel, dass sich alle Mitglieder des Unternehmens, an einer ständigen Verbesserung, der Produkte und Dienstleistungen beteiligen. Hierfür ist es laut Deming unverzichtbar, alle Unternehmensbereiche mit einzubeziehen. Beginnend beim Ingenieur, welcher Konstruktionsfehler vermeidet, über den Anlagenfahrerin der Produktion, der fehlerhafte Maschinen sofort meldet, bis hin zur Buchhaltung, welche die Unterlagen des Unternehmens so fehlerfrei wie möglich hält. Jeder Posten der Wertschöpfungskette trägt seinen Teil zum Erreichen, des Standards bei. Um dieses bereichsübergreifende Verständnis von Qualität umsetzen zu können, bedarf es laut Deming einer neuen Unternehmensphilosophie.
Diese fußt zusammenfassend auf den folgenden Prinzipien: [Yasa2013]
Qualität orientiert sich am Kunden
Qualität wird mit Mitarbeitern aller Bereiche und Ebenen erzielt
Qualität umfasst mehrere Dimensionen, die durch Kriterien operationalisiert werden müssen
Qualität ist kein Ziel, sondern ein Prozess, der nie zu Ende ist
Qualität bezieht sich nicht nur auf Produkte, sondern auch auf Dienstleistungen
Qualität setzt aktives Handeln voraus und muss erarbeitet werden
Zusammenfassung der Kapitel
1 Einleitung: Beschreibt die zunehmende Komplexität und den Wettbewerbsdruck, die Unternehmen zwingen, effiziente, IT-gestützte Qualitätsmanagementlösungen zu implementieren.
2 Problematik: Analysiert die Schwachstellen manueller Datenpflege mittels Excel und die daraus resultierende mangelnde Transparenz sowie Fehleranfälligkeit in einem mittelständischen Betrieb.
3 Theoretische Grundlagen: Erläutert etablierte Qualitätsmanagementsysteme und die technischen Komponenten einer Business-Intelligence-Architektur inklusive Data-Warehouse und ETL-Prozessen.
4 Wissenschaftliche Methode: Vergleicht verschiedene Softwareentwicklungsmodelle und begründet die Wahl des prototypbasierten Vorgehens für das konkrete Projekt.
5 Dokumentation der Ergebnisse: Detailliert die konkrete Umsetzung der Software in C#, den Datenbankaufbau mittels SQL Server und die Automatisierung durch ETL-Prozesse in Pentaho.
6 Fazit: Reflektiert den Projekterfolg, stellt die verbesserte Datenqualität heraus und identifiziert das Potenzial für eine zukünftige Anwendung unter realen Produktionsbedingungen.
Schlüsselwörter
Qualitätsmanagement, Business Intelligence, Data Warehouse, ETL-Prozess, Prototyping, Softwareentwicklung, C#, Prozessoptimierung, Fehlerdokumentation, Warenwirtschaft, Fertigungsqualität, Wirtschaftlichkeit, Datenbank, Prozessanalyse, Lean Management
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit befasst sich mit der Entwicklung einer IT-basierten Business-Intelligence-Lösung, um die Fehlererfassung und Qualitätssicherung in einem mittelständischen Produktionsunternehmen zu digitalisieren und effizienter zu gestalten.
Was sind die zentralen Themenfelder?
Die zentralen Themen sind Qualitätsmanagement-Strategien (wie TQM und Six Sigma), Business-Intelligence-Architekturen, Methoden der Softwareentwicklung sowie die praktische Implementierung von Datenbank- und ETL-Systemen.
Was ist das primäre Ziel der Arbeit?
Das primäre Ziel ist die Schaffung einer transparenten und durchgängigen Datenbasis, die es ermöglicht, Produktionsfehler systematisch zu erfassen und ökonomisch zu bewerten, um Produktionskosten zu senken.
Welche wissenschaftliche Methode wird verwendet?
Es wird die Methode der prototypbasierten Softwareentwicklung eingesetzt, da diese eine flexible Anpassung an die spezifischen Anforderungen des Nutzers während des Entwicklungsprozesses erlaubt.
Was wird im Hauptteil behandelt?
Der Hauptteil gliedert sich in die theoretische Fundierung von BI und QM, die methodische Herleitung der Softwareentwicklung sowie die detaillierte Dokumentation des Programmcodes, des Datenbankmodells und der ETL-Transformationen.
Welche Schlüsselwörter charakterisieren die Arbeit?
Die wichtigsten Schlagworte sind Business Intelligence, Qualitätsmanagement, ETL-Prozesse, Prototyping, Datenbankmanagement und Prozessverbesserung.
Warum war Excel für das Unternehmen keine geeignete Lösung?
Excel-Listen waren bei mehreren Benutzern extrem fehleranfällig, litten unter Redundanz und Inkonsistenz und boten keine ausreichende Transparenz für eine ökonomische Auswertung der Fehlerdaten.
Welche Vorteile bietet die entwickelte Software gegenüber dem alten System?
Die neue Software bietet eine zentralisierte, durchgängige Datenhaltung, vermeidet Redundanzen durch automatisierte Prozesse, validiert Eingaben und ermöglicht eine fundierte wirtschaftliche Analyse der Nachbearbeitungsaufwände.
Wie unterstützt Pentaho den Datenverarbeitungsprozess?
Pentaho wird als Werkzeug für den ETL-Prozess genutzt, um die unstrukturierten Daten aus dem operativen System zu extrahieren, zu transformieren und in das strukturierte Data-Warehouse zu laden.
Warum wurde ein vertikaler Prototyp gewählt?
Der vertikale Prototyp wurde gewählt, weil er einen kompletten Durchstich durch alle Schichten der Architektur – von der Benutzeroberfläche bis zur Datenbank – bietet, was eine umfassende Überprüfung der Funktionalität ermöglicht.
- Arbeit zitieren
- Philipp Seidel (Autor:in), 2014, Entwicklung einer Business Intelligence Architektur zur Entscheidungsunterstützung im Qualitätsmanagment, München, GRIN Verlag, https://www.grin.com/document/282036