Das Ziel dieser Arbeit ist die Erforschung der Literatur hinsichtlich der Anwendungen von Künstlicher Intelligenz für die Konzeptuelle Modellierung. Hierdurch sollen die folgenden expliziten Forschungsfragen beantwortet werden: Welche Ansätze zur Nutzung von KI zur KM existieren und welche Probleme adressieren sie? Welche KI-Techniken werden für welche Ansätze diskutiert? Wie ist der aktuelle Stand der Forschung der jeweiligen Ansätze, welche Ergebnisse wurden bisher erzielt? Lassen sich weitere Entwicklungen extrapolieren? Die Beantwortung dieser Forschungsfragen soll das Forschungsfeld rekonstruieren und einen Überblick über das untersuchte Forschungsfeld schaffen, der so zukünftiger Forschung in diesem Bereich ermöglicht auf der existierenden Forschung aufzubauen und von publizierten Erkenntnissen zu profitieren.
Die Interaktion der Forschungsfelder Konzeptuelle Modellierung und Künstliche Intelligenz ist in ihrer Natur wechselseitig: Neben der Nutzung konzeptueller Modelle für die Konstruktion künstlicher Intelligenzen, werden auch Ansätze und Erkenntnisse aus dem Feld der KI-Forschung zur Unterstützung konzeptueller Modellierung diskutiert. Konkrete Beispiele hierfür sind das Erkennen wiederverwendbarer Modell-Komponenten, die automatisierte Prüfung der Validität der Modelle und das Erstellen eines automatisierten und personalisierten Feedbacks für Lernende und Modellierende. Während die Nutzung von Techniken der konzeptuellen Modellierung für die KI bereits in den 1980er Jahren in der Forschung und Literatur diskutiert wurde, erscheint die Forschung zur umgekehrten Beziehung, also der Nutzung von Konzepten der KI zur KM, vergleichsweise jung, wobei die Mehrzahl entsprechender Publikationen nach dem Jahr 2010 datiert. Ein umfangreicher Überblick, der die existierenden Forschungsbeiträge zu diesem Zusammenhang aufarbeitet und die verwendeten Ansätze und die genutzten KI-Methoden charakterisiert, existiert nach Kenntnis des Autors dieser Thesis aktuell nicht. Eine solche Arbeit ist allerdings wünschenswert, da sie die Grundlage zukünftiger Forschungen in diesem Bereich schaffen und gegebenenfalls Synergismen zwischen bestehenden Arbeiten identifizieren kann.
Inhaltsverzeichnis
1. Abbildungsverzeichnis
2. Anhangsverzeichnis
3. Abkürzungsverzeichnis
4. Einleitung
4.1. Zielsetzung
4.2. Gliederung der Arbeit
5. Grundlagen
5.1. Künstliche Intelligenz
5.2. Konzeptuelle Modellierung
6. Forschungsmethodische Herangehensweise
6.1. Verwendete Forschungsmethode
7. Ergebnisse
7.1. Forschungsansatz 1: Regel- und Muster-Mining in Modellen
7.2. Forschungsansatz 2: Verbesserte Wiederverwendung von Modellen
7.3. Forschungsansatz 3: Verbessertes Modellalignment
7.4. Forschungsansatz 4: Modellierungsassistenz
7.5. Forschungsansatz 5: Korrektur und Validierung von Modellen
7.6. Forschungsansatz 6: Automatische Modellierung
7.7. Forschungsansatz 7: Transformation von Modellen
7.8. Forschungsansatz 8: Lehre
8. Diskussion
8.1. Forschungslücken und Ausblick
8.2. Schlussbetrachtung und Limitationen der Arbeit
9. Literaturverzeichnis
10. Anhang
1. Abbildungsverzeichnis
Abbildung 1 Decision Tree, eigene Darstellung
Abbildung 2 Nearest Neighbour Classifier, eigene Darstellung
Abbildung 3 Künstliches neuronales Netz, eigene Darstellung
Abbildung 4 Literatursuche, eigene Darstellung
Abbildung 5 KI-Techniken der identifizierten Literatur, eigene Darstellung
Abbildung 6 KI-Techniken per Jahr, eigene Darstellung
Abbildung 7 Forschungsansätze, KI-Methoden und Zeitverlauf, eigene Darstellung
Abbildung 8 KI-Techniken Forschungsansatz 1, eigene Darstellung
Abbildung 9 KI-Techniken per Jahr Forschungsansatz 1, eigene Darstellung
Abbildung 10 KI-Techniken Forschungsansatz 2, eigene Darstellung
Abbildung 11 KI-Techniken per Jahr Forschungsansatz 2, eigene Darstellung
Abbildung 12 KI-Techniken Forschungsansatz 3, eigene Darstellung
Abbildung 13 KI-Techniken per Jahr Forschungsansatz 3, eigene Darstellung
Abbildung 14 KI-Techniken Forschungsansatz 4, eigene Darstellung
Abbildung 15 KI-Techniken per Jahr Forschungsansatz 4, eigene Darstellung
Abbildung 16 KI-Techniken Forschungsansatz 5, eigene Darstellung
Abbildung 17 KI-Techniken per Jahr Forschungsansatz 5, eigene Darstellung
Abbildung 18 KI-Techniken Forschungsansatz 6, eigene Darstellung
Abbildung 19 KI-Techniken per Jahr Forschungsansatz 6, eigene Darstellung
Abbildung 20 KI-Techniken Forschungsansatz 7, eigene Darstellung
Abbildung 21 KI-Techniken per Jahr Forschungsansatz 7, eigene Darstellung
Abbildung 22 KI-Techniken Forschungsansatz 8, eigene Darstellung
Abbildung 23 KI-Techniken per Jahr Forschungsansatz 8, eigene Darstellung
2. Anhangsverzeichnis
Tabelle 1 Identifizierte Literatur und Konzept-Matrix
3. Abkürzungsverzeichnis
KM - Konzeptuelle Modellierung
KI - Künstliche Intelligenz
ML - Machine learning
NLP - Natural language processing
AUC - Area under the curve
ROC - Receiver operating characteristic
4. Einleitung
Nachdem das Forschungsfeld des Maschinenlernens und der KI für mehrere Jahrzehnte aus dem Fokus der Forschung und der gesellschaftlichen Wahrnehmung geraten ist, kam es, getrieben durch rapide technologische und gesellschaftliche Entwicklungen, etwa seit 2015 als Ansatz neuronaler Netze zu einem erneuten Aufschwung der Forschung (Haenlein und Kaplan, 2019). Diese Veränderung wird von einer Vielzahl wissenschaftlicher Publikationen, ökonomischer Anwendungskonzepte und einer hohen gesellschaftlichen Wahrnehmung des Forschungsfeldes begleitet. Aktuell finden die Forschungserkenntnisse der künstlichen Intelligenz zunehmend Anwendung in vielen Branchen- und Gesellschaftsbereichen (Nwankpa et al., 2020; Ramesh et al., 2004). Dieser neueren Entwicklung vorausgegangen sind zwei Wellen der KI-Forschung in den Jahren 1940-1970 (Golden Age, Cybernetics) und 1980-2000 (Dark Age, Connectionism) (Goodfellow et al., 2016).
Die Interaktion der Forschungsfelder KM und KI ist in ihrer Natur wechselseitig: Neben der Nutzung konzeptueller Modelle für die Konstruktion und das Training von KIs, (Gers und Schmidhuber, 2000; Lukyanenko et al., 2018), werden auch Ansätze und Erkenntnisse aus dem Feld der KI-Forschung zur Unterstützung konzeptueller Modellierung diskutiert. Konkrete Beispiele hierfür sind das Erkennen wiederverwendbarer Modell-Komponenten (Thonggoom et al., 2011), die automatisierte Prüfung der Validität der Modelle (Fumagalli et al., 2020) und das Erstellen eines automatisierten und personalisierten Feedbacks für Lernende und Modellierende (Serral und Snoeck, 2016). Während die Nutzung von Techniken der konzeptuellen Modellierung für die KI bereits in den 1980er Jahren in der Forschung und Literatur diskutiert wurde (u.a. Brodie et al., 1984), erscheint die Forschung zur umgekehrten Beziehung, also der Nutzung von Konzepten der KI zur KM, vergleichsweise jung, wobei die Mehrzahl entsprechender Publikationen nach dem Jahr 2010 datiert. Ein umfangreicher Überblick, der die existierenden Forschungsbeiträge zu diesem Zusammenhang aufarbeitet und die verwendeten Ansätze und die genutzten KI-Methoden charakterisiert, existiert nach Kenntnis des Autors dieser Thesis aktuell nicht. Eine solche Arbeit ist allerdings wünschenswert, da sie die Grundlage zukünftiger Forschungen in diesem Bereich schaffen (Webster und Watson, 2002) und gegebenenfalls Synergismen zwischen bestehenden Arbeiten identifizieren kann.
4.1. Zielsetzung
Das Ziel dieser Arbeit ist daher die Erforschung der Literatur hinsichtlich der Anwendungen von KI für die KM. Hierdurch sollen die folgenden expliziten Forschungsfragen beantwortet werden:
I. Welche Ansätze zur Nutzung von KI zur KM existieren und welche Probleme adressieren sie?
II. Welche KI-Techniken werden für welche Ansätze diskutiert?
III. Wie ist der aktuelle Stand der Forschung der jeweiligen Ansätze, welche Ergebnisse wurden bisher erzielt?
IV. Lassen sich weitere Entwicklungen extrapolieren?
Die Beantwortung dieser Forschungsfragen soll das Forschungsfeld rekonstruieren und einen Überblick über das untersuchte Forschungsfeld schaffen, der so zukünftiger Forschung in diesem Bereich ermöglicht auf der existierenden Forschung aufzubauen und von publizierten Erkenntnissen zu profitieren.
4.2. Gliederung der Arbeit
Diese Arbeit ist in die Kapitel Einleitung, Grundlagen, Forschungsmethodische Herangehensweise, Ergebnisse und Diskussion gegliedert. In diesem Kapitel wurden die wissenschaftliche, fachliche und historische Motivation der vorliegenden Thesis erläutert und die Forschungsfragen dargestellt. Die nachfolgenden Kapitel sollen nun der Beantwortung dieser Forschungsfragen dienen. So soll das Kapitel Grundlagen in die Grundlagen der KI und der KM einführen. Hiernach folgt die Darstellung der verwendeten forschungsmethodischen Herangehensweise. Im Ergebnisteil folgt anschließend die Präsentation der identifizierten Beiträge und der identifizierten Forschungsansätze. Abschließend sollen im Kapitel Diskussion bestehende Forschungslücken dargestellt und Potentiale und Risiken der Anwendung von KI für die KM erörtert werden. Es folgten ein abschließendes Fazit und die Limitationen dieser Thesis.
5. Grundlagen
In diesem Kapitel werden die notwendigen Grundlagen zum Verständnis der identifizierten Forschungsbeiträge dargelegt. Hierzu folgt die getrennte Darstellung des Themenfeldes KI und des Themenfeldes KM.
5.1. Künstliche Intelligenz
Obwohl in der Literatur in den vergangenen Jahrzehnten mehrfach der Versuch unternommen wurde den Begriff KI um eine formale Definition zu erweitern liegt bisher keine allgemeingültige Definition von den Anforderungen und Methoden dieses Forschungsbereich vor(Dobrev, 2012, S.1). Eine verbreitete Differenzierung der KI sind die zwei Denk-schulen deductive reasoning und inductive learning (Aggarwal, 2021, Seite vii).
Im Sinne des deductive reasoning sind verschiedene Formen von Domänenwissen primärer Ausgangspunkt der Entwicklung einer KI. Dieses Wissen in Form von Fakten wird auch als knowledge base bezeichnet und dient als Grundlage für die Konstruktion von Regeln und Schlussfolgerungen. Für den Schritt der Konstruktion existieren eine Vielzahl von Methoden, darunter Such- und Logik-basierte Ansätze. Man spricht von Expert Systems/Expertensystemen, wenn ein regelbasierter Ansatz gewählt wird. Die Komponente der KI, die die gewonnenen Regeln zur Entscheidung nutzt wird als inference engine bezeichnet (Aggarwal, 2021, Seiten vii, 6). Zwingende Voraussetzung für die logische Repräsentation von Wissen ist die Entwicklung und Auswahl einer maschinenlesbaren Sprache. Diese wird als knowledge representation language bezeichnet. Beispiele hierfür sind propositional logic und first order logic (Aggarwal, 2021, Seite 105). Verkürzt dargestellt gilt für das deductive reasoning, dass die Hypothese der Ausgangspunkt ist und die KI diese zu begründen sucht, um aus der erlangten Begründung wiederum weitere Schlüsse zu konstruieren.
Bei Entwicklungen der inductive learning Denkschule entwickelt die KI dagegen selbständig eine mathematische Hypothese aus einem Datensatz (Aggarwal, 2021, Seite 167). Inductive learning KIs haben gemein, dass ihre Entscheidungen probabilistischer Natur sind. Es sollen nun die wichtigsten KI-Ansätze für das Verständnis dieser Thesis dargestellt werden.
Als decision tree wird ein Klassifikationsmodell beschrieben, dass durch eine Baumstruktur repräsentiert wird. Diese KI-Technik der klassischen KI ist weit verbreitet und dient zur Konstruktion von Entscheidungsmodellen. Klassischerweise wird hierbei ein Datensatz über einen Algorithmus sequentiell anhand von Attributen in unverbundene Subgruppen unterteilt. Jeder Trennungspunkt wird als Knoten bezeichnet. Aus diesen entspringen die jeweiligen Subgruppen, die die Bezeichnung branches/Äste tragen. Bei terminalen Knoten handelt es sich um leafs/Blätter. Entscheidend für die Güte des decision trees ist die Wahl der zur Trennung verwendeten Eigenschaften. Besonders ist zu beachten, dass wurzelnahe Attribute aufgrund ihrer Lokalisation üblicherweise eine höhere Gewichtung erfahren und die performance eines simplen decision trees, die eines komplexen häufig übersteigt. Ein overfitting des Modells ist daher zu vermeiden. Für die Konstruktion eines decision trees existieren in der Forschung mehrere Algorithmen, u.a. ID3, C4.5, J4.8, REP-Tree und SVM-Tree (Fürnkranz, 2010, Seiten 263-266). Abbildung 1 zeigt beispielhaft die Darstellung eines decision trees für einen Smart-Kühlschrank, der sowohl in einem zeitlichen Intervall als auch bei Fehlen essentieller Produkte (wie Milch) selbstständig eine Bestellung auslöst.
Festgelegtes Bestellintervall erreicht?
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1 Decision Tree, eigene Darstellung
Die Methode ensemble learning kann als Erweiterung einzelner KIs betrachtet werden. Hierbei wird der Output mehrerer KIs mit dem Ziel kombiniert die Genauigkeit der Vorhersage einzelner KIs zu übertreffen. Grundsätzlich besteht eine Vielzahl von Möglichkeiten zur Kombination verschiedenster KIs, wobei die zu wählende Kombination unter anderem von der Art des Outputs der KIs abhängig ist. Von Relevanz ist für Kombinationen einzelner KIs die implizite oder explizite Sicherstellung einer ausreichenden Diversität zwischen den KIs. Eine im Rahmen dieser Thesis betrachtete Form des ensemble learnings ist der random forest, eine Kombination einzelner decision trees (Brown, 2010, Seiten 312-315).
Naive Bayes beschreibt einen Klassifikationsalgorithmus, der auf dem Satz von Bayes basiert. Dieser Algorithmus wird genutzt um die posteriore Wahrscheinlichkeit für die Zugehörigkeit zu einer Klasse abhängig von identifizierten Eigenschaften (Attributen) zu berechnen. Anwendung findet Naive Bayes unter anderem in der Klassifikation von Dokumenten (z.B. Identifikation von Spam). Hierbei werden zwei Formen unterschieden: Das multivariate Bernoulli Modell und das multinominale Modell. Wobei ersteres binär definiert, ob bestimmte Worte in den Textkorpora der jeweiligen Klassen zu finden sind und letzteres auch die Häufigkeiten dieser in die Kalkulation einbezieht (Singh et al., 2019, S.1).
Nearest neighbour classifier beschreiben einen weiteren Klassifikationsalgorithmus. Hierbei wird ein neuer Datenpunkt anhand eines gruppierten Datensets klassifiziert indem der Abstand des neuen Datenpunktes zu den k-nächsten bereits klassifizierten Nachbarpunkten bestimmt wird. K wird entsprechend des besten Ergebnisses unter Vermeidung eines overfitting bestimmt. Für k>1 gilt, dass die einfache Mehrheit zur Klassifizierung genutzt werden kann, wenn die nächsten Nachbarn verschiedenen Gruppen zugehörig sind (Aggarwal, 2021, S.190).
Abbildung 2 stellt am erdachten Beispiel eines Klassifizierungssystems für Getreide anhand der Parameter Attribut A und B einen nearest neighbour classifier grafisch dar. Hier werden die drei nächsten Nachbarn des zu klassifizierenden Datenpunktes (orange) bestimmt. Zwei der Nachbarn liegen in der Klasse Weizen einer in der Klasse Mais. Der zu klassifizierende Datenpunkt wird daher der Klasse Weizen zugeordnet.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2 Nearest Neighbour Classifier, eigene Darstellung
Ein weiterer wichtiger Ansatz ist das Konzept der künstlichen neuronalen Netze, welches auf Erkenntnissen des Psychologen Hebb aus den 1940er Jahren beruht und menschliches Denken nachbilden soll. Hierbei werden die Input-Variablen in mehreren Schichten einzelner Zellen prozessiert. Der Aufbau entspricht typischerweise einem direktionalen azyklischen Graph. Jeder Knoten berechnet anhand einer lokalen Funktion aus seinem Input einen lokalen Output. Die lokalen Outputs werden an die Knoten der nächsten Schicht weitergeleitet. Unterschieden werden Schichten von Input-, Output- und versteckten Knoten. Die Weiterleitung der Outputs an die nachfolgende Schicht wird von verbindungsspezifischen weights beeinflusst. Die Werte dieser weights beeinflussen damit auch den finalen Output-Wert. Ein spezifischer Input, zum Beispiel ein bestimmtes Bild, aktiviert unterschiedliche Zellen der Input-Schicht, was wiederum ein spezifisches Aktivierungsmuster der folgenden Schichten bewirkt. Dieses Aktivierungsmuster ist abhängig von den lokalen Funktionen und den weights. Das Erlernen der weights und auch die Zuordnung des Gesamtoutputs zu spezifischen Klassen erfolgt anhand eines Trainingsdatensatzes. Abbildung 3 stellt ein künstliches neuronales Netz beispielhaft grafisch dar. Erkennbar sind die Schichtung des Netzes sowie die wechselseitigen gerichteten Verbindungen der einzelnen Zellen. Die weights sind gedanklich an die blauen Pfeile und die lokalen Funktionen in die durch Kreise dargestellten Zellen zu denken. Anzumerken ist, dass die Output-Schicht auch mehr als eine Zelle enthalten kann und auch deutlich komplexere Architekturen existieren. Der Output des künstlichen neuronalen Netzes können ein spezifisches Aktivierungsmuster, eine Zahl oder ein Vektor sein.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3 Künstliches neuronales Netz, eigene Darstellung
Künstliche neuronale Netze benötigen regelmäßig große Trainingsdatensätze. Eine Möglichkeit vorhandene Datensätze zu erweitern ist die Technik der data augmentation, wobei hier Daten automatisiert verändert werden (u.a. Bilder in ihrer Ausrichtung), eine weitere ist die Technik des transfer learnings. Hierbei wird ein bestehendes Modell mit vorhandenen weights genutzt und auf ein neues Problem optimiert; beispielhaft ein Netzwerk, das für die Erkennung von Häusern in Bildern trainiert ist, für die Erkennung von UML-Diagrammen in Bildern (Aggarwal, 2021; Mikotajczyk und Grochowski, 2018; Tan et al., 2018).
Der Lernprozess künstlicher Intelligenzen kann unsupervised oder supervised gestaltet sein, weiterhin existiert der Ansatz des reinforced learning. Ein wichtiger Unterschied zwischen dem unsupervised und dem supervised learning ist, dass bei dem ersteren Ansatz der zu Grunde liegende Datensatz nicht gelabelt ist und daher die KI hier Strukturzusammenhänge erarbeitet, während beim letzteren Ansatz die KI anhand eines a priori gelabelten Datensatzes erlernt Vorhersagen hinsichtlich weiterer unabhängiger Daten zu treffen. Die Idee des reinforced learnings ist es, dass der KI Feedback zur Verfügung gestellt wird, sodass sie anhand von Versuch und Irrtum lernt (Aggarwal, 2021, Seiten 27-31). Die Güte einer angelernten KI für die Klassifizierung von Daten wird in der Literatur häufig mit der Rate der richtig identifizierten Daten angegeben. Hierzu werden die accuracy oder die AUC der ROC angegeben. Die AUC ist definiert als Integral zwischen einem Punkt der ROC und der x-Achse und ist ein Maß für die Güte eines Tests und setzt die Sensitivität und Spezifität in Relation. Die AUC kann hierbei Werte zwischen 0 und 1 annehmen. Werte >0,5 sprechen für einen informativen Test (Hilgers et al., 2019a, 2019b).
Abschließend sollen einige, für das Verständnis wichtige, Methoden des NLP kurz dargestellt werden. NLP beschreibt einen Ansatz natürliche Sprache zu verarbeiten. Es existieren sowohl NLP-Ansätze die abhängig von neuronalen Netzen sind als auch klassische-statistische KI-Verfahren. Der stanford parser ist ein Programm, welches die grammatikalische Struktur von Sätzen erarbeitet und Wörter zu Phrasen gruppiert. Es handelt sich um einen probabilistischen parser, dessen Wissen auf manuell analysierte Sätze gründet und neuronale Netze implementiert (Chen und Manning, 2014; Stanford NLP Group, 2020). Bei WordNet handelt es sich um eine lexikalische Datenbank der englischen Sprache, die Wörter entsprechend Wortart und konzeptuell semantischem Zusammenhang ordnet (Princeton University, 2010). FrameNet, eine Datenbank der englischen Sprache, enthält manuell annotierte Sätze, die mit semantischen Frames verknüpft sind und unter anderem als Trainingsdatensatz für NLP-Anwendungen dienen können. FrameNet ist so konzipiert, dass es sowohl für Menschen als auch Maschinen interpretierbar ist (Baker et al., 1998).
5.2. Konzeptuelle Modellierung
KM beschreibt den Prozess der Konstruktion konzeptueller Modelle unter Nutzung dedizierter Modellierungssprachen. Konzeptuelle Modelle sind hierbei als primär linguistische Artefakte innerhalb eines conceptual model space zu verstehen. Dieser Raum ist durch die genutzten Konzepte, die gewählte Repräsentationsform der Modellelemente, durch das Verständnis der Nutzer und Stakeholder und den Modellursprung definiert (Thalheim, 2011, Seiten 545-547). Zwei große Gruppen von konzeptuellen Modellen sind Verhaltensmodelle und Datenmodelle. Als Domänenmodelle werden Modelle beschrieben, die Verhaltens- und Datenmodelle integrieren. Insgesamt finden in der Informationswissenschaft allerdings mehr als 50 verschiedene Modelltypen Verwendung (Thalheim, 2011, S.544). Eine Besonderheit der konzeptuellen Modellierung gegenüber der Modellierung im weiteren Sinne ist ihre teleologische Eigenschaft. Dies bedeutet, dass das konzeptuelle Modell auf einem konstruktiven Modellverständnis und nicht auf einem abbildtheoretischen Modellverständnis basiert. Was bedeutet, dass bei der konzeptuellen Modellierung stets ein spezifisches Ziel verfolgt wird, dem die Gestaltung des Modells folgt und sich die Darstellung nicht in der reinen Widerspiegelung der Realität erschöpft (Zelewski, 2008, S.44). In der Literatur werden die Anforderungen an ein konzeptuelles Modell nicht einheitlich definiert (Robinson et al., 2015, S.7-10). Ursächlich hierfür ist unter anderem, dass die Ziele konzeptueller Modellierung divergieren können. Mögliche Anwendungen konzeptueller Modelle reichen von Schulungs- und Weiterbildungsmaßnahmen über die Nutzung im Zusammenhang mit Wissensmanagement bis hin zur Verwendung im Rahmen der Softwareentwicklung, bei welcher in der Forschung auch die unmittelbare Transformation in Softwarecode ohne intermediäre Programmiersprache diskutiert wird (Embley et al., 2011; Fettke, 2009). Selbst Anwendungen zum verbesserten Verständnis des menschlichen Genoms werden in der Literatur diskutiert (Pastor et al., 2011). Universelle Anforderung an ein konzeptuelles Modell sind die Abstraktion der Diskurssprache und die Verwendung einer Modellierungssprache, die frei von Fehlern der jeweiligen Domänen- und Diskurssprache ist, zur Rekonstruktion des Modells. Fehler der Diskursund Domänensprache sind Mehrdeutigkeiten und sprachliche Uneindeutigkeiten. Daher sollte sich die genutzte Modellierungssprache durch „Ausdrucksfähigkeit, Klarheit, Einfachheit und Orthogonalität, semantische Stabilität, semantische Relevanz, Validierungsmechanismen, Abstraktionsmechanismen und ein formales Fundament“ auszeichnen (aus dem Englischen übersetzt, Halpin und Morgan, 2008, Seite 56). Typische Herausforderungen für den Modellierenden sind die Gestaltung des Modells unter Vermeidung von Redundanzen, Überlagerungen, Defiziten oder überflüssigen Konstrukten (Bera und Poels, 2017, Seiten 3-4). Die Darstellung eines konzeptuellen Modells erfolgt typischerweise grafisch. Für die Gestaltung stehen eine Vielzahl von Modellierungswerkzeugen und Modellierungssprachen zur Verfügung. Einige wichtige Modellierungssprachen sind das Entity-Relationship-Model zur Datenmodellierung sowie die UML, die eine Vielzahl differentieller zweckabhängiger Darstellungsformen integriert (Fettke, 2009). So werden innerhalb der UML die fünf Sichten Use-Case, Design, Process, Implementation und Deployment unterschieden (Mallick et al., 2013).
Das Forschungsfeld KM wurzelt in Arbeiten zur Datenmodellierung aus den 1970er Jahren, wie der Publikation von Chen zum Entity-Relationship-Modell (Chen, 1976). Es befasst sich neben modelltheoretischen Fragen auch mit der Thematik des Erlernens konzeptueller Modellierung und den damit verbundenen Herausforderungen. So wird der Prozess der KM als Aktivität betrachtet, die eine Vielzahl von kognitiven Prozessen berührt. Genannt werden „Abstraktion, Konzeptualisierung, Assoziation, Kontextualisierung, Visualisierung, Interpretation und Sinn-Verständnis, Beurteilung und Evaluation sowie in Gruppen-Situationen auch Kommunikation, Diskussion und Einigung“ (aus dem Englischen übersetzt, Ternes et al., 2019, S.1). Batra und Davis, die das Erlernen konzeptueller Modellierung aus lerntheoretischer Perspektive in der Tradition der Novice versus Master Experimente untersuchen, betrachten KM als „Open- End“-Tätigkeit (Batra und Davis, 1992, Seite 87). Betrachtungsgegenstand dieses Forschungszweiges sind die Fragen wie Novizen KM erlernen und welche Probleme hierbei auftreten (Bogdanova und Snoeck, 2019a; Rosenthal und Strecker, 2019) und welche Hilfen Modellierenden zur Überwindung auftretender Schwierigkeiten zur Seite gestellt werden können (u.a. Ternes et al., 2019). Hierbei werden sowohl Modellierungswerkzeuge und Bots diskutiert, als auch die Konsequenzen von Feedback in unterschiedlicher Ausführung erforscht (Bogdanova und Snoeck, 2019b). Eine weitere Herausforderung für KM in der Geschäfts- und Wissenschaftswelt ist das Kostenargument (Mayr und Thalheim, 2021, Seite 2), weshalb unter anderem Methoden für die Wiederverwendbarkeit von Modellen und Modellkomponenten sowie die automatisierte Planung und Modellierung in der Forschung diskutiert werden (Heinrich et al., 2015; Ma und Leymann, 2008; Riefer et al., 2016).
6. Forschungsmethodische Herangehensweise
Diese Arbeit wurde als Sekundärforschung im Sinne einer Meta-Analyse, angelehnt an die von Webster (Webster und Watson, 2002) und Brocke (Brocke et al., 2009) definierten Anforderungen, gestaltet. Zunächst werden daher alle relevanten Literaturstellen identifiziert und analysiert. Anhand der Forschungsfragen wird außerdem eine Konzeptmatrix konstruiert, die die Darstellung und Gegenüberstellung wichtiger Aspekte der identifizierten Forschungsbeiträge erlaubt. Die so identifizierten Forschungsansätze sollen dann zur Beantwortung der Forschungsfragen herangezogen werden und dienen als Basis der Diskussion. Initial war es von dem Autor dieser Thesis als zielführend betrachtet worden sich einen allgemeinen Überblick über die Publikationslandschaft zu verschaffen. Hierzu wurden unter Nutzung des Ranking- Dienstes scimagojr (scimagojr.com) alle Journals der höchsten Qualitätsstufe (Q1) in der der Kategorie Information Systems and Management und die fünf höchst gerankten Konferenzen identifiziert und hinsichtlich passender Forschungsbeiträge geprüft. Die durchgeführte Schlagwortsuche erfolgte dann mit den Begriffen Konzeptuelle Modellierung/Conceptual Modeling, Künstliche Intelligenz/Artificial Intelligence, Modellierungsprozess/Modeling Process, NLP und Deep Learning in den genannten Journals, Konferenzen, Springer Link sowie den Universitätsbibliotheken Hagen und Tübingen. Es zeigte sich, dass die alleinige Nutzung dieser Schlagworte hinsichtlich der Identifikation der relevanten Literatur nicht zielführend ist, da dieses Vorgehen zu einer unüberschaubar hohen Anzahl an Publikationen führte (Springer Link: > 710.600 Einträge zum Schlagwort Artificial Intelligence) und der Großteil der so identifizierten Publikationen nicht zur Beantwortung der Fragestellung dieser Arbeit genutzt werden konnte. Auch die Einschränkung der Suche auf die aktuellsten Publikationen (seit 2009), reduzierte die Anzahl der betrachteten Literatur nicht ausreichend (Springer Link: > 490.100 Einträge zum Schlagwort Artificial Intelligence). Um die Treffergenauigkeit der Suchen zu optimieren wurden daher unter Berücksichtigung der von dem Autor bekannten Forschungsfragen der KM drei boolesche Suchterme gebildet:
I. ("conceptual modeling" AND “feedback”)
II. ("conceptual modeling" OR "modeling process") AND ("student" OR "learner") AND (“NLP” OR "deep learning" OR "artificial intelligence" OR "feedback")
III. ("entity-relationship" OR "UML") AND ("conceptual modeling") AND ("student" OR "learner") AND (“NLP” OR "deep learning" OR "artificial intelligence" OR "feedback")
Die Bildung dieser Suchterme zeigte sich insoweit nützlich, als dass hierdurch eine spezifischere Identifikation einiger thematisch treffender Publikationen möglich war. Die identifizierten Beiträge wurden außerdem um eine Vorwärts- und Rückwärtssuche erweitert. Durch dieses Vorgehen ließen sich vier Themenstränge im Kontext der Anwendung künstlicher Intelligenz für konzeptuelle Modellierung identifizieren:
- Das automatisierte Feedback für Lernende/Modellierende
- Die automatisierte Beurteilung von Modellen/Studierenden/Konzepten
- Die automatisierte Validierung von Modellen
- Die automatisierte Assistenz während der Modellierung
Es wurden außerdem drei Konferenzen, die hinsichtlich ihrer Ausrichtung vielversprechend erscheinen, identifiziert: Intelligent tutoring systems, Computational Science and Its Applications - ICCSA 2021 und Artificial Intelligence in Education. Hierbei ist allerdings anzumerken, dass alle diese Konferenzbeiträge auch über die Dienste Google Scholar, Springer Link ScienceDirect, IEEE-Explore, ACM Digital Library und Wiley Online Library auffindbar waren.
6.1. Verwendete Forschungsmethode
In der Gesamtschau der erlangten Erkenntnisse wurde die Literatursuche dieser Thesis so konzipiert, dass sie vor allem in Konferenzbeiträgen und Publikationen, aber auch neueren Monografien (> 2009) erfolgen sollte. Obwohl Brocke et al. dafür plädieren lediglich renommierte Konferenzen in die Suche einzubeziehen (Brocke et al., 2009, S.9) werden in dieser Thesis auch Konferenzbeiträge betrachtet, die dieser Einschränkung nicht entsprechen, wenn die Beiträge besondere Ansätze der KI für die KM beinhalten. Die Entscheidung hierzu wurde getroffen, da diese Thesis einen möglichst vollständigen Überblick über mögliche Ansätze erreichen soll. Im Sinne der Transparenz wird die Art des jeweiligen Beitrages jeweils dargestellt. Aus demselben Beweggrund wurde entschieden eine möglichst große Anzahl von Diensten für die Suche zu nutzen: Google Scholar, Springer Link ScienceDirect, IEEE-Explore, ACM Digital Library, Wiley Online Library, Scopus, web of science sowie die Suchdienste der Universitätsbibliotheken Tübingen und Hagen. Für die Suche wurden drei boolesche Suchterme in englischer und deutscher Sprache definiert, da diese Sprachen von dem Autor dieser Arbeit beherrscht werden:
I. (“machine learning” OR “NLP” OR “neural” OR “knowledge representation” OR “deep learning”) AND "cognitive load" AND "conceptual modeling"
II. (“machine learning” OR “NLP” OR “neural” OR “knowledge representation” OR “deep learning”) AND "feedback" AND "conceptual modeling"
III. (“machine learning” OR “NLP” OR “neural” OR “knowledge representation” OR “deep learning”) AND "validation" AND "conceptual modeling"
Aus dieser so erlangten Literaturbasis erfolgt dann eine schrittweise Elimination unpassender Publikationen. Hierzu wurden Duplikate entfernt sowie händisch Titel, Schlagwörter und Abstracts studiert. Die erlangte Literatur wurde abschließend über eine Vorwärts- und Rückwärtssuche erweitert, um die Sensitivität zu erhöhen. Abbildung 4 stellt diesen Prozess grafisch dar.
- natural language processing
- künstliche neuronale Netze
- klassische KI -Technologien
Für die Analyse der identifizierten KI-Techniken werden die drei Gruppen unterschieden. Diese Unterteilung soll der besonderen Bedeutung der Forschung zu künstlichen neuronalen Netzen in der aktuellen Forschung zur KI und der Relevanz von linguistischen Konstrukten für die KM gerecht werden. Die Gruppe der klassischen KI- Technologien ist wegen der Vielzahl unterschiedlicher Ansätze zweckmäßig und nicht historisch fundiert. Dort zusammengefasste KI-Techniken sollen im Ergebnisteil unabhängig dargestellt und erläutert werden. Zur Präsentation und als Grundlage der Analyse der Literatur wurde eine Konzeptmatrix (Tabelle 1 im Anhang) konstruiert.
Abbildung in dieser Leseprobe nicht enthalten
Literaturbasis ~ 8780 Beiträge
Abbildung in dieser Leseprobe nicht enthalten
7. Ergebnisse
Nach Abschluss des initialen Suchprozesses fanden sich 8.780 Publikationen. Durch die Durchführung der Eliminationsschritte und der Erweiterung um eine Vorwärts- und Rückwärtssuche verblieben einunddreißig Beiträge, die zur Beantwortung der Forschungsfragen genutzt wurden. Bei sieben handelt es sich um Zeitschriftenartikel, vierundzwanzig sind Konferenzbeiträge. Der älteste identifizierte Beitrag ist von 2009, der jüngste von 2021. Abbildung 5 präsentiert die kumulative Anzahl der in den identifizierten Publikationen genutzten KI-Techniken und stellt dar, ob es sich bei einer Arbeit um eine reine Literaturarbeit handelt. Abbildung 6 gliedert die genutzten KI- Techniken entsprechend der Publikationsjahre.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 5 KI-Techniken der identifizierten Literatur, eigene Darstellung
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 6 KI-Techniken per Jahr, eigene Darstellung
Es wurden insgesamt drei aktuelle Meta-Arbeiten aus den Jahren 2020 und 2021 identifiziert, die sich mit der Fragestellung befassen, in welchen Bereichen KI- Technologien für Probleme und Herausforderungen der KM Anwendung finden können. Die älteste identifizierte Meta-Arbeit (Fettke, 2020) zielt darauf ab die wechselseitigen Berührungspunkte der KI und der KM darzustellen und außerdem die Anwendung von KI für das prädiktive Geschäftsprozessmanagement zu thematisieren (Fettke, 2020, S.157). Hinsichtlich möglicher Anwendungen künstlicher Intelligenz für die KM werden in dieser Arbeit fünf Problemstellungen der KM erarbeitet, welche nach Ansicht der Autoren von KI-Techniken unterstützt werden können:
- Die Identifikation wiederverwendbarer Modell-Strukturen
- Das Erkennen ähnlicher Modell-Konstrukte in verschiedenen Modellen
- Die Unterstützung des Modellierungsprozesses durch KI
- Die wechselseitige Transformation von natürlichsprachlichen Texten, Bildern und Modellen
- Die automatisierte Planung, Modellierung und automatische Korrektur von Modellen (Fettke, 2020, Seiten 159-160)
Die Erkenntnisse dieser Arbeit werden von Maass und Storey um einzelne Aspekte erweitert, wobei diese Arbeit ihren Fokus maßgeblich auch auf die Nutzungsmöglichkeiten konzeptueller Modellierung für die KI legt; ein Zusammenhang, der nicht von dieser Thesis betrachtet wird. Hinsichtlich der Anwendung von künstlicher Intelligenz für die KM definieren die Autoren zunächst ihre Sicht auf bestehende Herausforderungen der KM. Sie sehen diese insbesondere hinsichtlich des Wissensmanagements und unterteilen die Herausforderungen in drei Kategorien: Unvollständiges Wissen, falsches Wissen und inkonsistentes Wissen (Maass and Storey, 2021, Seiten 39-40). Auf diesen Problemen basierend leiten die Autoren ihre Ansätze für die KI her und nennen:
- Die automatisierte Identifikation von Ontologien
- Das Erfassen von Entitäten und Regeln aus natürlichsprachlichen Texten durch Text-mining
- Das Erstellen von knowledge graphs aus vorhandenen datasets im Sinne eines partiellen konzeptuellen Modells (Maass und Storey, 2021, Seiten 39-42)
Da solche knowledge graphs in der Anwendung künstlicher Intelligenz zur Darstellung von unstrukturierten Informationen bereits Anwendung fänden, böte sich nach Auffassung der Autoren diese Repräsentationsform an, um von einer existierenden Basis als Grundlage weiterer Forschung zu profitieren. Entitäten und Relationen könnten in knowledge graphs mathematisch dargestellt und so als In- und Output für künstliche neuronale Netze genutzt werden (Maass und Storey, 2021, S.41). Die Kombination solcher Graphen mit Ontologien sei allerdings ein offenes Forschungsproblem und die Forschung zur Anwendung von KI für KM stecke insgesamt noch in ihren Kinderschuhen (Maass und Storey, 2021, S.43). Mit der Publikation von Feltus et al. von 2021 wurde auch eine dritte Meta-Arbeit zu der betrachteten Thematik identifiziert. Die Autoren bauen hierbei auch explizit auf dem Beitrag von Fettke et al. 2020 auf (Feltus et al., 2021, S.81). Sie postulieren, dass im Zusammenhang der zunehmenden Digitalisierung der Bedarf an konzeptuellen und Domänenmodellen stetig steige und dieser Bedarf nicht allein von Modellierungsexperten befriedigt würde. Sie sehen KI-Techniken als Enabler für Assistenztechnologien, die Modellierungsprozesse, insbesondere von NichtModellierungsexperten, unterstützen können (Feltus et al., 2021, Seiten 75-77). Aufbauend auf den Erkenntnissen von Fettke et al. werden von Feltus et al. vier Felder der Modellierung unterschieden, in denen KI eingesetzt werden kann:
- Die Sammlung von Hintergrund Wissen
- Muster-Mining in Modellen o Finden von Übereinstimmungen zwischen Modellkonstrukten
- Unterstützung von strukturierten Modellierungs-Dialogen
- Führung des Modellierungsprozesses o Explizite Modellierungsstrategien
- Korrektur und Validierung von Modellen
- Automatische Modellierung und Korrektur
- Repräsentation von Modellen und (computergestützte) Interpretation
- Modell zu Text, Bild zu Modell und umgekehrt (Feltus et al., 2021, S.81)
Feltus et al. unterscheiden hierbei symbolische und subsymbolische KI-Technologien und ordnen diesen unterschiedliche Anwendungspotentiale zu. Unter symbolischer KI subsumieren die Autoren NLP, logische Inferenz und Problemlösung unter der Erfüllung von Einschränkungen. Ansätze für NLP Techniken werden hierbei insbesondere im Zusammenhang mit der Extraktion von Modellen aus natürlichsprachlichen Texten und der Kommunikation von Modellierenden mit der KI (u.a. im Rahmen strukturierter Modellierungs-Dialoge) gesehen (Feltus et al., 2021, Seiten 82-83). Als subsymbolische KI werden alle Technologien definiert, die statistische Algorithmen nutzen. Explizit nennen die Autoren hier die principal component analysis, clustering algorithms, classification algorithms, convolutional neural networks, recurrent neural networks und reinforced learning. Anwendungen der principal component analysis sehen sie insbesondere in der komplexitätsreduzierenden Vorbereitung von Daten, die durch andere ML-Algorithmen verarbeitet werden sollen. Clustering Algorithmen wie k-means, mean-shift, agglomerative clustering oder DBScan könnten zur Muster-Erkennung in Modellen und zur Identifikation von Übereinstimmungen verschiedener Modelle verwendet werden. Es wird weiterhin angeführt, dass convolutional neural networks genutzt werden könnten um eine Bild zu Modell Transformation durchzuführen. Hinsichtlich recurrent neural networks wird eine Anwendung insbesondere im Bereich der (verbalen) Text zu Modell Transformation gesehen. Abschließend geben die Autoren hinsichtlich reinforced learning an, dass nach ihrer Kenntnis bisher keine Anwendungen für die konzeptuelle Modellierung publiziert wurden. Sie sehen jedoch Potentiale im Zusammenhang für Muster-Erkennung in Modellen oder der Identifikation von Übereinstimmungen zwischen Modellen (Feltus et al., 2021, Seiten 83-85).
In der Synthese der Erkenntnisse dieser drei Meta-Arbeiten mit den Forschungsansätzen der in dieser Thesis identifizierten Publikationen werden acht Forschungsansätze definiert anhand derer sich die weitere Gliederung dieser Thesis strukturiert:
- Forschungsansatz 1: Regel- und Muster-Mining in Modellen
- Forschungsansatz 2: Verbesserte Wiederverwendung von Modellen
- Forschungsansatz 3: Verbessertes Modelalignment
- Forschungsansatz 4: Modellierungsassistenz
- Forschungsansatz 5: Korrektur und Validierung von Modellen
- Forschungsansatz 6: Automatische Modellierung
- Forschungsansatz 7: Transformation von Modellen
- Forschungsansatz 8: Lehre
Aus Abbildung 7 ist die chronologische Bearbeitung dieser Ansätze durch die identifizierten Beiträge zu entnehmen. Der jeweilige Farbcode verschlüsselt hierbei die verwendeten KI-Techniken. Von der Darstellung der drei in diesem Abschnitt bereits vorgestellten Meta-Arbeiten wird dort unter Berücksichtigung der Übersichtlichkeit abgesehen. Aus demselben Grund wird die Arbeit „Automatic Classification of Web Images as UML Static Diagrams Using Machine Learning Techniques“ dort nicht dargestellt, da sie im wesentlichen frühere Erkenntnisse aufarbeitet. An dieser Stelle sei darauf hingewiesen, dass die identifizierten Arbeiten regelmäßig mehrere der definierten Forschungsansätze berühren und teilweise eine Vielzahl verschiedener KI-Techniken verwenden. In dem folgenden Abschnitt erfolgt daher eine Darstellung der relevanten Forschungsbeiträge stets im Zusammenhang mit der ersten Nennung.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 7 Forschungsansätze, Kl-Methoden und Zeitverlauf, eigene Darstellung
7.1. Forschungsansatz 1: Regel- und Muster-Mining in Modellen
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 8 KI-Techniken Forschungsansatz 1, eigene Darstellung
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 9 KI-Techniken per Jahr Forschungsansatz 1, eigene Darstellung
Arbeiten dieses Forschungsansatzes zielen u.a. darauf ab best practices in der Modellierung zu identifizieren und anderen Modellierenden zur Verfügung zu stellen. Dies soll dazu dienen den Modellierungsprozess effizienter zu gestalten und Fehler zu identifizieren (Fumagalli et al., 2020, S.1) sowie die Interaktion zwischen Modellierungsund Domänenexperten zu verbessern (Laurenzi et al., 2019, S.1). In der Publikation “Towards An Assistive and Pattern Learning-driven Process Modeling Approach” beschreiben Laurenzi et al. einen Ansatz zur Identifikation von „stummen“ domänenspezifischen Modellierungsmustern durch ML-Techniken. Die identifizierten Muster sollen als Domänen-spezifische Muster und Geschäftsprozessmodelle in der Form von abstrakten Ontologien in einem Verzeichnis gespeichert werden. Sie wollen so erreichen, dass Domänenexperten dieses stumme Wissen zugänglich gemacht wird und so zur Unterstützung von modellierenden Personen genutzt werden kann (Laurenzi et al., 2019, S.1). Die Autoren definieren drei Subziele, für die sie jeweils distinkte KI- Techniken vorsehen. Für das Ziel der Ähnlichkeits-Identifikation zwischen Modellen schlagen die Autoren die Nutzung von case-based reasoning unter Integration von individuell (durch Experten) zugeordneten Gewichten vor (Laurenzi et al., 2019, S.3). Zur Erreichung des Ziels des Erlernens des Abstraktionslevels eines Musters wollen sie das case-based reasoning um reinforcement learning erweitern und für die Beschreibung (i.S. von Annotationen) NLP-Techniken verwenden (Laurenzi et al., 2019, S.4). Ein Prototyp wird von den Autoren in dieser Arbeit nicht vorgestellt. Fumagalli et al. stellen in ihrer Arbeit “Towards Automated Support for Conceptual Model Diagnosis and Repair” ein Konzept vor, das dazu dienen soll Anti-Patterns, im Sinne von fehleranfälligen Modellierungsstrukturen, KI-gestützt zu erkennen und so einer Reparatur zuzuführen. In ihren vorläufigen Forschungsergebnissen (Fumagalli et al., 2020, Seiten 15-16) präsentieren die Autoren hierzu einen mehrstufigen Ansatz. Hierbei werden zunächst verschiedene Modellzustände simuliert und dann in einem zweiten Schritt inhaltlich falsche oder ungewollte Modellzustände von gewünschten Zuständen durch Experten-Modellierer unterschieden (Fumagalli et al., 2020, Seiten 19-20), wodurch ein gelabelter Datensatz konstruiert wird. Dieser gelabelte Datensatz wird in seiner Gesamtheit in eine Pattern-Matrix transformiert. Die Autoren führen aus, dass diese Transformation weitestgehend automatisiert werden könne (Fumagalli et al., 2020, Seiten 22-23) und die erlangte Pattern-Matrix aufgrund ihres Aufbaus verschiedenen KI- Techniken zugänglich sei. In der betrachteten Arbeit nutzen Fumagalli et al. für die Identifikation von Mustern und Regeln einen decision tree. Hierbei ist anzumerken, dass sie an den Entscheidungsknoten weights kodieren, die dem durchschnittlichen binären Feedback der Experten, hinsichtlich der Beurteilung der Muster in gewünscht und nichtgewünscht entsprechen. Wenn zwischen den Beurteilungen der Experten Widersprüche bestehen, wird für die weights das arithmetische Mittel berechnet, sodass die ermittelten Werte im Zahlenraum zwischen 0 und 1 liegen (Fumagalli et al., 2020, Seiten 22-24).
7.2. Forschungsansatz 2: Verbesserte Wiederverwendung von Modellen
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 10 KI-Techniken Forschungsansatz 2, eigene Darstellung KI-Techniken per Jahr
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 11 KI-Techniken per Jahr Forschungsansatz 2, eigene Darstellung
Die verbesserte Wiederverwendbarkeit von Modellen und Modellkomponenten soll den Verlust von existierenden Modellen und Modellkomponenten verhindern und so die zeit- und kostenaufwendige Neumodellierung vermeiden sowie den Software-Entwicklungsprozesses verbessern (Thonggoom et al., 2011, S.1). Ein weiteres Ziel besteht darin Modellierenden einen Zugriff auf existierende Modelle im Sinne von best practices zu ermöglichen (Ho-Quang et al., 2014, S.1). Die älteste identifizierte Publikation, die sich mit diesem Forschungsansatz befasst, datiert auf das Jahr 2011. In ihrer Arbeit “EIPW: A knowledge-based database modeling tool” stellen Thonggoom et al. ihr Tool EIPW vor. Dieses soll modellierende Personen im Rahmen eines Modellierungsprozesses unterstützen, indem es als wiederverwendbares Muster-Verzeichnis für Entitäten und Relationen funktioniert (Thonggoom et al., 2011, S.8). Es verwendet hierfür NLP- Techniken (POS und WordNet), um in Anforderungsspezifikationen mögliche Entitäten aus Substantiven zu identifizieren und diese Informationen mit vorhandenem Domänenwissen zu kombinieren. Hierbei verwendeten die Autoren auch Hypernyme, die in WordNet hinterlegt sind. Die Kombination von Domänenwissen und Hypernymen wird dazu genutzt unpassende Substantive zu eliminieren (Thonggoom et al., 2011, Seiten 4-8). Relationen werden über Informationen aus vorhandenen Databases rekonstruiert, wobei die Rekonstruktion ausschließlich binär, d.h immer zwischen zwei Entitäten, erfolgt (Thonggoom et al., 2011, Seiten 5-7). Die Autoren haben den Nutzen und die Funktionalität von EIPW im Rahmen eines Experiments mit zwanzig Studierenden getestet und konstatieren eine signifikant bessere Leistung derjenigen Gruppe, welche das Tool EIPW nutzten (Thonggoom et al., 2011, Seiten 12-14). Die vier weiteren Arbeiten, die sich mit der Wiederverwendung von vorhandenen Modellen und Modellstrukturen befassen, widmen sich insbesondere der Frage wie Modelle in großen Sammlungen von Bilddateien automatisch erkannt werden können. Das jüngste in dieser Thesis betrachtete Konzept hierzu wird in der Arbeit „Automatic Classification of UML Class Diagrams from Images“ von Ho-Quang et al. aus dem Jahr 2014 dargestellt. Aufbauend auf Arbeiten von Karasneh et al. (Karasneh and Chaudron, 2013a, 2013b, 2013c), die das gleiche Ziel verfolgten allerdings keinen KI-basierten Ansatz wählten, zielen Ho-Quang et al. explizit darauf ab verschiedene klassische KI-Ansätze (decision tree unter Nutzung der Algorithmen J4.8, SVM-tree & REP-tree, logistische Regression & random forests) hinsichtlich ihrer Anwendbarkeit für die Erkennung von UML- Diagrammen in Bildsammlungen zu evaluieren (Ho-Quang et al., 2014, Seiten 399-400). Ho-Quang et al. nutzen eine Bildsammlung von 1300 Bildern (650 UML und 650 nicht UML Diagramme), die über die Google Bildersuche zusammengestellt wurde für einen supervised learning approach (Ho-Quang et al., 2014, Seiten 401-402). Als Input der KI- Algorithmen wurden a priori dreiundzwanzig Eigenschaften definiert, von denen sich neunzehn als einflussreiche Prädiktoren bestätigten (Ho-Quang et al., 2014, S. 403). Zur Evaluation der Leistungsfähigkeit der KI-Techniken nutzen die Autoren eine Wahrheitsmatrix, wobei die Autoren die Spezifität, also die Entscheidung ob ein Diagramm kein UML-Diagramm ist, als relevanter betrachten als die Sensitivität. Die Sensitivität bezeichnet hier das Erkennen eines UML-Diagramms. In dieser Auswertung zeigte sich der J4.8 decision tree Algorithmus den anderen geprüften Techniken überlegen (Ho-Quang et al., 2014, Seiten 404-405). Zu diesem Ansatz wurden zwei Beiträge der Gruppe Moreno et al. identifiziert. In der früheren Arbeit „Automatic classification of web images as UML diagrams” aus dem Jahr 2016 betrachteten die Forscher eine Bildersammlung von 18.899 Bilddateien und zielten darauf ab mittels decision-tree Algorithmen eine möglichst gute Erkennung der Subgruppe von 794 statischen UML-Diagrammen zu erreichen und über rule-induction wenn-dann Muster zu generieren (Moreno et al., 2016, Seiten 1-2). Hierzu wurden die Bilddateien von Experten manuell gelabelt und ein supervised learning Konzept gewählt. Als Input wurden verschiedene Eigenschaften der Bilddateien wie die Graustufen, die Farbtöne sowie geometrische Besonderheiten verwendet (Moreno et al., 2016, Seiten 2-5). Zur Validierung des Ansatzes erfolgte abschließend eine Prüfung in zehn Funktionstests wobei eine durchschnittliche Präzision von 0,953, ein recall von 0,933 und ein agreement von 94,4% erreicht wurde (Moreno et al., 2016, S.6). Diese Erkenntnisse wurden in ihrer Arbeit aus dem Jahr 2020 “Automatic Classification of Web Images as UML Static Diagrams Using Machine Learning Techniques“ um einen Vergleich mit den Ergebnissen von Ho-Quang et al. erweitert, wobei die Autoren ausführen, dass sie mit der gewählten Technik eine höhere Genauigkeit bei gleichzeitig weniger Bildeigenschaften als Input erreichen (Moreno et al., 2020, S. 20-21). 2021 erfolgten dann Publikationen zweier unabhängiger Forschungsgruppen (Bethany et al., 2021; Tavares et al., 2021), die Techniken zur Identifikation von UML-Diagrammen vorstellten, die künstliche neuronale Netze und im Falle von Tavares et al. zusätzlich auch einen transfer learning Ansatz verwendeten. Bethany et al. nutzen in der Publikation “Automatic Classification of UML Class Diagrams Using Deep Learning Technique: Convolutional Neural Network” für die Identifikation der Modelle ein convolutional neural network. Diese finden typischerweise Anwendung in der Mustererkennung von Bildern und wurden von den Autoren im Rahmen eines supervised learning Ansatzes implementiert (Bethany et al., 2021, Seiten 1-2). In acht Funktionstests verglichen die Forscher die Leistungsfähigkeit verschiedener normalisierter Bildgrößen sowie verschiedener Architekturen des convolutional neural networks mit und ohne regularization-Technik. Das verwendete Trainingsdatenset bestand hierbei aus 3282 Bildern von denen 1635 UML- Klassendiagramme waren. Dieses Datenset wurde mittels data-augmentation erweitert, um einen größeren Datensatz zu simulieren. Die höchste erreichte accuracy des Systems wird von den Autoren mit 86,63% angegeben (Bethany et al., 2021, Seiten 1013). Auch Tavares et al. nutzen in ihrer Arbeit „Classification of UML Diagrams to Support Engineering Education“ ein convolutional neural network, erweitern dieses jedoch um die ML-Technik des transfer learnings und zielen nicht nur auf die Erkennung von Klassendiagrammen sondern auf die Identifikation von Klassen-, Use-Case-, Sequenz-, Komponenten-, Aktivitäts- und Deployment-UML-Diagrammen. Das hierzu genutzte Trainingsdatenset bestand aus 200 Bildern jeder Kategorie und der Testdatensatz aus 50 Bildern pro Kategorie. Die Bilder wurden vor dem Input auf 900x900 Pixel normalisiert und in Graustufen transformiert. Data-augmentation wurde verwendet, um das Trainingsdatenset zu erweitern (Tavares et al., 2021, S. 5). In insgesamt zwei Funktionstests wurden verschiedene transfer learning Strategien sowie unterschiedliche Architekturen verglichen. Die höchste accuracy wurde mit der Architektur Inception V3 bei dem augmented Datensatz und einer transfer learning Strategie mit 98,7 ± 1% erreicht. Die Autoren schlussfolgern daher, dass die Kombination von transfer learning und data-augmentation ein sinnvoller Ansatz ist um deep-learning-Techniken auf das Problem der Erkennung von Modellen in Bilddatensätzen anzuwenden (Tavares et al., 2021, Seiten 6-7).
7.3. Forschungsansatz 3: Verbessertes Modellalignment
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 12 KI-Techniken Forschungsansatz 3, eigene Darstellung
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 13 KI-Techniken per Jahr Forschungsansatz 3, eigene Darstellung
Dieser Forschungsansatz beschreibt das Ziel die konzeptuellen Modelle verschiedener Modellierender hinsichtlich ihrer gewählten Modellelemente (Bezeichner, Gateways etc.) aufeinander abzustimmen. Dies soll Konflikte zwischen Modellen verhindern und entstehende Kosten reduzieren. Auch Domänenmodelle könnten so vereinfacht abgeleitet werden. Dieser Forschungsstrang wurde im Jahr 2020 von Aydemir et al. aufgegriffen (Aydemir und Dalpiaz, 2020). Die Forscher nutzen in ihrer Veröffentlichung „Supporting Collaborative Modeling via Natural Language Processing“ NLP-Techniken, um die Kollaboration zwischen verschiedenen Modellierenden, die in derselben Domäne arbeiten, zu vereinfachen. Die Autoren zielen darauf ab einen Gegenentwurf zu einem komplexen Meta-Modell zu schaffen. Auf der Funktionsebene vergleicht das vorgestellte System Begriffe, d.h. zusammengesetzte Substantive, zwischen den Modellen verschiedener Modellierender. Es nutzt dazu die berechnete semantische Ähnlichkeit der Begriffe und identifiziert dann Begriffe und Terme, die in Modellen nicht berücksichtigt wurden. Kandidatenkonzepte, die diesen Termen zugeordnet sind, werden den Modellierenden dann vorgeschlagen und können so in das Modell integriert werden (Aydemir und Dalpiaz, 2020, Seiten 1-2). Zur Bestimmung der semantischen Ähnlichkeit der Begriffe werden von den Autoren zwei Heuristiken verwendet. Die erste nutzt hierzu word2Vec und WordNet. Die zweite verwendet ein Domänen-Glossar und basiert auf Domänenmodellen und der literarischen Ähnlichkeit von Begriffen (Aydemir und Dalpiaz, 2020, Seiten 6-7).
7.4. Forschungsansatz 4: Modellierungsassistenz
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 14 KI-Techniken Forschungsansatz 4, eigene Darstellung KI-Techniken per Jahr
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 15 KI-Techniken per Jahr Forschungsansatz 4, eigene Darstellung
Feltus et al. diskutieren diesen Forschungsansatz als Führung des Modellierungsprozesses und die Bereitstellung expliziter Strategien für die konzeptuelle Modellierung (Feltus et al., 2021, S.81). In dieser Thesis soll dieser Forschungsansatz jedoch alle Formen der Modellierungsassistenz beinhalten, die darauf abzielen modellierenden Personen Hilfe beim Modellierungsprozess zum Beispiel durch ein Vorschlagssystem zur Verfügung zu stellen. In diesem Sinne datiert der erste identifizierte Beitrag auf das Jahr 2011. Es handelt sich hierbei um den bereits ausführlich in Kapitel 7.2 vorgestellten Forschungsbeitrag von Thonggoom et al.. Der nächste Beitrag datiert das Jahr 2012: “Semantic Machine Learning for Business Process Content Generation“ von Wasser und Lincoln. Die Autoren stellen in dieser Arbeit ein Assistenzsystem vor, welches Modellierende KI-gestützt in der Wahl passender Elemente und Bezeichner in Prozessmodellen assistieren soll (Wasser und Lincoln, 2012, Seiten 74-79). Kern der Arbeit ist ein lernender descriptor space. Dieser enthält Deskriptoren, die jeweils aus einem Quadrupel mit den Informationen object dimension (Objekte), actor dimension (Aktionen) und qualifiers bestehen. Qualifier beinhalten zusätzliche Informationen für Aktionen und Objekte, beispielsweise „wheat“ als Ziel für die Aktion „mix“. Die Autoren führen an, dass solche Deskriptoren über NLP-Techniken, wie dem Stanford-Parser, aus natürlichsprachlichen Texten konstruiert werden können (Wasser und Lincoln, 2012, S.76). Der descriptor space enthält alle denkbaren Kombinationen der descriptor Komponenten inklusive nur virtueller Formen. Für jede Kombination lässt sich ausgehend vom natürlichsprachlichen Input eine Distanzfunktion, die von der syntaktischen Beziehung der identifizierten Elemente abhängt, aufstellen und damit eine hierarchische Distanz zwischen Objekten und Aktionen berechnen. Zusätzlich implementieren die Autoren das Konzept einer learned proximity (Wasser und Lincoln, 2012, Seiten 76-85). Werden unter Nutzung dieses descriptor spaces Prozessmodelle erstellt, so wird der modellierenden Person eine Liste mit möglichen nächsten passenden Objekten/Aktionen abhängig von der errechneten Distanz vorgeschlagen. Die modellierende Person wählt nun das passende Item aus den vorgeschlagenen Elementen aus. Durch diesen Input wird die Distanz der Items im descriptor space angepasst. Werden virtuelle Kombinationen von Elementen realisiert, so werden diese im descriptor space durch reguläre ersetzt (Wasser und Lincoln, 2012, Seiten 80-85). Die Autoren testeten ihr Konzept anhand von zwölf Prozessen einer Bäckerei und es gelang ihnen durchschnittlich 83,3% der goal-Aktivitäten des Prozesses zu rekreieren (Wasser und Lincoln, 2012, S. 89). Ein weiteres Vorschlagssystem auf Basis von NLP wurde sechs Jahre später mit dem Beitrag „DoMoRe - A Recommender System for Domain Modeling“ von Agt-Rickauer et al. vorgestellt. In diesem Beitrag stellen die Autoren ein domain modelling recommender System vor, welches Modellierenden kontextsensitive Informationen in unterschiedlichen Abschnitten des Modellierungsprozesses liefern soll. Hierzu werden der modellierenden Person während der Modellierung Vorschläge für die Benennung von Klassen und Assoziationen angeboten. Die Autoren wollen mit dieser Arbeit explizit das Problem adressieren, dass professionelle Modellierende sich regelmäßig zeitintensiv in komplexe Domänen(sprachen) einarbeiten müssen (Agt-Rickauer et al., 2018, S.1-2). Das vorgestellte Konzept nutzt NLP-Techniken um große Mengen von wissenschaftlichen und nicht-wissenschaftlichen Büchern (explizit Google Books & N-Gram Corpus) zu verarbeiten und aus diesen Informationen hinsichtlich existierender Domänen-Sprachen zu extrahieren. Hierzu wird part of speech tagging verwendet, um technische Terme zu identifizieren und das verknüpfte Auftreten mit weiteren Termen zu erfassen. Die so gewonnen Informationen werden verwendet, um ein semantisches Netzwerk zu erzeugen, wobei Eigennamen ausgeschlossen werden. Für das Vorschlags- und autocomplete System ist in DoMoRe außerdem ein Ranking System implementiert, welches auf lexicographers mutual information basiert. Dies soll verhindern, dass allgemeine sprachliche Begriffe stets an erster Stelle vorgeschlagen werden (Agt- Rickauer et al., 2018, Seiten 4-6, 9). 2019 wurden von zwei Forschungsgruppen Arbeiten an Systemen begonnen, die Modellierende aktiv semantische Unterstützung anbieten sollen (Laurenzi et al., 2019; Saini et al., 2020a, 2020b, 2020c, 2019). Der Beitrag von Laurenzi et al. wurde bereits in Kapitel 7.1 dargestellt. Die vier identifizierten Arbeiten von Saini aus den Jahren 2019-2020 (Saini et al., 2020a, 2020b, 2020c, 2019) befassen sich mit der Entwicklung eines umfangreichen Bots zur Modellierungsassistenz. Dieser integriert Funktionen zur Extraktion von Domänen-Modellen aus natürlichsprachlichen Texten und zur natürlichsprachlichen Kommunikation mit Modellierenden. Das Ziel der Autoren ist es die Qualität von Domänenmodellen von nicht-Experten zu optimieren und für Lernende einen KI-gestützten Bot zu schaffen, der über Modellierungsvorschläge die Modellierungsfähigkeiten verbessert (Saini et al., 2020a, Seiten 1,4). In ihrer aktuellsten Arbeit kombinieren die Autoren hierzu mehrere KI-Techniken. NLP-Techniken werden primär genutzt um Domänen-Modelle aus Problembeschreibungen zu extrahieren. Die so gewonnenen Informationen dienen als Input für überwachte Klassifizierungsmethoden (Classifier) wie linear discriminant analysis und logistische Regressionsmodelle. Diese werden dazu verwendet Kategorien wie Klassen und Attribute sowie die Datentypen zu bestimmen. Die Autoren verwenden außerdem künstliche neuronale Netze um Beziehungstypen und Kardinalitäten vorherzusagen und kontextuelle Informationen zu erlernen. Um Sätze und Wörter für statistische ML-Techniken nutzbar zu machen, werden pre trained word embeddings dazu verwendet Wörter in Vektoren zu transformieren. Hierbei stehen semantisch verwandte Wörter näher zueinander im Raum als semantisch entfernte (Saini et al., 2020a, Seiten 2-3). Die Verarbeitung natürlichsprachlicher Texte erfolgte im DoMoBot wie folgt: Die über NLP gewonnenen Informationen bilden gemeinsam ein concept dictionary, welches neben einem descriptive model und einem descriptive trace model, alle identifizierten tokens inklusive part of speech tags, dependency labels, Lemmata und Positionen im Satz enthält. Identifizierte Konzepte des concept dictionaries werden gruppiert und die enthaltenen Sätze unter Nutzung der pre trained word embeddings in Vektoren und Matrizen transformiert. Aus dem concept dictionary wird dann unter Verwendung von statistischem ML ein predictive (domain) model geschaffen, welches um die Kategorien Klasse und Attribut sowie die Datentypen, Beziehungen und Kardinalitäten erweitert ist. Abschließend erfolgt dann eine Fusion der Informationen von predictive und descriptive model unter Nutzung von Heuristiken. Der DoMoBot, welcher auf den gewonnen Informationen basiert, enthält eine Kommunikationskompenente, die die Kommunikation mit der modellierenden Person erlaubt und es so unter anderem ermöglicht fehlerhafte Kardinalitäten oder falsch zugeordnete Attribute manuell anzupassen (Saini et al., 2020a, Seiten 4-7). Acht Test-Sets (Problembeschreibungen) unterteilt in die Gruppen TS1 (5 Problembeschreibungen) und TS2 (3 Problem-beschreibungen) wurden zur Evaluation des Systems verwendet. TS1 wurde hierbei zur Extraktion des DomänenModels und für das Anlernen der KI-thresholds verwendet. Anschließend wurde die prädiktive Genauigkeit zur Bestimmung der Kardinalitäten, Klassen, Attribute und Beziehungen an TS2 getestet. Saini et al. vergleichen die Ergebnisse der Evaluation mit denen ihrer früheren Arbeiten. Sie betrachten den aktuellen Stand ihres Prototypen gegenüber früheren Versionen und dem wissenschaftlichen stand of the art als überlegen; insbesondere deshalb, da es ihnen erstmals gelang Kardinalitäten vorherzusagen (Saini et al., 2020a, Seiten 8-10). Shilov et al. und ihre Publikation „Machine Learning-Based Enterprise Modeling Assistance: Approach and Potentials“ sind der jüngste betrachtete Beitrag zum Forschungsansatz 4. Das von den Autoren vorgestellte Konzept implementiert erneut ein Vorschlagssystem und basiert auf einer graph-based neural network Architektur und NLP (Shilov et al., 2021). Shilov et al. vermuten, dass solche graph-based neural network Architekturen dazu genutzt werden können, eine Vielzahl verschiedener Assistenzangebote bereitzustellen (Shilov et al., 2021, Seiten 19-20):
1. Vorschlag möglicher Verbindungen in wahrscheinlichkeitsabhängiger Reihenfolge
2. Identifikation falscher Verbindungen
3. Vorschlag hinsichtlich der Klasse einer Verbindung
4. Identifikation falsch gelabelter Verbindungen
5. Vorschlag der Knoten-Klassen
6. Identifikation falsch klassifizierter Knoten
7. Vorschlag neu zu erstellender Knoten
8. Modell Verifikation
9. Modell Validierung (Shilov et al., 2021, S.24)
Die Autoren merken allerdings an, dass die Ansätze 8 und 9 zum jetzigen Zeitpunkt nicht realisiert werden könnten, da die benötigten großen Datensätze, insbesondere für Spezialdomänen nicht vorlägen (Shilov et al., 2021, S.25). Zum Training ihres graphbased neural networks wurden von den Forschern fünfundfünfzig Geschäftsmodelle mit 1728 Verbindungen und fünfunddreißig Knoten-Klassen verwendet. Sie nutzen außerdem word2vec in Verbindung mit der Skip-gram architecture, um die Namen und Attribute der Knoten zu kodieren (Shilov et al., 2021, Seiten 25-27). Die Vorhersagerate falscher und richtiger Elemente (Knoten und Kanten) wurde an einem Test-Datenset geprüft. Von 1000 Elementen wurden 962 korrekt klassifiziert. Shilov et al. folgern daher, dass die Anwendung von KI zur Assistenz von Modellierenden grundsätzlich möglich sei und sehen ein signifikantes Potential. Probleme bestünden insbesondere in der Beschaffung passender Trainingsdaten sowie in der Gefahr des Nudgings der modellierenden Person in Richtung einer Mainstream-Lösung durch Assistenzsysteme (Shilov et al., 2021, Seiten 29-30).
7.5. Forschungsansatz 5: Korrektur und Validierung von Modellen
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 16 KI-Techniken Forschungsansatz 5, eigene Darstellung
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 17 KI-Techniken per Jahr Forschungsansatz 5, eigene Darstellung
Zwar wurde dieser Forschungsansatz von Fettke et al., 2020, Feltus et al., 2021 und Maass und Storey, 2021 als Anwendung von KI-Techniken für die konzeptuelle Modellierung diskutiert, allerdings konnte in der Literatursuche dieser Thesis nur ein Beitrag identifiziert werden, der diesen Ansatz explizit verfolgt. In ihrer in Kapitel 7.1 ausführlich dargestellten Arbeit konzipieren Fumagalli et al. ein fünf-stufiges Rahmenwerk zur Validierung und Reparatur von Modellen (Fumagalli et al., 2020, Seiten 19-20).
7.6. Forschungsansatz 6: Automatische Modellierung
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 19 KI-Techniken per Jahr Forschungsansatz 6, eigene Darstellung
Die automatische Modellierung ist der in den identifizierten Publikationen am häufigsten aufgegriffene Forschungsansatz. Er wurde auch in den drei betrachteten Meta-Arbeiten von Fettke et al., 2020, Feltus et al., 2021 und Maass und Storey, 2021 diskutiert.
Das Ziel ist die (voll)automatische Modellierung von konzeptuellen Modellen aus vorhandenen Daten. Dieses Ziel ist abzugrenzen von dem Ziel der Assistenz der modellierenden Person (siehe dazu Forschungsansatz vier). Ziel ist eine signifikante Reduktion von Modellierungskosten und -zeit (u.a. Friedrich et al., 2011, S.1). Acht der identifizierten Arbeiten verwenden für dieses Ziel Varianten von Regeln in Kombination mit NLP, um aus natürlichsprachlichen Texten Elemente für Prozess-, Klassen- oder Domänen-Modelle zu extrahieren. Wegen der Ähnlichkeit vieler Ansätze und der Vielzahl der identifizieren Beiträge sollen an dieser Stellte nur die relevantesten dargestellt werden. Hierzu wird u.a. Bezug genommen auf die Literaturarbeit „Mining Process Models from Natural Language Text: A State-of-the-Art Analysis“ von Riefer et al. 2016. Die Autoren dieser Arbeit arbeiten den Forschungsstand des Jahres 2016 auf. Sie konnten zu diesem Zeitpunkt vier Arbeiten identifizieren (Epure et al., 2015; Friedrich et al., 2011; Gongalves et al., 2009; Sinha und Paradkar, 2010), die im Betrachtungszeitraum dieser Thesis publiziert wurden und die das Ziel der automatisierten Erstellung von Prozessmodellen verfolgten. Alle identifizierten Arbeiten nutzen NLP-Techniken. Künstliche neuronale-Netze oder andere klassische KI-Techniken wurden von den Autoren nicht identifiziert (Riefer et al., 2016, S. 8). Nach Ansicht der Autoren kombiniert die Arbeit „Process Model Generation from Natural Language Text“ von Fiedrich et al. (Friedrich et al., 2011) frühere Ansätze und stellte den damaligen state of the art dar (Riefer et al., 2016, S. 10). Friedrich et al. verwendeten NLP-Techniken (Stanford Parser, FrameNet, WordNet), um zunächst eine strukturierte Repräsentation der Informationen eines natürlichsprachlichen Textes in Form eines world models zu generieren. In diesem world model werden actor, resource, action und flow als Hauptelemente definiert und gewonnene syntaktische und semantische Analyseergebnisse hinzugefügt (Friedrich et al., 2011, Seiten 2-5). Die eigentliche Transformation erfolgt sequentiell. In einem ersten Schritt erfolgt die Analyse auf Satzebene. Hierbei werden die Sätze zunächst tokenisiert und Markerwörter, wie if, and und then identifiziert sowie komplexe Sätze in Bedeutungselemente getrennt. Actors und actions werden über die Analyse der grammatikalischen Beziehungen extrahiert und um die Objekte der Aktion erweitert. In einem nächsten Schritt erfolgt die Analyse auf Textebene, die die Beziehung der Sätze zueinander identifizieren und die Informationen im world model erweitern soll. Hierzu werden WordNet, Stanford Parser und ein Anaphora Auflösungs-Algorithmus verwendet. Identische Prozesse werden fusioniert. Die Begriffe or, and/or und and werden von dem System erkannt und in Gateways übersetzt (Friedrich et al., 2011, Seiten 5-8). Aus dem gewonnenen world model wird ein Geschäftsprozessmodell in UML Notation generiert (Friedrich et al., 2011, Seiten 8-9). Die Autoren validieren ihr Modell anhand von zehn verschiedenen Testmodellen durch eine Ähnlichkeits-Formel und geben an, dass ihr System im Durchschnitt 77% der Test-Modelle korrekt generiert habe (Friedrich et al., 2011, Seiten 9-13). Die Arbeit „A Semi-Automatic Approach to Identify Business Process Elements in Natural Language Texts“ von César et al. nutzt ebenfalls NLP zur Identifizierung von Prozess-Elementen in natürlichsprachlichen Texten (César et al., 2017, S. 251), erweitert das Vorgehen aber um die Entwicklung von DOC-Klassen, die durch syntaktische und part of speech Analysen generiert werden. Eine DOC Klasse ist ein Array des Textes, der Informationen über die Anzahl von Wörtern in einem Satz sowie die gewonnen Informationen des NLP-Processing (tokenisation, sentence recognition, part of speech, lemmatization, dependency parcing und named entitity recognition) kodiert. Anhand dieses Arrays erfolgt unter Verwendung von dreiunddreißig Regeln die Identifikation von Prozessen und Gateways (AND und XOR) (César et al., 2017, Seiten 253-254). Die Forscher verwenden zur Evaluation ihres Ansatzes einen Funktionstest anhand von drei Beispielprozessen in natürlicher Sprache. Dieses Vorgehen verbinden sie mit einer Befragung einer Gruppe von zweiundzwanzig Personen, von welchen 53% Prozessexperten sind. In der Arbeit wird angeben, dass die Mehrzahl der befragten Personen den genutzten Modellierungsregeln und den erstellten Modellen zustimmt. Angegeben werden precision, recall, F-measure und accuracy mit durchschnittlichen Ergebnissen von 84,44, 87,49, 85,455 und 91,92. Die Forscher betrachten ihren Ansatz insgesamt als aussichtsreich, merken aber limitierend an, dass die dreiunddreißig Regeln vorab definiert wurden, zukünftig jedoch durch KI-Technik bestimmt werden sollten. Es werden weitere Forschungsschritte bis hin zur vollständigen Erstellung eines Prozessmodells angekündigt (César et al., 2017, Seiten 257-260). Zur Erweiterung dieses Forschungsstandes stellten Honkisz et al. mit ihrer Arbeit „A Concept for Generating Business Process Models from Natural Language Description“ einen, ebenfalls NLP-basierten, fünfstufigen Ansatz vor:
1. Participants extraction
2. Subject-verb-object constructs extraction
3. Gateway keywords search
4. Intermediate process model generation
5. BPMN diagram generation (Honkisz et al., 2018, S. 16)
Im Unterscheid zu allen zuvor publizierten Beiträgen, nutzen die Autoren im ersten Schritt Ihrer Analyse zusätzlich eine automatisierte semantische Beurteilung um zu bestimmen, ob ein identifiziertes Substantiv/Subjekt sich als Akteur oder Objekt eignet. Die Subjekt-Verb-Objekt Konstrukte werden dann primär über die Syntax bestimmt und die Analyse der Gateways erfolgt über Schlüsselworte (Honkisz et al., 2018, Seiten 89). Im vierten Schritt wird zunächst kein vollständiges BPMN Modell, sondern ein spreadsheet basiertes Modell als intermediäre Repräsentation erzeugt. Dies soll die manuelle Korrektur von fehlerhaften Daten erlauben (Honkisz et al., 2018, S. 16). Die Funktion des Ansatzes wird dem Leser anhand eines natürlichsprachlichen Textes präsentiert (Honkisz et al., 2018, Seiten 14-16).
Neben dem Forschungszweig der Erstellung von Prozessmodellen besteht ein verwandter Forschungszweig, der sich mit der Erstellung von Domänen und KlassenModellen aus natürlichsprachlichen Texten befasst. Die in diesem Abschnitt aufgeführten Autoren (Arora et al., 2016; Deeptimahanti und Sanyal, 2011) verwenden wie alle zuvor dargestellten Autoren einen NLP basierten Ansatz, weshalb hier nur der jüngste identifizierte Beitrag repräsentativ vorgestellt wird. Arora et al. nutzen in „Extracting domain models from natural-language requirements: approach and industrial evaluation“ einen regelbasierten NLP Ansatz zur Erstellung von Domänenmodellen aus natürlicher Sprache. Hierbei verwenden sie die bereits etablierten Regeln die von Yue et al. (Yue et al., 2011, Seiten 92-93) im Rahmen ihrer Literaturstudie erarbeitet wurden und reduzieren sie auf diejenigen Regeln, die den Autoren für die Anwendung bei uneingeschränkter natürlicher Sprache nützlich erscheinen (Arora et al., 2016). Außerdem werden diese Regeln um drei zusätzliche erweitert (Arora et al., 2016, Seiten 3-5). Eine Besonderheit dieser Arbeit ist die Evaluation anhand von vier industriellen requirement documents in Verbindung mit einer empirischen Umfrage an Experten. Angegeben wird ein Wert von 83-96% hinsichtlich der Korrektheit der dargestellten Relationen, allerdings nur 29-43% für die Relevanz der Regeln. Eine wichtige Erkenntnis für die Autoren ist daher, dass die zukünftige Forschung sich der Relevanz der Regeln zuwenden solle (Arora et al., 2016, Seiten 7-10).
Abschließend soll die Arbeit „Automated Planning of Process Models: Design of a Novel Approach to Construct Exclusive Choices“ von Heinrich et al. aus dem Jahr 2015 vorgestellt werden, die sich mit der automatisierten Generierung von XOR-Gateways befasst und hierzu decision trees und search graphs verwendet (Heinrich et al., 2015, Seiten 1,3, 7). Für diesen Ansatz wurde eine gelabelte Aktionsdatenbank konstruiert, die Effekte und Bedingungen für Aktionen spezifiziert und als Repräsentationssprache fungiert. In einem vorbereitenden Planungsschritt werden hierzu zunächst Abhängigkeiten zwischen Aktionen anhand ihrer semantischen Beziehungen definiert. Hiernach werden, ausgehend von einem Initialstatus durch Vorwärts- und Rückwärtssuche nicht erreichbare Aktionen identifiziert und für die Anwendung des Such-Algorithmus ausgeschlossen. Auf diese Art soll sichergestellt werden, dass ausschließlich durchführbare Aktionsfolgen betrachtet und in den Suchgrafen eingeschlossen werden (Heinrich et al., 2015, Seiten 6-8). Da die für den decision tree und die Suchgrafen genutzten KI-Algorithmen für eine beobachtbare und deterministische Umwelt entwickelt wurden, diese aber bei der Planung von Geschäftsprozessmodellen nicht angenommen werden kann, nutzen die Autoren das Konzept der belief states anstelle von world states für die Definition der Planungsdomäne. In Kombination mit bekannten Zielzuständen und dem ebenfalls bekannten Initialzustand soll so ein auf belief states basierendes deterministisches state transition system definiert werden (Heinrich et al., 2015, Seiten 6-8). Ein solcher belief state wird als Tupel bestehend aus den Voraussetzungen für eine Aktion definiert. Er enthält hierbei alle Werte, die aufgrund der jeweiligen Durchführung eines Prozesses grundsätzlich möglich sind (Heinrich et al., 2015, Seite 9). Der eigentliche Konstruktionsprozess der XOR-Gateways erfolgt anhand eines auf dem ursprünglichen Suchgrafen basierenden extended search graph. In diesem stellen die belief states die Knoten dar. Jedem Knoten werden die möglichen Aktionen sowie ihre Voraussetzungen und ein Terminationsweg zugeordnet. Anhand des extended search graph können XOR-Beziehungen nun immer dann abgeleitet werden, wenn mehr als eine durchführbare Aktion einem belief state zugeordnet wird und sich diese Aktionen gegenseitig hinsichtlich ihrer Voraussetzungen ausschließen (Heinrich et al., 2015, Seiten 18-19). Das Konzept wurde anhand mehrerer Echtweltszenarien evaluiert. Hierbei konnte eine signifikante Anzahl von Aktionen und Status dargestellt werden, weshalb die Autoren die Anwendbarkeit des Ansatzes als gegeben ansehen. Die Autoren betrachten ihr Konzept als kostengünstigere Alternative, auch wenn menschlicher Input hinsichtlich des Bestimmens falscher Lösungen notwendig ist. Ein weiterer Vorteil sei die Betrachtung mehrerer möglicher Lösungen, durch die Einbeziehung aller denkbaren Zustände und Aktionen. Obwohl eine zusätzliche Planungszeit notwendig sei überwögen daher insgesamt die Vorteile in der Modellierungszeit. Limitierend führen sie an, dass ihr Ansatz nur XOR-Gateways konstruieren kann und keine vollständigen Prozessmodelle. Es sei außerdem nicht beantwortet worden, ob in der Praxis sinnvolle Modelle aus den möglichen Lösungen des Konzeptes gewählt werden können (Heinrich et al., 2015, Seiten 24-31).
7.7. Forschungsansatz 7: Transformation von Modellen
Abbildung in dieser Leseprobe nicht enthalten
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 20 KI-Techniken Forschungsansatz 7, eigene Darstellung
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 21 KI-Techniken per Jahr Forschungsansatz 7, eigene Darstellung
Die Transformation von Modellen wurde von allen Autoren der in dieser Thesis eingeschlossenen Meta-Arbeiten als Forschungsansatz diskutiert (Feltus et al., 2021; Fettke, 2020; Maass und Storey, 2021). Neben den bereits unter Forschungsansatz 6 diskutierten Ansätzen zur automatisierten Transformation von natürlichsprachlichen Texten in Modelle besteht die Möglichkeit Modelle in natürlichsprachliche Texte und Bilder in Modelle zu transformieren. Weiterhin können Modelle zum Zweck der maschinensprachlichen Interpretationsfähigkeit transformiert werden.
Im Kontext der Transformation von Modellen in natürlichsprachliche Texte wurde im Rahmen dieser Arbeit kein Beitrag identifiziert. Der Ansatz Bilder in Modelle umzuwandeln wurde von den Autoren Ho-Quang et al., Moreno et al., Bethany et al. und Tavares et al. berührt, ohne dass jedoch eine Transformation durchgeführt wurde. Alle Forschungsgruppen nutzten KI-Techniken (2x klassische KI, 2x neuronale Netze) zur Klassifizierung von Bildern als UML-Modelle (Bethany et al., 2021; Ho-Quang et al., 2014; Moreno et al., 2016; Tavares et al., 2021). Dies soll u.a. die Wiederverwendbarkeit der Modelle verbessern (Tavares et al., 2021, S.1). Gegebenenfalls kann die KI- gestützte Erkennung von Modellen und Modellelementen zukünftig Grundlage einer Bild zu Modell Transformation sein.
In einigen der vorgestellten Beiträge wurden Möglichkeiten dargestellt Modelle teilweise oder vollständig in ein maschinell interpretierbares Format zu transformieren, insbesondere um diese statistischen KI-Techniken zugänglich zu machen (Honkisz et al., 2018; Saini et al., 2020a), allerdings wurde diese Transformation in keinem Beitrag mittels KI-Techniken durchgeführt.
7.8. Forschungsansatz 8: Lehre
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 22 KI-Techniken Forschungsansatz 8, eigene Darstellung
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 23 KI-Techniken per Jahr Forschungsansatz 8, eigene Darstellung
Ein bisher nicht in Meta-Arbeiten diskutierter Ansatz für KI-Techniken für die KM ist die Lehre der KM. In diesem Zusammenhang sind zum einen die bereits dargestellten Arbeiten der Forschungsgruppe Saini et al. zu nennen, da diese über die implementierten Feedbackfunktionen ihres DoMoBots direkt Lehraufgaben übernehmen und darauf abzielen bei den Nutzern des Bots die Fähigkeiten der Modellierung zu verbessern (Saini et al., 2019), zum anderen ist hier aber auch die Arbeit „Automatic assessment of students’ software models using a simple heuristic and machine learning“ von Boubekeur et al. aus dem Jahr 2020 aufzuführen. Die Lehre konzeptueller Modellierung ist in der KM-Forschung, unter anderem wegen der besonderen kognitiven Herausforderungen für Lernende und der damit verbundenen Anforderungen an die Didaktik ein intensiv bearbeitetes Feld (etwa Bera und Poels, 2019; Bogdanova und Snoeck, 2019a; Rosenthal und Strecker, 2019). Die Erforschung möglicher Anwendungen von KI-Techniken zur Unterstützung bestehender Forschungserkenntnisse etwa hinsichtlich der Feedbackforschung (Bogdanova und Snoeck, 2019b) liegt daher nahe. Abzugrenzen ist dieses Thema von der Modellierungsassistenz, da das Ziel hier nicht primär auf der Verbesserung des konstruierten Modells, sondern auf dem Erreichen eines höheren Modellierungslevels oder der Optimierung des Lehrprozesses für Lehrende liegen soll.
Boubekeur et al. nutzen für ihren hier vorgestellten Ansatz verschiedene supervised KI- Techniken sowie Heuristiken, um die Benotung studentischer KM zu automatisieren: Logistische Regression, Naive Bayes, decision tree, random forest und nearest neighbour classifier. Die Autoren verglichen diese KI-Ansätze miteinander und verwendeten diese auch in Kombination mit einer einfachen Heuristik sowie einem komplexeren Algorithmus (Touch Core) anhand studentischer Modelle. Die manuelle Bewertung wurde als Goldstandard gesetzt (Boubekeur et al., 2020, Seiten 3-5, 8). Als Bewertungsschema wurden ein binäres Verfahren sowie das US-amerikanische Benotungssystem vorgesehen. Die höchste Genauigkeit hinsichtlich der binären Beurteilung erreicht hierbei die Naive Bayes mit 91,07%. Bezüglich der Benotung im US- amerikanischen Benotungssystem erreicht die Naive Bayes in Kombination mit der einfachen Heuristik und Touch Core mit 51,79% die höchste Genauigkeit. Diese Ergebnisse sehen die Autoren als nützlich für Lehrende an, da insbesondere die binäre Beurteilung nicht fern von den Ergebnissen der manuellen Beurteilungen liegt und es möglich seien sollte mit größeren Trainingsdatensätzen genauere Notenbeurteilungen zu erreichen (Boubekeur et al., 2020, Seiten 5-10).
8. Diskussion
8.1. Forschungslücken und Ausblick
Nachdem nun die verwendeten und diskutierten KI-Techniken und der aktuelle Forschungsstand dargestellt wurden, soll die Frage beantwortet werden inwieweit sich zukünftige Entwicklungen des Forschungsbereiches extrapolieren lassen und welche Forschungslücken bestehen. In ihrer Zielbeschreibung wurde von den Autoren der identifizierten Forschungsbeiträge mehrfach angegeben, dass die Erstellung konzeptueller Modelle teuer und zeitaufwendig sei und ein hohes Maß an Expertenwissen benötige. Angemerkt wird außerdem, dass sich die Interaktion zwischen Modellierungs- und Domänenexperten komplex darstelle (Friedrich et al., 2011, S.482). Nach Feltus et al., bewirke die zunehmende Digitalisierung gleichzeitig einen erhöhten Bedarf an konzeptuellen Modellen u.a. im Rahmen der Softwareentwicklung (Feltus et al., 2021, S.2). Es ist daher anzunehmen, dass auch der Bedarf an Lösungen für bestehende Herausforderungen im Kontext der KM zunehmen wird. Hiervon werden voraussichtlich nicht nur primär kostenreduzierende Ansätze wie die automatisierte Modellierung oder Ansätze zur besseren Wiederverwendbarkeit von Modellelementen profitieren. Auch mit einem zunehmenden Bedarf an gut ausgebildeten und erfahrenen Modellierungsexperten sowie Domänenexperten mit einem Verständnis für die konzeptuelle Modellierung ist zu rechnen, weshalb KI-gestützte Lösungen für Probleme der Lehre konzeptueller Modellierung ebenfalls weiter erforscht werden sollten. Unter Berücksichtigung der sich durch Smart-Work und Homeoffice verändernden Arbeitswelt, kommt es aktuell zu einer zunehmenden räumlichen Trennung von Mitarbeitenden. Daher scheinen auch KI-Ansätze zur verbesserten Abstimmung der Modelle von Modellierenden aussichtsreich. Unabhängig hiervon bergen auch die weiteren identifizierten Forschungsansätze Potentiale hinsichtlich Kostenreduktion und verbesserter Qualität. So dürften durch eine automatische Reparatur und gegebenenfalls auch die automatische Anpassung von Modellen an veränderte Modellierungsziele oder eine veränderte Unternehmensumwelt signifikante Erfolge realisierbar sein. Ein weiteres Potential besteht hinsichtlich der Anwendung von konzeptuellen Modellen als Kommunikationsbasis mit Stakeholdern: Die KI-gestützte wechselseitige Transformation von Modellen und Texten (z.B. Anforderungsdokumentationen) könnte hier unter Umständen die Abstimmung zwischen Modellierungsexperten und Domänenexperten ohne Modellierungserfahrung signifikant verbessern. Die Kombination verschiedener Modelle derselben Domäne zu einem umfassenden Domänenmodell dürfte durch eine automatisierte Assistenz ebenfalls erleichtert und gegebenenfalls automatisiert werden, da die Verwendung weitgehend identischer Bezeichner und Konzepte unterstützt wird.
Hinsichtlich der identifizierten Forschungsansätze ist eine auffällige Erkenntnis dieser Thesis, dass künstliche neuronale Netze, die einen maßgeblichen Anteil am aktuellen Aufschwung der KI-Forschung haben, bisher nur in einer Minderheit der identifizierten Beiträge verwendet werden. Künstliche neuronale Netze finden aktuell in verschiedensten Bereichen Anwendung, insbesondere in der Mustererkennung (u.a. Gesichtserkennung, Unterstützung medizinischer Diagnostik und Therapie). Da auch konzeptuelle Modelle wiederkehrende Muster beinhalten und einige der vorgestellten Autoren diesen Ansatz bereits erfolgreich implementieren, scheint die Erforschung der Integration von künstlichen neuronalen Netzen grundsätzlich für alle acht identifizierten Forschungsansätze aussichtsreich. Unter Berücksichtigung bisheriger Erfolge bei der Implementierung künstlicher neuronaler Netze sind hier signifikante Potentiale zu vermuten. Bestehende Herausforderungen dieses Ansatzes liegen in der benötigten großen Datenbasis für das Training der künstlichen neuronalen Netze und der Frage der idealen Repräsentationsform der Modelle für den Input.
Es existieren mehrere relevante Risiken der zunehmenden Nutzung (teil)automatisierter KI-gestützter Modellierungstechniken. Eines ist das Nudging. Hierbei handelt es sich um das subtile Drängen einer modellierenden Person in Richtung bereits existierender und der KI-bekannter Lösungen, was zum Verlust von neuen kreativen Lösungen führen könnte (Shilov et al., 2021, S.29). Dies wiederum könnte einen negativen Einfluss auf den Lernerfolg von Novizen, aber auch auf die Wettbewerbsvorteile von Unternehmen haben. Denkbar ist auch, dass Modelle nicht mehr streng hinsichtlich ihrer Verwendung und der Kommunikationspartner modelliert werden, sondern sich eine Art one-fits-all Ansatz durchsetzt. Dies deshalb, da unter Umständen Modelle zur Softwaremodellierung eher in ausreichender Zahl für adäquate Trainingssets vorliegen als etwa Modelle zur internen End-User Schulung (Fettke, 2009, S.575). Folglich würden sich KI- identifizierte Muster und Lösungen sich eher an ersteren Modellen orientieren und die individuelle Modellierung von Modellen für andere Anforderungen wäre ungleich aufwendiger und teurer. Zukünftige Forschungen sollten sich daher auch der Frage widmen, welche Risiken durch die Anwendung von KI-Techniken für die KM insbesondere hinsichtlich der Konkurrenzfähigkeit von nicht KI-gestützter Modellierung bestehen und welche Folgen für die Qualität der Modelle und hinsichtlich der Ausbildung von Novizen existieren.
8.2. Schlussbetrachtung und Limitationen der Arbeit
Zur Beantwortung der Forschungsfragen sollte eine Aufarbeitung der Literatur des Forschungsfeldes Anwendungen der KI für die KM erfolgen. Eine erste Herausforderung war die unklare Definition des Begriffes künstliche Intelligenz. Hier wurde mit dem Einschluss von NLP Techniken sowie dem Einschluss aller klassischer KI-Algorithmen und künstlicher neuronaler Netze ein umfassender Ansatz gewählt. Herausfordernd stellte sich auch die außerordentlich hohe Anzahl an Publikationen zur KI in den letzten Jahren und die Verwendung konzeptueller Modelle für die Entwicklung von KI dar. Dies machte, auch nach Wahl restriktiver Suchterme, eine intensive manuelle Sichtung einer hohen Zahl von Forschungsbeiträgen notwendig. Unter Berücksichtigung der Tatsache, dass eine deutlich höhere Anzahl von Artikeln in dieser Thesis eingeschlossen wurde als es bei den identifizierten Meta-Arbeiten der Fall war, geht der Autor dieser Thesis allerdings davon aus, dass eine weitestgehend vollständige Darstellung des Forschungsfeldes erreicht werden konnte und so die gestellten Forschungsfragen beantwortet wurden. Es konnten insgesamt acht Forschungsansätze zur Nutzung von KI im Kontext der KM identifiziert werden, wobei hierfür die Erkenntnisse der bestehenden Meta-Arbeiten von Feltus et al, Fettke et al. und Maas und Storey kombiniert und um den Forschungsansatz 8 zur Lehre konzeptueller Modellierung inhaltlich erweitert wurden. Hinsichtlich der zukünftigen Entwicklungen verbleiben Unsicherheiten. Gezeigt werden konnte allerdings, dass die Erforschung der Anwendung von KI für die KM eine Vielzahl von Potentialen und eine hohe Relevanz besitzt. Limitierend ist anzumerken, dass nicht ausgeschlossen werden kann, dass zusätzliche Forschungsbeiträge, insbesondere in weiteren Sprachen, existieren, die im Rahmen dieser Arbeit nicht betrachtet wurden. Weiterhin muss einschränkend angemerkt werden, dass es sich bei den identifizierten Beiträgen überwiegend um Konferenzbeiträge handelt, die unter Umständen, nicht der Qualität von Zeitschriftenartikeln entsprechen. Limitierend wirkt auch die alleinige Betrachtung der Literatur ab dem Jahr 2009. Frühere Entwicklungen des Forschungsfeldes wurden nicht berücksichtigt. Allerdings wird vermutet, dass relevante Ansätze in den vergangenen zwölf Jahren erneut aufgegriffen worden wären. Methodische Kritik an dem an Webster et al. angelehnten Literaturrechercheansatz wurde unter anderem von Kosztyan et al. geübt (Kosztyan et al., 2021). Sie sehen Struktur und Evolution eines Forschungsansatzes sowie die longitudinalen und die cross-sektionalen Beziehungen durch die Meta-Analyse nach Webster et al. nicht ausreichend erfasst und schlagen daher eine komplexe mehrschichtige Netzwerk-Darstellung, die auch Vorarbeiten und Zitationen weiterer Fachgebiete umfasst, vor. Ein solches Vorgehen ist allerdings mit dem formalen Rahmen dieser Thesis nicht übereinzubringen. Abschließend sei auf die formale Limitation des Umfangs dieser Arbeit hingewiesen, die eine teils verkürzte Betrachtung der Forschungsbeiträge notwendig machte.
9. Literaturverzeichnis
Aggarwal, C.C., 2021. Artificial Intelligence: A Textbook. Springer International Publishing, Cham. https://doi.org/10.1007/978-3-030-72357-6
Agt-Rickauer, H., Kutsche, R.-D., Sack, H., 2018. DoMoRe - A Recommender System for Domain Modeling:, in: Proceedings of the 6th International Conference on Model-Driven Engineering and Software Development. Presented at the 6th International Conference on Model-Driven Engineering and Software Development, SCITEPRESS - Science and Technology Publications, Funchal, Madeira, Portugal, pp. 71-82. https://doi.org/10.5220/0006555700710082
Arora, C., Sabetzadeh, M., Briand, L., Zimmer, F., 2016. Extracting domain models from naturallanguage requirements: approach and industrial evaluation, in: Proceedings of the ACM/IEEE 19th International Conference on Model Driven Engineering Languages and Systems, MODELS '16. Association for Computing Machinery, New York, NY, USA, pp. 250-260. https://doi.org/10.1145/2976767.2976769
Aydemir, F.B., Dalpiaz, F., 2020. Supporting Collaborative Modeling via Natural Language Processing, in: Dobbie, G., Frank, U., Kappel, G., Liddle, S.W., Mayr, H.C. (Eds.), Conceptual Modeling, Lecture Notes in Computer Science. Springer International Publishing, Cham, pp. 223-238. https://doi.org/10.1007/978-3-030-62522-1_16
Baker, C.F., Fillmore, C.J., Lowe, J.B., 1998. The Berkeley FrameNet Project, in: Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics - Volume 1, ACL '98/COLING '98. Association for Computational Linguistics, USA, pp. 86-90. https://doi.org/10.3115/980845.980860
Batra, D., Davis, J.G., 1992. Conceptual data modelling in database design: similarities and differences between expert and novice designers. Int. J. Man-Mach. Stud. 37, 83-101. https://doi.org/10.1016/0020-7373(92)90092-Y
Bera, P., Poels, G., 2019. How quickly do we learn conceptual models? European Journal of Information Systems 28, 663-680. https://doi.org/10.1080/0960085X.2019.1673972
Bera, P., Poels, G., 2017. The Effects of Construct Redundancy on Readers' Understanding of Conceptual Models: Journal of Database Management 28, 1-25. https://doi.org/10.4018/JDM.2017070101
Bethany, G., Chowdhuri, S., Singh, J., Gupta, M., Mishra, A., 2021. Automatic Classification of UML Class Diagrams Using Deep Learning Technique: Convolutional Neural Network. Applied Sciences. https://doi.org/10.3390/app11094267
Bogdanova, D., Snoeck, M., 2019a. CaMeLOT: An educational framework for conceptual data modelling. Information and Software Technology 110, 92-107. https://doi.org/10.1016/j.infsof.2019.02.006
Bogdanova, D., Snoeck, M., 2019b. Use of Personalized Feedback Reports in a Blended Conceptual Modelling Course, in: 2019 ACM/IEEE 22nd International Conference on Model Driven Engineering Languages and Systems Companion (MODELS-C). Presented at the 2019 ACM/IEEE 22nd International Conference on Model Driven Engineering Languages and Systems Companion (MODELS-C), IEEE, Munich, Germany, pp. 672679. https://doi.org/10.1109/MODELS-C.2019.00103
Boubekeur, Y., Mussbacher, G., McIntosh, S., 2020. Automatic assessment of students' software models using a simple heuristic and machine learning, in: Proceedings of the 23rd ACM/IEEE International Conference on Model Driven Engineering Languages and Systems: Companion Proceedings. Presented at the MODELS '20: ACM/IEEE 23rd International Conference on Model Driven Engineering Languages and Systems, ACM, Virtual Event Canada, pp. 1-10. https://doi.org/10.1145/3417990.3418741
Brocke, J. vom, Simons, A., Niehaves, B., Riemer, K., Plattfaut, R., Cleven, A., 2009.
Reconstructing the Giant: On the Importance of Rigour in Documenting the Literature Search Process. Presented at the Proceedings of the 17th European Conference on Information Systems (ECIS). Verone, Italy, S. 2206-2217.
Brodie, M.L., Mylopoulos, J., Schmidt, J.W. (Eds.), 1984. On Conceptual Modelling: Perspectives from Artificial Intelligence, Databases, and Programming Languages, Topics in Information Systems. Springer-Verlag, New York. https://doi.org/10.1007/978-1-4612- 5196-5
Brown, G., 2010. Ensemble Learning, in: Sammut, C., Webb, G.I. (Eds.), Encyclopedia of Machine Learning. Springer US, Boston, MA, pp. 312-320. https://doi.org/10.1007/978-0-387-30164-8_252
César, R., Ferreira, B., Thom, L., Thom, T., Fantinato, M., 2017. A Semi-Automatic Approach to Identify Business Process Elements in Natural Language Texts.
Chen, D., Manning, C., 2014. A Fast and Accurate Dependency Parser using Neural Networks, in: Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP). Presented at the EMNLP 2014, Association for Computational Linguistics, Doha, Qatar, pp. 740-750. https://doi.org/10.3115/v1/D14-1082
Chen, P.P.-S., 1976. The entity-relationship model - toward a unified view of data. in: ACM Transactions on Database Systems 1, 9-36. https://doi.org/10.1145/320434.320440
Deeptimahanti, D.K., Sanyal, R., 2011. Semi-automatic generation of UML models from natural language requirements, in: Proceedings of the 4th India Software Engineering Conference, ISEC '11. Association for Computing Machinery, New York, NY, USA, pp. 165-174. https://doi.org/10.1145/1953355.1953378
Dobrev, D., 2012. A Definition of Artificial Intelligence. arXiv:1210.1568v1 [cs.AI].
Embley, D., Liddle, S., Pastor, O., 2011. Conceptual-Model Programming: A Manifesto, in: Handbook of Conceptual Modeling: Theory, Practice, and Research Challenges. pp. 316. https://doi.org/10.1007/978-3-642-15865-0_1
Epure, E., Martin-Rodilla, P., Hug, C., Deneckère, R., Salinesi, C., 2015. Automatic process model discovery from textual methodologies: An archaeology case study. Proceedings - International Conference on Research Challenges in Information Science 2015, 1930. https://doi.org/10.1109/RCIS.2015.7128860
Feltus, C., Ma, Q., Proper, H.A., Kelsen, P., 2021. Towards AI Assisted Domain Modeling, in: Reinhartz-Berger, I., Sadiq, S. (Eds.), Advances in Conceptual Modeling, Lecture Notes in Computer Science. Springer International Publishing, Cham, pp. 75-89. https://doi.org/10.1007/978-3-030-88358-4_7
Fettke, P., 2020. Conceptual Modelling and Artificial Intelligence, in: Joint Proceedings of Modellierung 2020 Short, Workshop and Tools & Demo Papers Workshop on Models in AI. Presented at the MODELLIERUNG-C 2020 Modellierung 2020 Short, Workshop and Tools & Demo Papers, Vienna, Austria, pp. 157-168.
Fettke, P., 2009. How Conceptual Modeling Is Used. Communications of the Association for Information Systems 25. https://doi.org/10.17705/1CAIS.02543
Friedrich, F., Mendling, J., Puhlmann, F., 2011. Process Model Generation from Natural Language Text. pp. 482-496. https://doi.org/10.1007/978-3-642-21640-4_36
Fumagalli, M., Prince Sales, T., Guizzardi, G., 2020. Towards Automated Support for Conceptual Model Diagnosis and Repair, in: Advances in Conceptual Modeling, S. 15-25. pp. 15-25. https://doi.org/10.1007/978-3-030-65847-2_2
Fürnkranz, J., 2010. Decision Tree, in: Sammut, C., Webb, G.I. (Eds.), Encyclopedia of Machine Learning. Springer US, Boston, MA, pp. 263-267. https://doi.org/10.1007/978-0-387- 30164-8_204
Gers, F.A., Schmidhuber, J., 2000. Neural processing of complex continual input streams, in: Proceedings of the IEEE-INNS-ENNS International Joint Conference on Neural Networks. IJCNN 2000. Neural Computing: New Challenges and Perspectives for the New Millennium. Presented at the Proceedings of the IEEE-INNS-ENNS International Joint Conference on Neural Networks. IJCNN 2000. Neural Computing: New Challenges and Perspectives for the New Millennium, S.557-562. https://doi.org/10.1109/IJCNN.2000.860830
Gongalves, J.C., Santoro, F., Baiao, F., 2009. Business Process Mining from Group Stories. Presented at the Proceedings of the 2009 13th International Conference on Computer Supported Cooperative Work in Design, CSCWD 2009, pp. 161-166. https://doi.org/10.1109/CSCWD.2009.4968052
Goodfellow, I., Bengio, Y., Courville, A., 2016. Deep Learning, 1st ed. MIT Press.
Haenlein, M., Kaplan, A., 2019. A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence. California Management Review 61, 5-14. https://doi.org/10.1177/0008125619864925
Halpin, T., Morgan, T., 2008. 3 - Conceptual Modeling: First Steps, in: Halpin, T., Morgan, T. (Eds.), Information Modeling and Relational Databases (Second Edition), The Morgan Kaufmann Series in Data Management Systems. Morgan Kaufmann, San Francisco, pp. 59-108. https://doi.org/10.1016/B978-012373568-3.50007-2
Heinrich, B., Klier, M., Zimmermann, S., 2015. Automated Planning of Process Models: Design of a Novel Approach to Construct Exclusive Choices. Decision Support Systems 78, 114.
Hilgers, R.-D., Heussen, N., Stanzel, S., 2019a. ROC-Kurve, in: Gressner, A.M., Arndt, T. (Eds.), Lexikon der Medizinischen Laboratoriumsdiagnostik, Springer Reference Medizin. Springer, Berlin, Heidelberg, pp. 2080-2080. https://doi.org/10.1007/978-3-662- 48986-4_2712
Hilgers, R.-D., Heussen, N., Stanzel, S., 2019b. AUC, in: Gressner, A.M., Arndt, T. (Eds.), Lexikon der Medizinischen Laboratoriumsdiagnostik, Springer Reference Medizin. Springer, Berlin, Heidelberg, pp. 230-230. https://doi.org/10.1007/978-3-662-48986-4_326
Honkisz, K., Kluza, K., Wisniewski, P., 2018. A Concept for Generating Business Process Models from Natural Language Description. pp. 91-103. https://doi.org/10.1007/978-3-319- 99365-2_8
Ho-Quang, T., Chaudron, M., Samuelsson, I., Hjaltason, J., Karasneh, B., Osman, M.H., 2014. Automatic Classification of UML Class Diagrams from Images. https://doi.org/10.1109/APSEC.2014.65
Karasneh, B., Chaudron, M., 2013a. Online Img2UML Repository: An Online Repository for UML Models, in: EESSMOD@MoDELS.
Karasneh, B., Chaudron, M.R.V., 2013b. Extracting UML models from images, in: 2013 5th International Conference on Computer Science and Information Technology. Presented at the 2013 5th International Conference on Computer Science and Information Technology, pp. 169-178. https://doi.org/10.1109/CSIT.2013.6588776
Karasneh, B., Chaudron, M.R.V., 2013c. Img2UML: A System for Extracting UML Models from Images, in: 2013 39th Euromicro Conference on Software Engineering and Advanced Applications. Presented at the 2013 39th Euromicro Conference on Software Engineering and Advanced Applications, pp. 134-137. https://doi.org/10.1109/SEAA.2013.45
Kosztyan, Z.T., Csizmadia, T., Katona, A.I., 2021. SIMILAR - Systematic iterative multilayer literature review method. Journal of Informetrics 15, 101111. https://doi.org/10.1016/j.joi.2020.101111
Laurenzi, E., Hinkelmann, K., Jüngling, S., Montecchiari, D., Pande, C., Martin, A., 2019. Towards An Assistive and Pattern Learning-driven Process Modeling Approach.
Lukyanenko, R., Parsons, J., Storey, V., 2018. Modeling Matters: Can Conceptual Modeling Support Machine Learning? Presented at the AIS SIGSAND 2018.
Ma, Z., Leymann, F., 2008. A Lifecycle Model for Using Process Fragment in Business Process Modeling [WWW Document]. URL https://www.semanticscholar.org/paper/A- Lifecycle-Model-for-Using-Process-Fragment-in-Ma- Leymann/7764788ec2726f61011d9eb5c44c90f003c4ae0d (accessed 1.10.22).
Maass, W., Storey, V., 2021. Pairing conceptual modeling with machine learning. Data & Knowledge Engineering 134, 101909. https://doi.org/10.1016/j.datak.2021.101909
Mallick, B., Medinipur, P., Das, N., 2013. An Approach to Extended Class Diagram Model of UML for Object Oriented Software Design 1, 6.
Mayr, H.C., Thalheim, B., 2021. The triptych of conceptual modeling. Softw Syst Model 20, 724. https://doi.org/10.1007/s10270-020-00836-z
Mikotajczyk, A., Grochowski, M., 2018. Data augmentation for improving deep learning in image classification problem, in: 2018 International Interdisciplinary PhD Workshop (IIPhDW). Presented at the 2018 International Interdisciplinary PhD Workshop (IIPhDW), pp. 117-122. https://doi.org/10.1109/IIPHDW.2018.8388338
Moreno, V., Génova, G., Alejandres, M., Fraga, A., 2020. Automatic Classification of Web Images as UML Static Diagrams Using Machine Learning Techniques. Applied Sciences 10, 2406. https://doi.org/10.3390/app10072406
Moreno, V., Génova, G., Alejandres, M., Fraga, A., 2016. Automatic classification of web images as UML diagrams, in: Proceedings of the 4th Spanish Conference on Information Retrieval, CERI '16. Association for Computing Machinery, New York, NY, USA, pp. 1-8. https://doi.org/10.1145/2934732.2934739
Nwankpa, C.E., Eze, S.C., l.Ijomah, W., 2020. Deep Learning Based Visual Automated Sorting System for Remanufacturing, in: 2020 IEEE Green Technologies Conference(GreenTech) S.196-198. Presented at the 2020 IEEE Green Technologies Conference(GreenTech). https://doi.org/10.1109/GreenTech46478.2020.9289823
Pastor, O., van der Kroon, M., Levin, A.M., Celma, M., 2011. A Conceptual Modeling Approach to Improve Human Genome Understanding, in: Embley, D.W., Thalheim, B. (Eds.), Handbook of Conceptual Modeling: Theory, Practice, and Research Challenges.
Springer, Berlin, Heidelberg, pp. 517-541. https://doi.org/10.1007/978-3-642-15865-0
Princeton University, 2010. About WordNet [WWW Document]. URL https://wordnet.princeton.edu/ (accessed 1.12.22).
Ramesh, A.N., Kambhampati, C., Monson, J.R.T., Drew, P.J., 2004. Artificial intelligence in medicine. in: Annals of the Royal College of Surgeons of England, S. 334-338 86. https://doi.org/10.1308/147870804290
Riefer, Ternis, S.F., Thaler, T., 2016. Mining Process Models from Natural Language Text: A State-of-the-Art Analysis 12.
Robinson, S., Arbez, G., Birta, L.G., Tolk, A., Wagner, G., 2015. Conceptual modeling: Definition, purpose and benefits, in: 2015 Winter Simulation Conference (WSC). Presented at the 2015 Winter Simulation Conference (WSC), IEEE, Huntington Beach, CA, USA, pp. 2812-2826. https://doi.org/10.1109/WSC.2015.7408386
Rosenthal, K., Strecker, S., 2019. Toward a Taxonomy of Modeling Difficulties: A Multi-Modal Study on Individual Modeling Processes. ICIS 2019 Proceedings Digital Learning Environment and Future IS Curriculum 18.
Saini, R., Mussbacher, G., Guo, J.L.C., Kienzle, J., 2020a. DoMoBOT: a bot for automated and interactive domain modelling, in: Proceedings of the 23rd ACM/IEEE International Conference on Model Driven Engineering Languages and Systems: Companion Proceedings, MODELS '20. Association for Computing Machinery, New York, NY, USA, pp. 1-10. https://doi.org/10.1145/3417990.3421385
Saini, R., Mussbacher, G., Guo, J.L.C., Kienzle, J., 2020b. A Neural Network Based Approach to Domain Modelling Relationships and Patterns Recognition, in: 2020 IEEE Tenth International Model-Driven Requirements Engineering (MoDRE). Presented at the 2020 IEEE Tenth International Model-Driven Requirements Engineering (MoDRE), pp. 78-82. https://doi.org/10.1109/MoDRE51215.2020.00016
Saini, R., Mussbacher, G., Guo, J.L.C., Kienzle, J., 2020c. Towards Queryable and Traceable Domain Models, in: 2020 IEEE 28th International Requirements Engineering Conference (RE). Presented at the 2020 IEEE 28th International Requirements Engineering Conference (RE), IEEE, Zurich, Switzerland, pp. 334-339. https://doi.org/10.1109/RE48521.2020.00044
Saini, R., Mussbacher, G., Guo, J.L.C., Kienzle, J., 2019. Teaching Modelling Literacy: An Artificial Intelligence Approach, in: 2019 ACM/IEEE 22nd International Conference on Model Driven Engineering Languages and Systems Companion (MODELS-C). Presented at the 2019 ACM/IEEE 22nd International Conference on Model Driven Engineering Languages and Systems Companion (MODELS-C), IEEE, Munich, Germany, pp. 714719. https://doi.org/10.1109/MODELS-C.2019.00108
Serral, E., Snoeck, M., 2016. Conceptual Framework for Feedback Automation in SLEs, in: Smart Education and E-Learning 2016 S.97-107. pp. 97-107. https://doi.org/10.1007/978-3-319-39690-3_9
Shilov, N., Othman, W., Fellmann, M., Sandkuhl, K., 2021. Machine Learning-Based Enterprise Modeling Assistance: Approach and Potentials, in: Serral, E., Stirna, J., Ralyté, J., Grabis, J. (Eds.), The Practice of Enterprise Modeling, Lecture Notes in Business Information Processing. Springer International Publishing, Cham, pp. 19-33. https://doi.org/10.1007/978-3-030-91279-6_2
Singh, G., Kumar, B., Gaur, L., Tyagi, A., 2019. Comparison between Multinomial and Bernoulli Naive Bayes for Text Classification, in: 2019 International Conference on Automation, Computational and Technology Management (ICACTM). Presented at the 2019 International Conference on Automation, Computational and Technology Management (ICACTM), pp. 593-596. https://doi.org/10.1109/ICACTM.2019.8776800
Sinha, A., Paradkar, A., 2010. Use Cases to Process Specifications in Business Process Modeling Notation, in: 2010 IEEE International Conference on Web Services. Presented at the 2010 IEEE International Conference on Web Services, pp. 473-480. https://doi.org/10.1109/ICWS.2010.105
Stanford NLP Group, 2020. Stanford Parser [WWW Document]. URL https://nlp.stanford.edu/software/lex-parser.shtml (accessed 1.12.22).
Tan, C., Sun, F., Kong, T., Zhang, W., Yang, C., Liu, C., 2018. A Survey on Deep Transfer Learning, in: Kurkova, V., Manolopoulos, Y., Hammer, B., Iliadis, L., Maglogiannis, I. (Eds.), Artificial Neural Networks and Machine Learning - ICANN 2018, Lecture Notes in Computer Science. Springer International Publishing, Cham, pp. 270-279. https://doi.org/10.1007/978-3-030-01424-7_27
Tavares, J.F., Costa, Y.M.G., Colanzi, T.E., 2021. Classification of UML Diagrams to Support Software Engineering Education.
Ternes, B., Strecker, S., Rosenthal, K., Barth, H., 2019. A browser-based modeling tool for studying the learning of conceptual modeling based on a multi-modal data collection approach. Wirtschaftsinformatik 2019 Proceedings.
Thalheim, B., 2011. The Theory of Conceptual Models, the Theory of Conceptual Modelling and Foundations of Conceptual Modelling, in: Embley, D.W., Thalheim, B. (Eds.), Handbook of Conceptual Modeling: Theory, Practice, and Research Challenges. Springer, Berlin, Heidelberg, pp. 543-577. https://doi.org/10.1007/978-3-642-15865-0
Thonggoom, O., Song, I.-Y., An, Y., 2011. EIPW: A knowledge-based database modeling tool, in: Advanced Information Systems Engineering Workshops, S.119-133. https://doi.org/10.1007/978-3-642-22056-2_13
Wasser, A., Lincoln, M., 2012. Semantic Machine Learning for Business Process Content Generation. Presented at the International Journal of Cooperative Information Systems. https://doi.org/10.1007/978-3-642-33606-5_6
Webster, J., Watson, R., 2002. Analyzing the Past to Prepare for the Future: Writing a Literature Review. in: Management Information Systems Quarterly 26.2, S. XIII-XXIII.
Yue, T., Briand, L.C., Labiche, Y., 2011. A systematic review of transformation approaches between user requirements and analysis models. Requirements Eng 16, 75-99. https://doi.org/10.1007/s00766-010-0111-y
Zelewski, S., 2008. Grundlagen, in: Corsten, H. (Ed.), Internes Rechnungswesen; Externes Rechnungswesen; Beschaffung; Produktion Und Logistik; Marketing; Investition Und Finanzierung. Oldenbourg, München, pp. 1-97.
10. Anhang
Tabelle 11dentifizierte Literatur und Konzept-Matrix
Abbildung in dieser Leseprobe nicht enthalten
[...]
- Arbeit zitieren
- Dennis Witt (Autor:in), 2022, Künstliche Intelligenz für die konzeptuelle Modellierung. Anwendung von KI-Technologien zur Unterstützung des konzeptuellen Modellierens, München, GRIN Verlag, https://www.grin.com/document/1315923
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.