Einleitung
In der heutigen Zeit sind in Unternehmen ein stetig zunehmendes Datenvolumen und ein immer größer werdender Bedarf an Rechenkapazität zu verzeichnen. Hinzu kommt, dass die Bewältigung der unternehmerischen Tätigkeiten nicht länger vollständig innerhalb der eigenen Unternehmensgrenzen erfolgt. Stattdessen findet eine unternehmensübergreifende Integration der wertschöpfenden Geschäftsprozesse statt und Kooperationen bilden sich, um die Wettbewerbsfähigkeit am Markt halten zu können oder auszubauen.
Nachdem Grid Computing lange ausschließlich im Bereich der Wissenschaft und Forschung entwickelt und genutzt wurde, ist ein steigendes Interesse an der Technologie, den Konzepten und den Potentialen seitens der Wirtschaft zu beobachten. Einerseits dient Grid dabei der technischen Umsetzung der oben genannten Organisationsstrukturen und andererseits eröffnet Grid völlig neuartige Möglichkeiten der Wertschöpfung.
Die Vielfalt dessen, was unter dem Begriff Grid verstanden wird, zeigt sich anhand verschiedener bestehender Definitionen. [BoDi04] vereinen diese unterschiedlichen Ansätze:
„[Grid is] a large-scale geographically distributed hardware and software infrastructure composed of heterogeneous networked resources owned and shared by multiple administrative organizations which are coordinated to provide transparent, dependable, pervasive and consistent computing support to a wide range of applications. These applications can perform either distributed computing, high throughput computing, ondemand computing, data-intensive computing, collaborative computing or multimedia computing.”
Der Nutzen für Unternehmen ist vielseitig: Wie die vorliegende Arbeit zeigen soll, können Kosten („Total Cost of Ownership“ der IT, Produktentwicklungskosten) gesenkt, Qualität der Produkte gesteigert und Zeit („Time-to-Market“) gespart werden.
Vor allem Klein- und mittelständische Unternehmen sollten der Technologie und den Konzepten des Grid Computing durch einen schrittweisen Vertrauensaufbau näher gebracht werden, damit sie die zugehörigen Potentiale und Vorteile erkennen.
Es stellen sich die Fragen, ob die Attraktivität des Grid Computing für die Wirtschaft und insbesondere den Mittelstand ausreichend ist, wie Akzeptanz und Vertrauen auf-/ausgebaut werden können und welche Maßnahmen zur Umsetzung erforderlich sind.
Inhaltsverzeichnis
1 Einleitung
2 Wertschöpfungspotential
2.1 Mittelstand
2.2 Transaktionskostentheorie
2.3 Anwendungsgebiete des Grid Computing für den Mittelstand
2.3.1 Die Finite Elemente Methode
2.3.2 PLM/PDM
2.3.3 Data Warehousing und Data Mining
2.3.4 SAP APO
2.4 Desktop Grids
2.4.1 Intra-Enterprise Grid
2.4.2 Campus Grids
2.4.3 Extraprise Grid
2.4.4 Geeignete Applikationen
2.5 Kooperation
2.6 Prozessoptimierung
2.7 Virtualisierung und Virtuelle Organisationen
2.7.1 VO als Intermediär
2.7.2 Realisierung durch Agenten-Technologie
2.8 Zusammenfassung
3 Grid Ökonomie
3.1 Geschäftsmodelle
3.2 Marktmodelle
3.2.1 Commodity Market
3.2.2 Auktionen
3.2.2.1 Multi-bid Auktion
3.2.2.2 Multivariate Auktionen
3.2.2.3 Holländische Auktionen
3.2.2.4 Kombinatorische Auktionen
3.2.3 Börsen
3.2.4 Ausschreibungen
3.2.5 Spot- und Terminmarkt
3.2.6 Vertragsformen
3.3 Kundenakquisition/-bindung
3.4 Der ASP Markt
3.5 Preispolitik
3.5.1 Die zeitliche Preisdifferenzierung
3.5.2 Weitere Preisstrategien
3.6 Makroökonomische Betrachtung
3.6.1 Netzeffekte
3.6.2 Lock-In Effekte
3.7 Zusammenfassung
4 Grid Services
4.1 Resource Brokering
4.1.1 Ressource Management Strukturen
4.1.2 Job Migration
4.1.3 Advance Reservation
4.1.4 Bedeutung und Wichtigkeit des Grid Ressource Brokers für den Mittelstand
4.2 Quality of Service
4.2.1 Service Level Agreements
4.2.2 Visual Scheduling
4.2.3 Workload Prediction
4.2.4 QoS durch Reliability
4.2.5 QoS durch Reputation
4.3 Accounting
4.3.1 Funktionale Anforderungen
4.3.2 Payment Modelle
4.4 Service Oriented Architecture
4.4.1 Web Services
4.4.2 Grid Services
4.4.3 Komposition von Services
4.4.4 Interdependenzen von OGSA, OGSI und WSRF
4.5 Zusammenfassung
5 Grid Projekte
5.1 Das Economy-Grid Schichtenmodell
5.1.1 Integration Layer
5.1.1.1 CoreGRID, HPC4U, GridLab
5.1.1.2 NORDUGRID
5.1.1.3 Gridbus
5.1.2 Commercialization Layer
5.1.2.1 DataMiningGrid
5.1.2.2 K-Wf Grid
5.1.2.3 SIMDAT
5.1.3 Enabling Layer
5.1.3.1 GRIA
5.1.4 Modelling Layer
5.1.4.1 InteliGRID
5.1.4.2 NextGRID
5.1.4.3 Enterprise Grid Alliance
5.1.4.4 GRASP
5.2 Das Globus Konsortium und einzelne kommerzielle Anbieter
5.3 MiGrid
6 Fazit
Literaturverzeichnis
Abbildungsverzeichnis
Abbildung 1 Steigender Wertschöpfungsanteil der Zulieferer [MoIn02]
Abbildung 2 Zusammenhang zwischen Transaktionskosten, Spezifität und Integrationsplattform
Abbildung 3 Einordnung von Applikationen und Architekturen
Abbildung 4 Modellierung einer VO durch Agenten
Abbildung 5 Wertschöpfungspotentialmatrix nach Organisationsstrukturen und Geschäftsmodellen
Abbildung 6 Ressource Management Strukturen
Abbildung 7 Starre und flexible Advance Reservation
Abbildung 8 Quality of Service – Hierarchie
Abbildung 9 Scheduling mit Workload Prediction
Abbildung 10 Einordnung von Grid Contract Service und Grid Reputation Service
Abbildung 11 Grid Schichtenarchitektur mit OGSI
Abbildung 12 Grid Schichtenarchitektur mit WSRF
Abbildung 13 Wertschöpfungspotential und Quality of Service in SOA/Organsisationsstrukturen-Matrix
Abbildung 14 Das GRASP Modell
Abbildung 15 GRASP Organisationsstruktur
Tabellenverzeichnis
Tabelle 1 Klassifizierungsschema für kleine und mittelständische Unternehmen
Tabelle 2 Übersicht Organisationsstrukturen: Vor- und Nachteile
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
1 Einleitung
In der heutigen Zeit sind in Unternehmen ein stetig zunehmendes Datenvolumen und ein immer größer werdender Bedarf an Rechenkapazität zu verzeichnen. Hinzu kommt, dass die Bewältigung der unternehmerischen Tätigkeiten nicht länger vollständig innerhalb der eigenen Unternehmensgrenzen erfolgt. Stattdessen findet eine unternehmensübergreifende Integration der wertschöpfenden Geschäftsprozesse statt und Kooperationen bilden sich, um die Wettbewerbsfähigkeit am Markt halten zu können oder auszubauen.
Nachdem Grid Computing lange ausschließlich im Bereich der Wissenschaft und Forschung entwickelt und genutzt wurde, ist ein steigendes Interesse an der Technologie, den Konzepten und den Potentialen seitens der Wirtschaft zu beobachten. Einerseits dient Grid dabei der technischen Umsetzung der oben genannten Organisationsstrukturen und andererseits eröffnet Grid völlig neuartige Möglichkeiten der Wertschöpfung.
Die Vielfalt dessen, was unter dem Begriff Grid verstanden wird, zeigt sich anhand verschiedener bestehender Definitionen. [BoDi04] vereinen diese unterschiedlichen Ansätze:
„[Grid is] a large-scale geographically distributed hardware and software infrastructure composed of heterogeneous networked resources owned and shared by multiple administrative organizations which are coordinated to provide transparent, dependable, pervasive and consistent computing support to a wide range of applications. These applications can perform either distributed computing, high throughput computing, on-demand computing, data-intensive computing, collaborative computing or multimedia computing.”
Der Nutzen für Unternehmen ist vielseitig: Wie die vorliegende Arbeit zeigen soll, können Kosten („Total Cost of Ownership“ der IT, Produktentwicklungskosten) gesenkt, Qualität der Produkte gesteigert und Zeit („Time-to-Market“) gespart werden.
Vor allem Klein- und mittelständische Unternehmen sollten der Technologie und den Konzepten des Grid Computing durch einen schrittweisen Vertrauensaufbau näher gebracht werden, damit sie die zugehörigen Potentiale und Vorteile erkennen.
Es stellen sich die Fragen, ob die Attraktivität des Grid Computing für die Wirtschaft und insbesondere den Mittelstand ausreichend ist, wie Akzeptanz und Vertrauen auf-/ausgebaut werden können und welche Maßnahmen zur Umsetzung erforderlich sind.
Um den grundlegenden Nutzen des Grid Computing für den Mittelstand darzustellen, zeigt Kapitel 2 das Wertschöpfungspotential anhand ausgewählter Anwendungsgebiete des Grid Computing vor dem Hintergrund der Transaktionskostentheorie und verschiedener Organisationsstrukturen. Durch den Nutzen motiviert legen Kapitel 3 und 4 die zur Grid-Kommerzialisierung nötigen Voraussetzungen und Lösungen dar. Dabei beleuchtet Kapitel 3 zunächst allgemeine, ökonomische Aspekte und Modelle, welche kritisch auf Anwendbarkeit im Bereich Grid Computing überprüft werden. In Kapitel 4 folgen dann grid-spezifischere, technische Anforderungen und Lösungsmodelle, die partiell für die Umsetzung der in Kapitel 3 vorgestellten Modelle notwendig sind. Kapitel 5 gewährt einen Einblick in aktuelle Projekte, die einen großen Teil der Anwendungsgebiete, ökonomischen Modelle und grid-spezifischen Maßnahmen aus den vorgelagerten Kapiteln integrieren und umsetzen.
Die Kapitel 2 bis 4 schließen mit einer kurzen Zusammenfassung der jeweiligen Ergebnisse ab. Kapitel 6 beinhaltet eine umfassende Zusammenfassung und einen Ausblick.
2 Wertschöpfungspotential
Die vier Zieldimensionen der Wettbewerbsfähigkeit sind Kosten, Zeit, Qualität und Flexibilität [ReHö93]. Die Arbeit soll zeigen, dass die Grid-Technologie positiven Einfluss auf alle vier Dimensionen hat. In diesem Kapitel werden zunächst einige Grundlagen erörtert, anhand derer die Wertschöpfung quantifiziert werden kann. Zusätzlich wird durch die Definition von „Mittelstand“ der Betrachtungsrahmen eingegrenzt, bevor
- einerseits aktives Wertschöpfungspotential durch Grid Computing (Kapitel 2.3 Anwendungsgebiete des Grid Computing für den Mittelstand und 2.4 Desktop Grids) und
- andererseits passives Wertschöpfungspotential (Kapitel 2.5 Kooperation, 2.6 Prozessoptimierung und 2.7 Virtualisierung und Virtuelle Organisationen), verursacht durch die unterstützende Wirkung von Grid Technologien/Computing, aufgezeigt wird.
2.1 Mittelstand
Die Bedeutung des Mittelstands für die Wirtschaft aufzuzeigen wird anhand einiger statistischer Zahlen des Instituts für Mittelstandsforschung Bonn für das Jahr 2003 dargestellt [GüKa04]:
- 3,38 Mio. kleine und mittelständische Unternehmen entsprechen 99,7% aller umsatzsteuerpflichtigen Unternehmen in Deutschland
- und erwirtschaften 41,2% der gesamten steuerpflichtigen Umsätze.
- Die ca. 19,98 Mio. dort Beschäftigten entsprechen 70,2% aller Beschäftigten in der privaten Wirtschaft.
- 81,9% aller Ausbildungsplätze finden sich in diesen Unternehmen.
Zur Klassifizierung der Unternehmen legt das Institut für Mittelstandsforschung Bonn folgende Kriterien zugrunde:
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 1 Klassifizierungsschema für kleine und mittelständische Unternehmen
Diese Kriterien sind keinesfalls verbindlich, es gibt gering abweichende Kriterien, aufgestellt von der Europäischen Union. Darüber hinaus wird die alleinige Verwendung von quantitativen Kriterien zur Klassifizierung häufig kritisiert [Mont04, GüKa04]. Unbestritten jedoch ist die große Bedeutung des Mittelstands, die hier zum Ausdruck gebracht werden soll.
Exemplarisch sollen an dieser Stelle die mittelständischen Zulieferer betrachtet werden, die einen Teil der Wertschöpfungsketten der Großunternehmen und Konzerne darstellen. In der Automobilindustrie ist der Wertschöpfungsanteil der Hersteller im Jahr 2002 auf 35% gesunken, bis 2015 wird ein weiterer Rückgang bis auf 29% prognostiziert [Mont04]. Gleichzeitig wächst der Kostendruck auf allen Wertschöpfungsstufen. Die so zunehmend betroffenen Zulieferer sind gezwungen, zusätzliche Leistungen in der Fertigung und insbesondere auch in der Entwicklung zu übernehmen, wie Abbildung 1 zeigt.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1 Steigender Wertschöpfungsanteil der Zulieferer [MoIn02]
Effizientere und flexiblere betriebliche Abläufe werden erforderlich. Dabei ist die Integration der Zulieferer untereinander bereits hoch, was ein 60-70%iger Fremdbezugsanteil deutlich macht [RüPf02].
Wie diese Arbeit zeigen soll, ist der Einsatz von neuen Technologien zur Steigerung der Effizienz und Flexibilität geeignet. Allerdings sind oft kapitalintensive Investitionen erforderlich. Eine Investition in eine High Performance Computing Lösung zur computergestützten Simulation und Optimierung in der Produktentwicklung übersteigt das Budget eines mittelständischen Zulieferers bei weitem. [KPMG02] gibt das
durchschnittliche E-Business Budget 2002 in der Automobilzulieferindustrie mit 2,2 Mio. Euro pro Firma an. Dabei sind in dieser Statistik auch die nicht mittelständischen Zulieferer (Bosch, Continental etc.) mit Milliardenumsätzen erfasst, die den Schnitt der Ausgaben für E-Business deutlich anheben. Eine Investition in eine High Performance Computing Lösung kann nicht das ganze E-Business Budget für sich beanspruchen, da auch andere wichtige Bereiche finanziell abgedeckt werden müssen, wie zum Beispiel Supply Chain Management (SCM), Customer Relationship Management (CRM), E-Procurement und E-Selling.
Für die Unternehmen, denen nicht ausreichend finanzielle Mittel zur Verfügung stehen, sind so genannte „Utility Grids“ geeignet [Abba04]. Die generelle Idee besteht darin, dass so genannte Grid Service Provider ihren Kunden „Key Business Applications“ anbieten, die „minutenweise“ bezogen werden können. Der Kunde zahlt also nur das, was er (an Ressourcen) verbraucht. Der Provider übernimmt die Wartung und Verwaltung der Ressourcen. Im weiteren Verlauf der Arbeit wird auf Möglichkeiten und Verfahren zur Umsetzung dieser Idee und auf alternative Ansätze eingeganen.
2.2 Transaktionskostentheorie
Mit Hilfe der Transaktionskostentheorie soll zum einen eine differenzierte Betrachtung der potentiell auftretenden Kosten bei Inanspruchnahme einer Grid-Dienstleistung ermöglicht und zum anderen die Wahl der geeignetsten Organisations-/Integrationsform der Partner motiviert werden. Auf die im Folgenden dargestellten Ergebnisse wird in entsprechenden Abschnitten der Arbeit zurückgegriffen.
Die Transaktionskostentheorie entstammt der neuen Institutionenökonomik und geht davon aus, dass jedes marktwirtschaftliche Handeln mit Kosten verbunden ist. Dazu werden zwei Begrifflichkeiten definiert:
Eine Transaktion stellt den Prozess der Klärung und Vereinbarung eines Leistungsaustauschs dar, während die anfallenden Kosten zur Koordination der Transaktion als Transaktionskosten bezeichnet werden [Pico82]. Letztere werden weiter unterschieden in:
- Anbahnungskosten: Hierunter fallen Kosten zur Partnersuche, Kommunikations- u. Beratungskosten,
- Vereinbarungskosten: Kosten für Verhandlung und Vertragsformulierung,
- Abwicklungskosten: Aufwand für Prozesssteuerung,
- Kontrollkosten: Qualitäts- und Terminüberwachung,
- Anpassungskosten: Kosten für nachträgliche Änderung,
- Standardisierungskosten: Kosten zur Standardisierung von Arbeitsprozessen und Produkten sowie Kosten der Mitarbeiterqualifikation.
Zusätzlich werden in [PiDi97] auch qualitative Faktoren erwähnt, wie zum Beispiel die eingesetzte Mühe und Zeit.
Die oben genannten Kostenarten lassen sich direkt auf anfallende Kosten bei der Abwicklung einer Grid-Dienstleistung übertragen und die vorliegende Arbeit soll zeigen, wie diese Kosten möglichst gering resp. effizient im Sinne einer Kosten-/Nutzenbetrachtung zu halten sind.
Weniger direkt übertragbar sind folgende Faktoren, welche die Höhe von Transaktionskosten beeinflussen [PiDi90]:
- Umweltfaktoren:
- Unsicherheit und Komplexität einer Transaktion,
- Faktorspezifität einer Transaktion.
- Verhaltensfaktoren der beteiligten Akteure:
- Opportunismus und
- beschränkte Rationalität.
- Häufigkeit einer Transaktion,
- Transaktionsatmosphäre.
Unsicherheit und Komplexität hängen mit der beschränkten Rationalität zusammen. Natürlich wird stets angestrebt, eine Entscheidung (z.B. die Auswahl des geeignetsten Service Providers) rational zu treffen. Doch es ist denkbar, dass mangelnde Information über den Provider Unsicherheit auslöst oder dass die Anzahl der potentiellen Provider unüberschaubar komplex ist, was jeweils zu einer Entscheidung unter beschränkter Rationalität führt. Es gilt, diese Unsicherheiten und Komplexitäten zu beseitigen, um Transparenz zu schaffen, die rationelles Handeln zulässt. So werden durch moderne IuK-Techniken (individuelle Datenverarbeitung, aber auch zentrale Datenverarbeitung durch Intermediäre) die Grenzen der menschlichen Informationsverarbeitungs- und Kommunikationsfähigkeit ausgedehnt. Durch mehr Flexibilität, höhere Transparenz, bessere Kontroll- und Dokumentationsmöglichkeiten bei Transaktionen entsteht eine „tendenzielle Erleichterung“ aller Abschnitte des Transaktionsphasenmodells (Anbahnung, Aushandlung, Abwicklung, Anpassung und Kontrolle, Durchsetzung) [MüEy03, PiDi97].
Ebenfalls hängen Faktorspezifität und Opportunismus zusammen. Mit Faktorspezifität wird die Wertdifferenz zwischen beabsichtigter Verwendung einer Ressource und ihrer zweitbesten Verwendung bezeichnet. Opportunistisches Handeln wird genau dann möglich, wenn dem Leistungsempfänger eine hohe Faktorspezifität der gewünschten Ressource bekannt ist. Denn dann kann er versuchen, einen geringeren Preis durchzusetzen. Gleichzeitig ist denkbar, dass dem Anbieter der Ressource eine gewisse Abhängigkeit des Leistungsempfängers von genau dieser Ressource bekannt ist, so dass auch ihm opportunistisches Verhalten möglich ist. Festzustellen bleibt, dass die Transaktionskosten steigen, da erhöhter Verhandlungsbedarf und Koordinationsaufwand nötig ist, um für beide Partner ein zufrieden stellendes Ergebnis zu erzielen.
An dieser Stelle kommt [Ullr04] zu Empfehlungen bezüglich der zur Transaktionskostenminimierung zu wählenden Organisationsform. Abbildung 2 verdeutlicht, dass bei geringer Spezifität der Markt als optimale Integrationsplattform anzusehen ist. Dies kann beispielsweise für den Handel von standardisierten Gütern und Dienstleistungen (mit inhärent geringer Spezifität) der Fall sein. Bestehen starke Abhängigkeiten zwischen den Partnern und sind die Faktorspezifitäten der gehandelten Ressourcen sehr groß, so empfiehlt
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2 Zusammenhang zwischen Transaktionskosten, Spezifität und Integrationsplattform
sich die Hierarchie (in etwa gleichzusetzen mit einem Unternehmen), zur langfristigen, festen Regelung. Dazwischen bietet sich ein hybrider Ansatz an, der sich in Form von längerfristigen Kooperationen ausdrücken kann.
Zuletzt sollen noch die Häufigkeit einer Transaktion, sowie die Transaktionsatmosphäre im Hinblick auf ihr Transaktionskostenbeeinflussungspotential erläutert werden.
Die Transaktionsatmosphäre beschreibt die soziokulturellen und technischen Faktoren mit Einfluss auf die Transaktionskosten. So haben [PiDi97] festgestellt, dass Reputationsmechanismen den Freiraum für opportunistisches Verhalten von vornherein einengen. Akzeptierte Regeln absorbieren Unsicherheit und erleichtern die Informations- und Kommunikationsprozesse zwischen den Partnern. Bestes aktuelles Beispiel ist Ebay mit seinem Reputationsmechanismus einerseits sowie den von allen Nutzern akzeptierten Nutzungsbedingungen andererseits. Ähnliche Mechanismen der Bewertung sind auch für eine Grid-Ökonomie vorstellbar. Beide genannten Mechanismen besitzen eine Transaktionskosten senkende Wirkung.
Auch die Häufigkeit einer Transaktion kann eine kostensenkende Auswirkung haben. Ein wiederholter, eventuell aufwändiger Wissenstransfer zwischen den Partnern kann nach einmalig erfolgreicher Transaktionsdurchführung vermieden oder wenigstens reduziert werden. Bei mehrmaliger Transaktionsdurchführung stellen sich Lerneffekte ein, die weitere Effizienzvorteile erwirken. Jedoch können auf diese Weise wiederum Abhängigkeiten entstehen, die opportunistisches Verhalten ermöglichen.
2.3 Anwendungsgebiete des Grid Computing für den Mittelstand
Für den verbreiteten Einsatz von Grid Computing sind nützliche, „grid-enabled Applications“ notwendig [WaFo04]. Dabei fordert [Gent04] vor allem Einfachheit in der Anwendung, beispielsweise durch Portale.
Die Grid-Wertschöpfung resultiert grundlegend aus der Ausnutzung der Vorteile der Parallelisierbarkeit und Teilbarkeit von Aufgaben.
Bezüglich der Parallelisierbarkeit nimmt [Abba04] eine Kategorisierung vor:
Perfekte Parallelität bezeichnet die Teilbarkeit einer Aufgabe in eine Menge von Prozessen, die keinen oder nur wenig Kommunikationsbedarf untereinander besitzen.
Es bestehen zwei zugehörige Unterkategorien:
- Datenparallelität liegt vor, wenn die gleiche Operation auf/mit verschiedenen Daten(beständen) ausgeführt wird.
- Funktionale Parallelität liegt vor, wenn jede Operation einen speziellen Teil der (Gesamt-)Aufgabe adressiert.
Entsprechend lassen sich die in den folgenden Kapiteln näher beschriebenen Systeme exemplarisch klassifizieren:
Parameterberechnungen sind der Kategorie der Datenparallelität zuzuordnen, da beispielsweise eine Simulation die gleichen Operationen mit unterschiedlichen Parametern durchführt (z.B. Umformsimulation mit verschiedenen Blechdicken). Komplexe Abfragen, wie sie beim Data Warehousing und Data Mining auftreten, gehören der gleichen Kategorie an.
Funktionale Parallelität findet man im Bereich PLM/PDM aufgrund der Funktionsvielfalt dieser Systeme. Ebenfalls funktionell verschieden ausgerichtet, mit Planung einerseits und Optimierung andererseits, ist das APO Modul von SAP.
2.3.1 Die Finite Elemente Methode
Analysen mittels der „Finite Elemente Methode“ (FEM) stellen aufgrund der guten Parallelisierbarkeit der Aufgaben ein Anwendungsgebiet für Grid Computing dar. FEM-Simulationen sind Standard in den Bereichen Flugzeug- und Automobilbau (Entwicklung und Crashtests), Strömungsanalysen (Grundwasser), Umformtechnik, Gießtechnik etc. und erhalten wachsende Bedeutung für mittelständische Zulieferer.
Bei der Finite Elemente Methode werden die zu beschreibenden Objekte in Finite Elemente zerlegt, welche zusammengenommen das gesamte Objekt repräsentieren. Mittels dieser Methode wird die Vision des virtuellen Produkts im Produktentstehungsprozess Realität. Durch Simulation und Optimierung können (im Vergleich zur herkömmlichen Vorgehensweise – der Herstellung von Prototypen) Kosten gesenkt und die Entwicklungszeit verkürzt sowie die Qualität des Produkts (durch dem Prototyp überlegener Genauigkeit bei der Simulation und Optimierung) gesteigert werden [GaPa03].
An das System, das die Simulation/Optimierung übernimmt, bestehen diverse Anforderungen, die zum Teil aus der Natur der Finite Elemente Methode resultieren und zum Teil Anforderungen der Nutzer dieser Systeme sind [WeZh04]:
- Die Applikation benötigt die Basisdaten (Geometrie, Werkstoff etc.) des Objekts. Dieses Datenvolumen kann je nach Objekt (einzelne Schraube im Gegensatz zu ganzer Flugzeughülle) und gewünschter Genauigkeit einerseits unterschiedlich, aber vor allem sehr hoch sein, so dass eine entsprechende Auslegung der Infrastruktur zur Kommunikation notwendig ist.
- Die Applikation bedarf unter Umständen einer interaktiven Steuerung/Regulierung während der Berechnungen.
- Wenn die Applikation als Service von einem Grid Service Provider in Anspruch genommen wird, so ist ein einfacher Zugang für die User via eines Portals mit grafischem Interface vorteilhaft, welches die Komplexität der zugrunde liegenden Grid Technologie/physischen Ressourcen kapselt.
Darüber hinaus sollte die Applikation in einer sicheren Umgebung laufen, die vor dem Verlust von geistigem Eigentum schützt und den Zugriff auf Daten und Ressourcen entsprechend regelt. Optimalerweise handelt es sich um eine anpassungsfähige Umgebung, die für zukünftige Hard- und Softwaremodifikationen geeignet ist. Außerdem sollte das System transiente Services zur Verfügung stellen, wodurch ad-hoc Zusammenarbeit möglich wird. [WeZh04] schlagen ein Framework basierend auf einer Service-orientierten Architektur vor, um diesen Anforderungen gerecht zu werden.
Eine weitere Vision ist die Virtual Reality. Allerdings fehlt für die Rückführung der Interaktionen im virtuellen Raum in den digitalen Prototypen die notwendige Rechenleistung [GaPa03]. Vor dem Hintergrund des Potentials von Grid Computing stellt diese Problematik ein weiteres Anwendungsgebiet dar, das seinen Anwendern, wozu auch Mittelständler gezählt werden können, neue Möglichkeiten und Perspektiven eröffnet.
2.3.2 PLM/PDM
Auch das Produktdatenmanagement (PDM) als Komponente des Produktlebenszyklusmanagements (PLM) ist ein potentielles Anwendungsgebiet des Grid Computings, insbesondere für Mittelständler. Die Wichtigkeit eines funktional sehr mächtigen PDM-Systems kann am Beispiel der Zulieferindustrie verdeutlicht werden. Die Hersteller wälzen die Gewährleistungskosten mit stark steigender Tendenz auf ihre Zulieferer ab [Mont04]. Die Problematik der Gewährleistung liegt in der Pflicht, sämtliche Bauteile in allen verschiedenen Versionen für einen sehr langen Zeitraum vorhalten zu müssen. Im Flugzeugbau beträgt dieser Zeitraum beispielsweise ein halbes Jahrhundert, davon ausgehend, dass sich einer zehnjährigen Entwicklungsdauer eine vierzigjährige Betriebszeit anschließt. Folglich entstehen bei einer Virtualisierung der Produkte (Konstruktionsdateien, Dokumentationen etc.) enorme Datenmengen. Ohne ein PDM System ist jedoch ein aufwändiges Materialarchiv für die ausgelieferten und weiterverwendeten Bauteile/Komponenten zu führen, welches physisch sehr groß und aus diesem Grund im Zugriff sehr umständlich/langsam werden kann. Technisch wie ökonomisch ist der Einsatz eines extern betriebenen Data Grids sinnvoll. Als erster Großanbieter offeriert die Firma SUN einen Gigabytemonat für 1$ [Schw05]. Dem Mittelständler fehlt jedoch nicht allein die Speicherkapazität, es bedarf vielmehr einer kompetenten, kompletten Systemintegration.
Durch die Unterstützung von Grid Computing können zukünftig auch Data Warehousing und Data Mining Methoden im Rahmen von PDM besser unterstützt werden, wenn der Bedarf entsteht, innerhalb der großen Datensammlung Abfragen durchzuführen oder Muster zu erkennen.
2.3.3 Data Warehousing und Data Mining
Das Konzept des Data Warehouse dient der Unterstützung der „Business Intelligence“ (BI). „Ein Data Warehouse ist eine themenorientierte, zeitorientierte, integrierte, unveränderliche Datensammlung für Managemententscheidungen“ [Inmo02]. Als Anwendungsgebiet für Grid Computing sind vor allem folgende Eigenschaften hervorzuheben:
- themenorientiert: es werden eine Vielzahl unterschiedlicher Daten gesammelt (z.B. Kunden, Produkte, Kennzahlen etc.)
- zeitorientiert: alle verfügbaren Daten, von der Vergangenheit bis zu den Daten des aktuellen, operativen Geschäfts werden gesammelt, teilweise (zusätzlich) verdichtet abgelegt.
Bildlich gesehen entsteht ein mit Kennzahlen gefüllter, multidimensionaler Datenwürfel mit den Dimensionen Kunde, Produkt, Zeit etc. Eine solche Sammlung kann bei einer üblichen zweistelligen Anzahl von Dimensionen sehr groß werden, so dass ausgefeilte Techniken notwendig sind, um Abfragen auf dem gesamten Datenbestand zur Entscheidungsunterstützung des Managements in kurzer Zeit auszuführen.
Grid Computing eignet sich für diese Art der Anwendung, da Aufgaben, hier Abfragen, eine inhärente Teilbarkeit aufweisen. Es handelt sich um Datenparallelität. Ein Anwendungsbeispiel soll die Einsatzmöglichkeiten von Grid Computing verdeutlichen:
Der Absatz bestimmter (möglicherweise fehlerhafter) Bauteile, welche an einen ausgewählten Kundenkreis geliefert wurden, soll für den Zeitraum der letzten 3 Jahre aufgestellt werden.
Eine Technik des Data Warehousing zur Unterstützung und Beschleunigung einer solchen Abfrage sind Datenpartitionen [FrDe03, HoHi03]. Vereinfacht betrachtet liegen die Daten eines jeden Kalenderjahres auf einer separaten Festplatte. Dadurch wird der „Flaschenhals“, den der langsame Plattenspeicher sonst darstellt, vergrößert.
Grid Computing ist als inhärent verteiltes System für die Umsetzung geeignet und bietet darüber hinaus zusätzliche Rechenleistung (unter der Annahme, dass eine Partition auf einem Rechner liegt) zur Realisierung einer Beschleunigung von komplexeren Abfragen [HuLl04].
Solche komplexen Abfragen treten im Bereich des Data Minings auf. Vielmehr handelt es sich um komplexe Algorithmen zur Mustersuche in großen Datenbeständen.
Zusammen mit der exponentiell zunehmenden Datenflut in Unternehmen wird der Bedarf an Business Intelligence-Werkzeugen nach Expertenschätzungen in selbem Maße zunehmen, und zwar unabhängig von der Unternehmensgröße [VDIn05].
Diese Faktoren zeigen ein Synergiepotential von Business Intelligence-Werkzeugen und Grid Computing auf.
2.3.4 SAP APO
Ein weiteres Beispiel einer rechenintensiven, gut parallelisierbaren Applikation ist das SAP Modul „Advanced Planning and Optimization“ (APO). Zuständig unter anderem für die Optimierung der „Supply Chain“ handelte es sich bislang um eine einzelne Komponente. Mit der Grid Technologie als Enabler kann durch eine Aufsplittung der Aufgaben eine schnellere Bearbeitung von beispielsweise komplexen Scheduling Aufgaben erreicht werden. Dazu unterteilt eine Komponente, genannt APO Master, die Anfragen und leitet sie zur Bearbeitung dynamisch auf verfügbare Ressourcen (APO Slaves) weiter [Scha05].
Darüber hinaus entstehen neue Möglichkeiten, wie zum Beispiel die Simulation von verschiedenen Szenarien („what-if“ Szenarien), statt auf eingetretene Umstände lediglich zu re agieren.
Diese skizzierten Anwendungen haben zunächst eine geringere Bedeutung für kleine Unternehmen und werden vielmehr von großen Unternehmen resp. größeren Mittelständlern genutzt. Allerdings existieren keine Unternehmen mehr, die nicht von dem ungebremsten Wachstum der (eigenen) Datenmengen betroffen sind [Stew04]. Diese Datenmengen müssen nicht nur bewältigt, sondern im besten Falle ausgenutzt werden, wie es beispielsweise durch die oben erwähnten „what-if“ Szenarien, die auch auf sehr großen, teilweise verteilten Datensätzen basieren, geschieht.
2.4 Desktop Grids
Eine Vorstufe zur Kooperation mit externer Wertschöpfungskette stellt die Einrichtung eines Desktop Grids dar, bei der keine Prozessintegration zwischen den Partnern betrieben wird, sondern lediglich ein Zusammenschluss der freien Rechenkapazitäten innerhalb eines Unternehmens stattfindet. Denn eine High Performance Computing Lösung ist nicht die einzige, die die Produktentwicklung schneller, günstiger und qualitativ besser gestalten kann. [Abba04] empfiehlt eine effizientere Nutzung der bereits bestehenden IT-Infrastruktur vor dem Hintergrund der Beobachtung, dass das Verhältnis von Investitionen und durchschnittlicher Nutzung derselben besonders im Bereich Server und Desktop Computer unausgewogen ist. Wo Unix Server noch eine durchschnittliche Nutzung von 15-20% tagsüber vorweisen, liegt die Auslastung von Windows Servern und Desktop Computern bei unter 5%. Durch die Verwendung von Grid Technologie sollen diese vorhandenen, ungenutzten Ressourcen genutzt werden, um durch deren Zusammenschluss eine „low-cost & high throughput solution“ zu schaffen. Diese Lösung ermöglicht weitere Kosteneinsparungen, wenn man bedenkt, dass Kosten für Räumlichkeiten einschließlich Klimaanlage, Strom etc. nicht entstehen, da die Anschaffung neuer Rechenpower durch die effizientere Nutzung der bereits vorhandenen Ressourcen substituiert wird.
Es handelt sich um eine kostengünstige Lösung, da keine Anschaffungskosten anfallen und die Betriebskosten gesenkt werden können. So verringert sich die Ausfallwahrscheinlichkeit mit zunehmender Redundanz [Abba04], vorausgesetzt, die entsprechenden Daten und/oder Services werden auf mehreren Clients im Grid-Netz verteilt. Auch die Produktentwicklungszeit verkürzt sich durch die Ausnutzung der freien Ressourcen.
Bei den Desktop Grids gilt es, weitere Aspekte zu beachten sowie feiner zu differenzieren: Alle Desktop Grids haben gemeinsam, dass eigene, unausgelastete Ressourcen verwendet werden. Im Gegensatz dazu stehen Ressourcen und Services von externen Providern, die ihre Leistungen in „globalen Grids“ anbieten. Im Einzelfall muss abgewägt werden, ob der Leistungsgewinn durch den Einsatz von Desktop Grids den Aufwand übersteigt oder ob die Aktivierung freier Ressourcen keinen Mehrwert bringt, da die eingesetzten Systeme beispielsweise zu alt sind. Die folgenden Kapitel untersuchen verschiedene Einsatzbereiche für Desktop Grids [Abba04, YaWu04].
2.4.1 Intra-Enterprise Grid
Den einfachsten Fall stellt das Intra-Enterprise Grid dar. Die einzelnen Rechner befinden sich geschützt durch eine lokale Firewall im Intranet in einer gesicherten Umgebung (zumindest den Anforderungen des Firmennetzes entsprechend). Vereinfachend kommt hinzu, dass gebräuchliche Server zur Datensammlung/-Ablage bekannt sind. Darüber hinaus ist die Performance der internen Vernetzung im Vergleich zu ein-/ausgehenden Leitungen gut. Die Desktop PCs der Mitarbeiter stellen die Ressourcen dar. Zwar ist die Auslastung dieser Ressourcen (wie oben beschrieben) gering, dennoch findet eine Nutzung durch die Mitarbeiter statt. Daher muss vor der Einrichtung eines Desktop Grids überlegt werden, welche Anwendungen auf dem Desktop Grid betrieben werden, vor allem, wie sehr diese Anwendungen abhängig von der Verfügbarkeit der Ressourcen sind. Im Intra-Enterprise Grid besteht die Möglichkeit, diesen Faktor über firmeninterne Regelungen zu beeinflussen.
2.4.2 Campus Grids
Die Campus Grids sind als eine Untermenge der Intra-Enterprise Grids anzusehen. Es wird von einer Teilung des Unternehmens in Bereiche/Abteilungen ausgegangen, die ihre Ressourcen verbinden und/oder sich gegenseitig verfügbare Ressourcen anbieten im Sinne von innerbetrieblichem Leistungsaustausch.
Der größte als innerbetriebliches Desktop Grid zu bezeichnende Zusammenschluss findet zwischen Ressourcen statt, die aufgrund der geografischen Unternehmensstruktur nicht in ein und demselben lokalen, geschützten Bereich liegen, sondern auf verschiedenen Standorten des Unternehmens verteilt sind. Es handelt sich dann um ein internetbasiertes Grid, oder es werden gemietete Standleitungen zur Vernetzung eingesetzt. Um die Sicherheit zu gewährleisten, müssen die Verbindungen durch z.B. Virtual Private Networks (VPNs) geschützt werden. Es wird aber auch zunehmend mit dem Problem der Heterogenität der Ressourcen (unterschiedliche Rechner/Systeme etc.) zu rechnen sein, besonders, wenn die einzelnen Standorte (eventuell sogar weltweit ansässig) unabhängige IT-Politik betreiben. Außerdem besteht noch ein weiterer entscheidender Unterschied zu den oben erläuterten Intra-Enterprise Grids, der auch für die im Folgenden beschriebenen Extraprise Grids gilt: die geringere Bandbreite der Netzwerkverbindung. Eine interne Vernetzung dürfte auch bei Mittelständlern selten langsamer als 10/100MBit Ethernet sein. Demgegenüber stehen zwar zunehmend schnellere Internetzugänge, die aber dieses Niveau noch nicht erreichen.
2.4.3 Extraprise Grid
Ein Extraprise Grid bezeichnet ein Grid Netz, welches die Unternehmensgrenzen überschreitet. Unternehmen, Partner und Kunden schließen ihre Ressourcen zusammen. Hier rückt allerdings neben Sicherheitsaspekten (auch VPN möglich) ebenfalls die Frage der Rentabilität in den Vordergrund. Es muss ein Anreiz vorhanden sein, ein Teil des Grids zu werden und Kunden, Lieferanten, Partner und/oder Wettbewerber auf eigene Kapazitäten zugreifen zu lassen [YaWu04]. Dies geschieht entweder nach dem Prinzip des Gebens und Nehmens, das bedeutet, dass ein Teilnehmer Ressourcen anderer Teilnehmer genau dann nutzen kann, wenn er selbst Ressourcen anbietet, oder die Teilnehmer nehmen die Rollen Verkäufer und Käufer ein und bestimmen einen Preis für einen Service. [YaWu04] schlagen ein Account System vor, das „User Identities“ in einer zentralen Instanz (die daraus resultierende schlechte Skalierbarkeit wirkt sich im Rahmen kleinerer Zusammenschlüsse nicht negativ aus) für alle Teilnehmer zur Versicherung von Identifikation und Glaubwürdigkeit ablegt. Die Ressourcenbesitzer definieren außerdem „Accounting Policies“ auf, welche die Nutzung der Ressourcen regeln. Dabei ist eine Komponente dieser Policies die Preisbestimmung für beanspruchte Leistung. Der Teilnehmer in der Rolle des Verkäufers bestimmt seine Kosten mittels einer Funktion in Abhängigkeit der Faktoren Ressourcetyp, durchschnittliche Leerlaufzeit, Verhältnis von Leerlaufzeit zur nicht verfügbaren Zeit, Spitzenkapazität und durchschnittliche prozentuale Inanspruchnahme dieser Spitzenkapazität sowie anderer frei wählbarer Faktoren. Ein Geschäft mit dem potentiellen Käufer entsteht genau dann, wenn dessen Nutzen größer ist als die anfallenden Kosten. Dabei wird der Nutzen durch eine Funktion mit den Parametern erwartete Laufzeit, CPU-/Speicher-/Bandbreiteanforderungen, Grad des I/O, Häufigkeit der Netzwerkkommunikation und anderen, frei wählbaren Parametern abgebildet. Der Preis lässt sich im Bereich, der durch den Nutzen (als Obergrenze) und die Kosten (als Schwelle) abgegrenzt ist, festlegen. Hinzu kommt die Quality of Service, die überwacht wird und zu einer Anpassung des Preises oder einer Erhöhung der Leistung durch den Verkäufer führen kann, wenn die aktuell gemessene Leistung nicht der vereinbarten Leistung entspricht.
2.4.4 Geeignete Applikationen
Bei dem Typ Desktop Grid handelt es sich um eine skalierbare und flexible Lösung, davon ausgehend, dass im Bedarfsfall auch Ressourcen von externen Grid Service Providern kurzfristig und temporär aktivierbar sind [Abba04]. So werden weder Überkapazitäten aufgebaut wie beim Neukauf eines High Performance Computing Systems noch ist das Handlungsvermögen durch Unterkapazität eingeschränkt.
Der Gesamtproduktivitätsgewinn ist anhand der Rechen-/Ressourcenkapazität (vorher/nachher) messbar.
Bei allen Vorteilen gilt allerdings zu bedenken, dass das neu gewonnene Rechenpotential auch sinnvoll ausgenutzt werden muss, was die Wichtigkeit der Anwendungspotentiale unterstreicht. [Abba04] nimmt eine Klassifizierung vor, welche die Eignung von Applikationen und Architekturen vor dem Hintergrund der Aufgabenparallelität und der Rechen-/Kommunikationsintensität darstellt:
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3 Einordnung von Applikationen und Architekturen
Nach Abbildung 3 benötigen rechen- und kommunikationsintensive Applikationen entsprechende Plattformen: Bei geringer Aufgabenparallelität empfiehlt sich beispielsweise eine Client-/Server-Architektur, während bei zunehmender Aufgabenparallelität Architekturen vorteilhaft sind, die verteiltes Rechnen unterstützen (SMP, Cluster, aber auch Grid). Ist die Rechen- und Kommunikationsintensität gering, so eignen sich meist „normale“ Desktop PCs zur Erledigung der Aufgaben. Bei steigender Aufgabenparallelität verspricht der Desktop Grid Ansatz einen Vorteil gegenüber dem Einsatz einzelner Maschinen.
2.5 Kooperation
Um Kooperationen als strategischen Erfolgsfaktor zu nutzen, wird ein Wandel der internen Wertschöpfungskette zu einer externen Wertschöpfungskette notwendig [ScGr03]. Einst unternehmensinterne Geschäftsprozesse werden ganz oder zu Teilen auf den oder die Kooperationspartner ausgelagert. Die Wandelbereitschaft der Unternehmen in diesem Punkt ist umso größer, je niedriger der Ausbeutungsgewinn und je höher der Kooperationsgewinn ist [Ullr04]. Das Ausmaß dieser beiden Größen ist jedoch im Vorfeld schwer prognostizierbar, da wichtige Einflüsse wie Transaktionskosten aus dem Koordinationsaufwand und die Vertrauensdisposition mit großer Bedeutung für die allgemeine Kooperationsbereitschaft der Interaktionspartner häufig vorab nicht transparent und nicht messbar sind.
Die Grid Technologie unterstützt als Enabler den Aufbau und Betrieb von Kooperationen. So können beispielsweise wertschöpfende Teilprozesse unter Vermeidung von Medienbrüchen ausgelagert und automatisiert werden [RöSc01]. Es ist auch eine Kooperation mit einem oder mehreren speziellen Grid Service Providern denkbar, als Vorstufe zu einem anonymen Markt. Auf diese Weise wird der Vertrauensaufbau erleichtert.
2.6 Prozessoptimierung
Durch die Transformation von manuellen, seriellen Prozessen zu einem automatischen Prozessmanagement und einem aktivem Monitoring können operationale Kosten und die Latency der Prozesse gesenkt werden. Dazu müssen die bestehenden Prozesse allerdings angepasst werden und ein solches Business Process (Re-)Engineering stellt nicht zu vernachlässigende „soft-costs“ der Gridentwicklung dar [WaFo04]. Das bedeutet, dass die Höhe der entstehenden Kosten nicht bzw. schwierig vorab quantifizierbar ist.
Auf eine erfolgreiche Umsetzung (siehe Kapitel 4.4.3 Komposition von Services) aufbauend, entsteht die Vision eines Echtzeitunternehmens. Unterschiedliche Applikationen und Services, die die umfangreichen Kapazitäten einer heterogenen Umgebung ausnutzen, ermöglichen schnelle und präzise Entscheidungen durch die Umsetzung der Prozesse sowie durch die Sammlung und Verarbeitung von Daten [Abba04].
Auf diese Weise hat die Grid Technologie eine wertschöpfende Auswirkung auf Applikationen und Prozesse, denn die Skalierbarkeit (Nutzung der verteilten Grid Ressourcen für verbesserte Performance auch durch Einsatzmöglichkeit von neuartigen Algorithmen für parallele Systeme) und die Robustheit (Abfangen von (System-)Fehlern durch alternative Ressourcen) von Applikationen und Prozessen verbessern sich [Baud05].
2.7 Virtualisierung und Virtuelle Organisationen
Das Konzept der Virtualisierung entstammt ursprünglich aus den technischen Bereichen (virtuelle Speicherkonzepte, virtuelle Netzwerke, virtuelle Datenbanken etc.), um eine höhere Flexibilität zu erreichen [JoFe04]. Mittlerweile findet überdies eine zunehmende Virtualisierung von Produkten und Services statt.
Auch in Organisationsstrukturen hält das Konzept der Virtualisierung Einzug. Da Raum und Zeit im Zeitalter der IuK-Technologien als Grenzen zunehmend bedeutungsloser werden, empfiehlt sich das virtuelle Unternehmen resp. die virtuelle Organisation (VO) als Organisationsstruktur, um die Leistungsfähigkeit gegenüber allein auftretenden Unternehmen zu steigern [PiRe03]. Durch die Vernetzung von Ressourcen kann eine Unabhängigkeit von Ort und Zeit geschaffen werden. Es findet ein arbeitsteiliger, dezentralisierter Wertschöpfungsprozess statt.
Genau genommen handelt es sich bei einer virtuellen Organisation um eine dynamische virtuelle Gruppierung von Individuen, den Zusammenschluss mehrerer Gruppen oder Organisationen zur Lösung spezifischer Probleme [Fell05, FoKe04, JoFe04].
Virtuelle Organisationen werden häufig in Zusammenhang mit Grid Computing gebracht, da es den dynamischen Zusammenschluss von heterogenen Ressourcen zur Erreichung neuer Leistungsfähigkeitslevel und großer Flexibilität ermöglicht. Diese Parallele lässt eine Betrachtung der VO als Organisationsinstrument zur Festlegung von Bedingungen und Regeln für Angebot und Nachfrage von Grid Services geeignet erscheinen. In diesem Fall sind die Grid Service Provider und die User jeweils selbst Teil der virtuellen Organisation, wobei die Rollen statisch im Sinne einer Client/Server Beziehung verteilt sein können. Außerdem ist eine dynamische Beziehung der Mitglieder der virtuellen Organisation im Sinne einer Peer to Peer Beziehung (jedes Mitglied kann sowohl Service Provider als auch Service Abnehmer sein) möglich [Fell05, FoKe04]. Dieser Zusammenschluss zu einer virtuellen Organisation stellt verschiedene Anforderungen zur Problemlösung:
Es bedarf eines Mechanismus zum Auffinden von angebotenen Services, welche die Virtualisierung von echten Ressourcen darstellen, sowie Methoden, welche die gemeinsame Nutzung der vorhandenen Ressourcen ermöglichen und reglementieren. Die Sicherheit des Verbunds muss ebenso gewährleistet werden wie Missbrauch durch nicht autorisierte Individuen/Organisationen ausgeschlossen werden muss.
Diejenigen Teilnehmern, die innerhalb der VO Ressourcen zur Verfügung stellen, können die Nutzung dieser Ressourcen an gewisse Bedingungen knüpfen (z.B. wer darf wann was machen). Der User kann ebenfalls Bedingungen definieren, wie beispielsweise den Wunsch nach ausschließlicher Benutzung von zertifiziert sicheren Ressourcen.
2.7.1 VO als Intermediär
Eine weitere Variante bezüglich der Rollenverteilung stellt sich durch die virtuelle Organisation in der Rolle eines Intermediär zwischen Service Anbieter(n) und User(n) dar [JoFe04]. [Henk03] sieht darin das „Gestaltungsideal komplementärer Beziehungssysteme auf organisatorischer Ebene“, welches ein einheitliches Auftreten dem Kunden gegenüber ermöglicht.
Als Intermediär sammelt und gruppiert die VO die heterogenen Ressourcen der Provider ausgerichtet an den Bedürfnissen der Kunden. Es handelt sich dabei um eine gesicherte Vereinigung. Gegenüber dem Kunden wird eine sichere Übertragung seiner Identität gewährleistet und die Erfüllung von Service Level Agreements zur Erreichung der gewünschten Quality of Service wird überwacht. Des Weiteren wird das Ressource Management unter Beachtung der Vorgaben der Kunden und der Ressource Provider betrieben. Diese Vorgaben beziehen sich auf die Aspekte Budget, Preise, Quality of Service, die in den entsprechenden Kapiteln dieser Arbeit behandelt werden.
Aber auch seitens der Kunden und der Ressource Provider sind Anforderungen zu erfüllen:
Die Ressource Provider sollten einen sicheren Zugang zu ihren Ressourcen schaffen. Die verfügbaren Ressourcen sollten entsprechend ihrer Funktionalität und Kapazität dynamisch auffindbar sein. Die Ressource Provider sollten weiterhin die ausgehandelten Service Level Agreements erfüllen, nachdem sie unverzügliche Zuweisung und Bereitstellung entsprechend der Verfügbarkeit der Ressourcen und der Nachfrage der Kunden vorgenommen haben. Idealerweise stellen sie sämtliche self-* Systeme bereit, also self-diagnosis, -healing, -configuring, -management.
Von den Kunden wird eine klare Problemdefinition erwartet. Idealerweise sind sie in der Lage, die benötigten Hardware- und Softwareressourcen zu identifizieren, sowie Vorstellungen bezüglich ihrer Anforderungen die Quality of Service betreffend zu äußern.
[...]
- Arbeit zitieren
- Dennis Christian (Autor:in), 2005, Untersuchungen zur grid-basierten Wertschöpfung unter besonderer Beachtung des Mittelstands, München, GRIN Verlag, https://www.grin.com/document/38156
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.