Die vorliegende Arbeit befasst sich mit der Thematik einer Integration, von Consumer-IT in einem Unternehmensnetzwerk. Zunächst wird auf die theoretischen Grundlagen von Begriffen eingegangen, bevor über die technologischen Möglichkeiten ein Überblick verschafft wird. Anschließend werden ausführlich die Aspekte
der „Consumerization of IT“ vorgestellt. Als Datengrundlage dienen hierbei, geführte´Interviews mit IT-Verantwortlichen von Unternehmen und Hochschulen. Aufbauend auf diesen Ergebnissen, wird eine SWOT-Analyse anhand eines fiktiven Unternehmens durchgeführt. Die Erkenntnisse werden abschließend aufgezeigt, wobei Hinweise auf weitere Forschungspotentiale gegeben wird.
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungsverzeichnis
1 Einleitung
1.1 Hintergrund
1.2 Ziel dieser Bachelorthesis
1.3 Gang der Untersuchung
2 Grundlagen
2.1 Consumerization
2.2 Informationstechnologie
2.3 Buzzword
2.4 Digital Natives / Digital Immigrants
2.5 IT - Standardisierung
3 Technologien
3.1 Web-Anwendungen
3.2 Virtualisierung
3.3 Server-Virtualisierung
3.3.1 Gründe für die Server-Virtualisierung
3.3.2 Technologische Grundlagen der Server-Virtualisierung.
3.4 Desktop-Virtualisierung
3.4.1 Gründe für die Desktop-Virtualisierung
3.4.2 Technologische Grundlage der Desktop-Virtualisierung
4 Consumerization of IT
4.1 Consumerization in Unternehmen
4.1.1 Herkunft des Trends
4.1.2 Positiver oder Negativer Trend?
4.1.3 Durch Consumer-IT den Innovationsdruck reduzieren?
4.1.4 Projekt: „Consumer-IT im Unternehmensnetzwerk“
4.1.5 Positive und negative Aspekte für Mitarbeiter
4.1.6 Chancen und Risiken für Unternehmen
4.1.7 Der IT-Helpdesk der Zukunft
4.1.8 Verständnis für IT-Ausfälle
4.1.9 Unternehmensregeln
4.1.10 Kostensenkung durch die Benutzung privater Endgeräte?
4.2 Consumerization in Hochschulen
4.2.1 Private Endgeräte im Hochschulnetzwerk
4.2.2 Trennung zwischen den Netzwerken
4.2.3 Zugriff auf Dienste
4.2.4 Die gravierendsten Probleme
4.2.5 Der Helpdesk und private Endgeräte
4.2.6 Hochschulinfrastruktur auf ein Unternehmen übertragen
4.2.7 Das Ende der Computerlabore
4.2.8 Chancen und Risiken im Hochschulumfeld
5 SWOT- Analyse
5.1 Ermittlung der Stärken und Schwächen
5.2 Ermittlung der Chancen und Risiken
6 Zusammenfassung und Ausblick
Literaturverzeichnis
Glossar
Anhang
Anhang 1 - Interviews mit IT-Verantwortlichen (Unternehmen)
Anhang 2 – Interviews mit IT-Verantwortlichen (Hochschulen)
Anhang 3 – Ausstattung privater Haushalte 1998-2008
Abbildungsverzeichnis
Abbildung 1 - Laptopschmuggel
Abbildung 2 - Gärtner Hype Cycle: High-Performance Workplace 2010
Abbildung 3 - IT Bereiche
Abbildung 4 - Fokussierung
Abbildung 5 – Virtualisierungsschicht
Abbildung 6 - Host-basierte Virtualisierung
Abbildung 7 - Virtuelle Desktop Infrastruktur (VDI)
Abbildung 8 - Server Based Computing (SBC)
Abbildung 9 - Anwender mit zwei unterschiedlichen Endgeräten
Abbildung 10 – Positiver oder Negativer Trend (Auswertung)
Abbildung 11 - Innovationsdruck (Auswertung)
Abbildung 12 - Vorgehensweise in einem Consumer-IT Integrations-Projekt
Abbildung 13 - MINI App
Abbildung 14 - Beispiel eines Entscheidungsbaum
Abbildung 15 - Verständnis für IT-Ausfälle (Auswertung)
Abbildung 16 - Unternehmensregeln (Auswertung)
Abbildung 17 - Kostensenkung durch Consumer-IT (Auswertung)
Tabellenverzeichnis
Tabelle 1 - Statistisches Bundesamt
Tabelle 2 - Überblick der Stärken und Schwächen
Tabelle 3 - Stärken konkretisiert
Tabelle 4 - Schwächen konkretisiert
Tabelle 5 - Überblick der Chancen und Risiken
Tabelle 6 - Chancen konkretisiert
Tabelle 7 - Risiken konkretisiert
Tabelle 8 - Ergebnis der SWOT-Analyse
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
1 Einleitung
1.1 Hintergrund
Die Zeiten, in denen Berufsanfänger zum ersten Mal im Rahmen ihres ersten Arbeitsverhältnisses mit einem Computer in Berührung kommen, sind lange vorbei. Heutzutage sind mehr als 50 Millionen Deutsche im Internet[1] und halb Deutschland in sozialen Netzwerken[2] angemeldet[3]. Diese Zahlen zeigen, dass die Bevölkerung - Computeraffiner ist als jemals zuvor.
Diese Affinität schlägt sich natürlich auch in einer erhöhten Anzahl privat genutzter Laptops und Smartphones nieder. Die erhöhte Anzahl ist vom Statistischem Bundesamt bestätigt worden. In der alle fünf Jahre stattfindenden Einkommens- und Verbraucherstichprobe wurde dies belegt. Wie in Tabelle 1 ersichtlich, belief sich im Jahr 2003 der Ausstattungsgrad noch auf 10,7 Laptops in 100 Haushalten, im Jahr 2008 waren es schon 34,7.
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 1 - Statistisches Bundesamt[4]
Die Hardware welche im privaten Umfeld eingesetzt wird, ist meist performanter, als solche die in Unternehmen dem Arbeitnehmer zur Verfügung gestellt wird. Moderne Anwender möchten auf den Komfort der Endgeräte nicht mehr verzichten, weshalb es vermehrt dazukommt, dass sich genau diese privatgenutzten Endgeräte im Unternehmensnetzwerk wiederfinden. Dieses Szenario wird auch als „Consumerization of IT“ oder „Bring your own Device“ beschrieben. Die Abbildung 1 soll dies verdeutlichen.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1 - Laptopschmuggel[5]
1.2 Ziel dieser Bachelorthesis
In dieser Bachelorarbeit soll ein Überblick über die Technologien, welche es ermöglichen Consumer-IT in ein Unternehmensnetzwerk zu integrieren, gegeben werden. Hierbei werden die Vor- und Nachteile der jeweiligen Technologie, anhand von Literaturrecherchen ermittelt.
Durch Interviews mit IT-Verantwortlichen unterschiedlicher Branchen, wird ermittelt inwieweit die Administratoren von Unternehmensnetzen sich auf diesen Trend schon eingestellt haben, bzw. ob eine Entwicklung in diese Richtung überhaupt, aus der Sicht eines IT-Verantwortlichen, gewünscht ist. Desweiteren ist das Ziel, durch die gegebenen Antworten, ein Meinungsbild zu erhalten. Dieses Meinungsbild soll einen IT-Verantwortlichen in die Lage versetzen können, sich ein genaues Bild über die Chancen und Risiken zu machen.
IT-Verantwortliche von Hochschulrechenzentren werden ebenfalls Interviewt. Hierbei wurde versucht zu ermitteln, wie Consumer-IT im Hochschulnetzwerk verwaltet wird und ob es Möglichkeiten gibt, das Modell des Hochschulnetzwerkes auf Unternehmensnetzwerke zu übertragen.
Weiterhin soll mit Hilfe einer SWOT-Analyse verdeutlicht werden, wie die Notwendigkeit einer Erneuerung der IT-Infrastruktur aufgezeigt werden kann.
1.3 Gang der Untersuchung
In Kapitel 2 werden zunächst die Grundlagen, welche im Zusammenhang mit der Consumer-IT und der Business-IT stehen erklärt.
Das Kapitel 3 zeigt die Technologien, welche es ermöglichen Consumer-IT in ein Unternehmensnetzwerk zu implementieren.
In dem Kapitel 4 geht es um Meinungsbilder von IT-Verantwortlichen in Unternehmen und Hochschulrechenzentren, zu unterschiedlichen Aspekten der „Consumerization of IT.
Durch das Kapitel 5 wird eine mögliche Vorgehensweise zur Ermittlung der Stärken und Schwächen sowie der Chancen und Risiken aufgezeigt. Es wird eine SWOT-Analyse Anhand eines fiktiven Unternehmens durchgeführt, welches eine Expansion plant.
Das Schlusskapitel gibt eine Zusammenfassung der Ergebnisse und einen Ausblick.
2 Grundlagen
2.1 Consumerization
„Consumerization will be most significant trend affecting IT during next 10 years“[6] diesen Satz vertraten die Analysten von Gärtner im Jahr 2005 auf der ITxpo in Orlando.
Gemeint ist die steigende Akzeptanz und Verbreitung von Technologien wie Laptops, PDA's, Smartphones sowie eine wachsende Nutzung von internetbasierten Angeboten durch verschiedene Endverbraucher. Durch die zunehmende IT- Nutzung ändern sich auch immer mehr die Bedürfnisse und die Erwartungshaltungen der Konsumenten, was sich auch im Unternehmensalltag widerspiegelt. Die Bedürfnisse drücken sich beispielsweise in der Nutzung unterschiedlichster Applikationen auf mobilen Endgeräten aus. Diese Applikationen beheben Probleme im Alltag oder erleichtern das Kommunizieren untereinander. Geht es nach den Anwendern solcher Endgeräte, möchten diese im Unternehmensumfeld nicht auf diesen Komfort verzichten. Die Erwartungshaltung wird u.a. durch die verstärkte Nutzung der IT im privaten Umfeld erhöht. Dies ist daran zu erkennen dass Anwender nach der Funktionsfähigkeit fragen, ob Applikationen des heimischen Computers, ebenfalls auf dem Firmencomputer vorhanden sind.
Doch wie kommen die Analysten von Gärtner zu dieser Annahme: Bereits heutzutage sind Privatpersonen meist besser mit IT-Equipment ausgestattet als Unternehmen. Daher liegt es nahe das Arbeitnehmer ihr privates IT-Equipment mit in die Firma nehmen wollen, um auch dort mit den neuesten und vertrauten Tools und Technologien zu arbeiten.
Ein Beispiel untermauert die Annahme von Gärtner: Als der amerikanische Präsident Barack Obama nach seinem Wahlsieg in das Weiße Haus einzog, stellten seine Mitarbeiter fest, dass überwiegend veraltete Desktops-PC zur Verfügung standen, auf denen dass einbinden von moderner Apple E-Mail Software nicht funktionierte. Dies war für den Beraterstab des Präsidenten ungewöhnlich, da Sie gewohnt waren, mit dem neusten Equipment und dem Web 2.0 zu arbeiten.[7]
Stellvertretend für viele macht der amerikanische Präsident deutlich, dass dem Anwender ein Umgang mit der IT immer selbstverständlicher wird und Kunden von IT-Beratungen wie auch zukünftige Mitarbeiter in Unternehmen genaue Vorstellungen von ihrer zur Verfügung gestellten IT haben. Durch diese genauen Vorstellungen ist ein Verzicht auf gewohnte Dienste und Dienstqualitäten am Arbeitsplatz sowie eine Unterbindung und untersagte Nutzung eigener Endgeräte für den zuvor beschriebenen Personenkreis immer weniger hinnehmbar.[8]
Um die Prognose von Gärtner nochmals aufzugreifen wird in dem Hype Cycle des High Performance Workplace vom Jahr 2010 prognostiziert das in 5 bis 10 Jahren die Consumerization ihr volles Potenzial am Arbeitsplatz erreicht hat. „Der Hype Cycle geht davon aus, dass Technologie-Trends bestimmte Phasen durchlaufen. Die Grafik zeigt nicht an, welche davon tatsächlich die größten Veränderungen bringen“.[9] Sondern, wann Sie in den unterschiedlichen Phasen, voraussichtlich auf die Tagesordnung der Unternehmen kommen. Bei der Consumerization wäre dies zwischen den Phasen „Trough of Disillusionment“ (Absturz und Desillusionierung) und dem „Slope of Enlightenment“ (Weg zu Einsicht).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2 - Gärtner Hype Cycle: High-Performance Workplace 2010[10]
2.2 Informationstechnologie
Die Informationstechnologie oder auch Informationstechnik (im Folgenden kurz: IT) ist ein Oberbegriff für Technologien welche Methoden zur Verarbeitung, Übermittlung und Verwendung der elektronischen Informationen bereitstellt.[11] Allgemein wird der Begriff für die digitale Informations- und Datenverarbeitung verwendet. Die IT umfasst eine Vielzahl von Technologien und Anwendungsmöglichkeiten und wird daher in ihren Anwendungsgebieten unterschieden.
Zu den in Abbildung 3 aufgezeigten Anwendungsgebieten gehört die Business-IT, welche für betriebswirtschaftliche Prozesse in Unternehmen zuständig ist, die In- dustrie-IT welche die Steuerung von Maschinen und Anlagen in Produktionsprozessen übernimmt, sowie die Kommunikations-IT welche benötigt wird, um Daten und Sprache zu übertragen und Multimedia-IT für Spielgeräte und -anwendungen sowie eingebettete IT die in Gütern z.B. in PKW's zu finden ist.[12]
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3 - IT Bereiche[13]
Durch diese Einsatzgebiete der IT ist zu erkennen, dass wir in einer Zeit leben, in der Informationstechnologien ein fester Bestandteil unseres täglichen Lebens geworden sind und jeder Beruf sogar jede Wissenschaft mit der IT unausweichlich in Berührung kommt.
2.3 Buzzword
Das Buzzword heißt in der deutschen Übersetzung, Modewort und/oder Schlagwort[14] und wird im Duden als „prägnanter, oft formelhafter, meist leicht verständlicher u. an Emotionen appellierender Ausspruch, der oft als Parole, ... ()... eingesetzt wird“[15] bezeichnet. Eine weitere Definition lautet: Mit einem Buzzword bezeichnet man im Englischen einen Begriff welcher beim Publikum besondere Aufmerksamkeit hervorrufen soll[16]. Darüber hinaus meint der Begriff bezogen auf Sozialoe Netze wie beispielsweise Facebook oder XING aktuell besonders relevante und von großem Interesse geprägte Themen.[17] Ein Beispiel für ein Buzzword ist: Web 2.0, welches bei Eingabe des Wortes in die Suchmaschine Google 920 Millionen Einträge (Stand: 21.04.2011) enthält. In dem Marketingbereich sowie in der Unternehmenskommunikation ist Web 2.0 längst ein etablierter Begriff, was verdeutlicht, dass einstige Buzzwords in vielen Fällen den Weg in die Umgangssprache gefunden haben.
2.4 Digital Natives / Digital Immigrants
Nach der Definition von Marc Prensky sind Digital Natives, Personen welche nach 1980 geboren wurden und insofern mit den grundlegenden Technologien der Zukunft, nämlich Handys und PC aufgewachsen sind. Der Begriff ins Deutsche übersetzt heißt so viel wie digitaler Eingeborener oder digitaler Einheimischer. Ein solcher Digital Native weiß wie Technologien im täglichen Leben einzusetzen sind und durch seine frühen Berührungspunkte mit der IT verarbeitet er Informationen anders als frühere Generationen. Er wird auch als native Speaker der digitalen Sprache von Computern, Videospielen und dem Internet bezeichnet.
Der Digital Native besitzt ein höheres Abstraktionsvermögen von großen Informationsquellen und ist das Gegenstück zum Digital Immigrant.
Die Jahrgänge vor 1980 werden von Prensky als Digital Immigrants bezeichnet, welche die Sprache des digitalen Zeitalters zwar erlernen können, aber fast immer mit einem „Akzent“ sprechen werden. Dieser Akzent lässt sich in den folgenden zwei Beispielen der täglichen Büroarbeit verdeutlichen. Ein Digital Immigrant druckt häufiger E-Mails aus, um sie dann zu korrigieren. Er bestellt öfter Personen in sein Büro, um eine Internetseite anzuschauen, anstatt die URL zu verschicken.[18]
Die Definition von Prensky lässt keinen Spielraum in der Einordnung eines Digital Natives und eines Digital Immigrants. Diese beiden Gruppen werden nach Rohrmann anhand von persönlichen Fragen nochmals genauer spezifiziert. Rohrmann fragte sich: „Was macht uns zu Digital Natives?“ und stellte einen Fragebogen zusammen. Dieser enthält Fragen wie „Benutzt du lieber Wikipedia als den Brockhaus“ oder „Kennst du den Überweisungsträger nur noch aus Erzählungen?“, mit dem Ergebnis lässt sich nochmals genauer eine Einordnung von Digital Native und Digital Immigrant ermitteln.
Unter den Bezeichnungen „Personalisierung“, „mobile digitale Lösungen“ und „Vernetzung“ fasst Rohrmann die Hauptmerkmale des Digital Natives zusammen. In der Personalisierung geht es um die Anwendungen welche vom Digital Native gern selbst ausgewählt und auf eigene Interessen angepasst werden. Bei der mobilen Nutzung von digitalen Lösungen über z.B. Smartphones, werden alle Lösungen dem konventionellen Weg vorgezogen. Stellvertretend aufgeführt zwei Beispiele: Die Buchung von Konzert-Tickets erfolgt online und wird direkt nach erfolgreicher Buchung am heimischen Computer ausgedruckt, anstatt den Umweg über eine Konzertkasse zugehen. Bei der Deutschen Bahn ist es möglich das gebuchte Ticket auf ein Smartphone zu laden und somit wird kein Papierticket mehr benötigt. Digitale Medien sind die erste Informationsquelle von Digital Natives und dienen der gegenseitigen Vernetzung, insbesondere was die Problemlösung anbelangt.[19] Es werden häufiger Foren und Blogs, in welchen sich die Benutzer untereinander zur Problemlösung unterstützen, aufgesucht. Vergleichen könnte man dies mit der Nachbarschaftshilfe von früher.
2.5 IT - Standardisierung
Allgemein wird die Standardisierung mit „Vereinheitlichung nach bestimmten Mustern“ beschrieben und existiert in den verschiedensten Bereichen der Wirtschaft. Im Managementbereich ist die Rede von „Reduktion der intra- und interbetrieblichen Prozesskosten“.[20]
In der IT wird Standardisierung häufig in Verbindung mit den Begriffen „Cloud Computing“ oder „As-a-Service“ Modelle gebracht.[21] Hierbei wird darauf abgezielt die IT zu industrialisieren, indem industrielle Methoden und Prozesse auf die IT übertragen werden. Von einer Industrialisierung ist die Rede, wenn für alle Prozesse verbindliche Standards definiert, über einen Katalog auswählbar und miteinander kombinierbar sind.
Ein Vergleich mit der Automobilbranche, „welches trotz eines Höchstmaßes an Standardisierungen die Zahl der Produktvarianten drastisch erhöht“[22], soll dies verdeutlichen. Hier werden die verbauten Komponenten zwar standardisiert und meist durch Externe geliefert, das Fertigprodukt wird daraus aber nach den Wünschen des Kunden nahezu individuell zusammengebaut.[23] Ein solches Szenario wird durch das Cloud-Computing bzw. durch die As-a-Service Modelle vorangetrieben, bei denn verschiedene Services extern eingekauft und miteinander kombiniert werden.
„Ziel der IT-Standardisierung ist es, IT-Services zu vereinheitlichen und Abläufe zu automatisieren um somit die Bedürfnisse der Kunden kostengerechter, flexibler und zuverlässiger - kurz wettbewerbsfähiger - zu befriedigen.“[24]
Das Ziel der Standardisierung birgt jedoch auch Gefahren, so dass dadurch Wettbewerbsvorteile und Flexibilität eingebüßt werden. Der Vorteil, welcher durch eine Individualisierte und auf ein Unternehmen zugeschnittende Software, gegenüber den Mitbewerbern entstanden ist, könnte durch eine Standardisierung dieser Software verschwinden. Ebenso könnte die Flexibilität, welche durch beispielswei se selbstprogrammierte Anwendungen erhört worden war, der Standardisierung zum Opfer fallen.
Die Standardisierung ist auch ein Weg hin zu neuen Services. Zurzeit sind die Systeme geräte-fokussiert, was bedeutet, dass jeder physikalische Rechner ein eigenes Betriebssystem besitzt und die Software auf diesem installiert wird. Die Zukunft könnte service-fokussiert aussehen. Ziel einer Service-Fokussierung ist es, Endgeräte (Smartphone, Tablets, PC) unabhängig des Betriebssystems, persönlicher Daten und Anwendungen bereitzustellen, (siehe Abbildung 4)
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4 - Fokussierung[25]
3 Technologien
3.1 Web-Anwendungen
Unter „Web-Anwendungen“ werden Programme verstanden, welche Plattformunabhängig über einen Browser aufrufbar sind. Die Web-Anwendungen werden per Internet, Intranet oder LAN an den Client bzw. Browser übertragen.[26] Somit muss zwingend eine Verbindung zwischen dem Client und dem Anwendungsserver bestehen. Ein Offlinebetrieb ist damit nicht möglich. Sollten Systemänderungen nötig sein, sind diese nur am Anwendungsserver umzusetzen und nicht an jedem Client.[27] Ein mögliches Einsatzszenario von Web-Anwendungen in Unternehmen wäre, die E-Mails nicht mehr über einen Client (Microsoft Outlook oder Mozilla Firebird) zu empfangen, sondern über eine Web-Anwendung, welche über eine Internetseiten zur Verfügung gestellt wird.[28] Somit wäre eine Endgeräteunabhängigkeit geschaffen.
3.2 Virtualisierung
„Scheinbar, nur logisch vorhanden“[29] so wird der Begriff „Virtuell“ im Deutschen Duden im Zusammenhang mit der Elektronischen Datenverarbeitung (im Folgenden kurz: EDV) beschrieben. Der Begriff Virtualisierung, im Zusammenhang mit IT, lässt sich mit dieser Definition nur teilweise beschreiben, geht jedoch nicht weitgenug.
Vielmehr ist „Virtualisierung die Bezeichnung für Methoden, die es erlauben, Ressourcen (wie Server, Applikationen, Desktops, Speicher, etc.) mit Hilfe von Software zu abstrahieren[30] und damit die Möglichkeit zum zentralen Zusammenfassen oder Aufteilen zu erhalten“[31], so zumindest lautet ein sehr offener Definitionsversuch nach Vogel. Dieser Versuch wird durch die Definition von Liebisch gestützt: „Die teilweise sehr unterschiedlichen Konzepte haben eines gemeinsam: Sie zielen darauf, die logischen IT-Systeme von den physisch vorhandenen Hardware- Ressourcen zu abstrahieren. Dadurch wird es zum Beispiel möglich, unterschiedliehe Betriebssysteme gleichzeitig auf einem Computer zu betreiben oder mehrere räumlich verteilte Storage-Systeme zu einem einzigen großen Datenspeicher zusammenzufassen.“[32]
In den nächsten Kapiteln wird genauer auf die Virtualisierungsarten von Servern, Clients, Anwendungen und mobile Endgeräte eingegangen. Dies ist nötig da es viele unterschiedliche Methoden der Virtualisierung gibt. Ebenso werden die Gründe für den Einsatz einer solchen Technologie und die technologischen Grundlagen aufgezeigt. Die Server-Virtualisierung wird zwecks der Vollständigkeit erklärt, findet jedoch keine direkte Anwendung bei möglichen Umsetzungen, der Einbindung von Consumer-IT in einem Unternehmensnetzwerk.
3.3 Server-Virtualisierung
Die Virtualisierung von Servern ermöglicht es, mehrere Instanzen unterschiedlichster Betriebssysteme zeitgleich auf einem physischen Rechner auszuführen. Eine Virtualisierungsschicht, welche die virtuelle Hardware bereitstellt, sorgt dafür, dass die einzelnen Gastsysteme gemeinsam die physikalischen Hardware- Ressourcen des Rechners nutzen können. Durch eine Isolation der einzelnen Gastsysteme ist ein Betrieb verschiedener Anwender ohne gegenseitiges Stören möglich. Obwohl es keine physikalischen Rechner sind, sehen die Gastsysteme für den Anwender, wie auch für andere Systeme im Netzwerk wie eigenständige Rechner aus.[33] Man spricht auch von einem Hypervisor des Typ 1.[34] Die Abbildung 5 soll dies verdeutlichen.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 5 – Virtualisierungsschicht[35]
Das zentrale Zusammenfassen von Ressourcen wird beispielsweise in der Spei- chervirtualisierung verwendet. Das Ziel ist es, die physikalischen Eigenschaften (Festplattengröße) gegenüber dem Nutzer auszublenden. Durch diese Ansicht erscheint dem Nutzer der Speicherplatz als virtuell und ist somit nicht auf eine physikalische Festplatte beschränkt.[36]
Eine weitere Verwendung der Server Virtualisierung besteht darin, die Ressourcen aufzuteilen. Hierbei werden bei der Virtualisierung die physischen Ressourcen von großen Host-Systemen in kleine virtuelle Systeme aufgeteilt, welche wiederrum auf einem einzigen Host-System laufen. Dies hat zur Folge dass die Stromkosten sinken, dass Stellplätze im Rechenzentrum eingespart werden und die genutzten Ressourcen und zwar Prozessor-, Speicher und Festplattenkapazität, mehreren Systemen zur Verfügung stehen.[37]
Nach Härdter existieren drei Varianten welche die Virtualisierung unterscheiden. Die „Partitionierung“, welche ein physisches System in mehrere virtuelle Systeme aufteilt und dadurch die Hardware besser auslastet. Zum anderen die „Aggregation“, welche mehrere physische Systeme zu einem System zusammenfasst, um die Leistung zu erhöhen und darüber hinaus die „Emulation“, welche die Aufgabe hat ein bestehendes System nachbilden, um somit das Vorhalten von unterschiedlichen Systemtypen zu reduzieren.[38] Der Vorteil bei der Emulation entsteht durch das Kopieren von Systeminstanzen. Die Systeme können somit in ihren Instanzen unterschiedliche Aufgaben erledigen. Beispielweise lässt sich ein Microsoft Windows 2008 Server in der einen Instanz als Datenspeicher verwenden und in einer zweiten Instanz als DNS Server.
3.3.1 Gründe für die Server-Virtualisierung
Konsolidierung und Ressourcennutzung:
Die Leistungsfähigkeit der heutigen Server wird in den meisten Fällen nicht mehr ausgelastet. Die Server arbeiten meist nur mit 10-15% der vorhandenen Leistung, was sehr ineffizient ist.[39] Durch Einsatz von virtuellen Maschinen können die benötigten physischen Rechner minimiert werden und damit die Ressourcennutzung der vorhandenen Server erhöht werden.
Flexibilität und Skalierbarkeit:
Durch Management-Tools kann die Verwaltung vereinfacht werden so ist es möglich im laufenden Betrieb eine virtuelle Maschine von einem physischen Server auf einen anderen zu verschieben, sowie neue Ressourcen (virtuelle Maschinen) schnell und flexibel zur Verfügung zu stellen.
Hochverfügbarkeit:
Der Ausfall einer virtuellen Maschine beeinträchtigt den Betrieb insoweit kaum, da die Aufgaben der ausgefallenden Maschine sofort von einer anderen virtuellen Maschine übernommen werden können. Zu beachten ist jedoch, dass eine Virtualisierung ebenfalls eine „Risikokonzentration auf wenige physische Server ist“[40].
Test und Entwicklung:
Das Testen von Software in unterschiedlichen Umgebungen ist bei virtuellen Systemen sehr komfortabel. Eine Weiterentwicklung von beispielsweise SAP-Modulen muss somit nicht mehr in der produktiven Umgebung stattfinden.
3.3.2 Technologische Grundlagen der Server-Virtualisierung.
Nach Liebisch wird meist zwischen zwei Ansätzen der Server-Virtualisierung unterschieden. Zum einen wird von der Host-basierten Virtualisierung gesprochen, welche die Virtualisierungsschicht auf ein bestehendes Betriebssystem (Host) installiert. Die Gastsysteme werden in virtuellen Maschinen erstellt und von der Virtualisierungsschicht verwaltet. Ein Nachteil dieses Modells ist, dass durch die dreistufige Architektur viel Rechenleistung verloren geht und die Zahl der gleichzeitig laufenden virtuellen Maschinen reduziert wird.[41] Als Bezeichnung für diese Technik wird Hypervisor vom Typ 2 oft verwendet.[42]
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 6 - Host-basierte Virtualisierung
Ein weiterer Ansatz ist das so genannte „Bare-Metal“ (blanke Hardware) Konzept. Das Betriebssystem des Hosts entfällt und die Virtualisierungsschicht setzt direkt auf der Hardware auf (siehe Abbildung 5). Somit wird keine Mehrlast durch ein Basis-Betriebssystem des Hosts verursacht. Der „Bare-Metal“ Ansatz unterscheidet sich nochmals in zwei Varianten.
In der ersten Variante, existiert eine vollständige Virtualisierung, welche jedem Gastsystem eine komplette Hardware-Umgebung vortäuscht. „Vorteil dieses Verfahrens ist, dass nahezu jedes beliebige Betriebssystem genutzt werden kann. Allerdings muss die Virtualisierungsschicht bestimmte Systemaufrufe des Gastsystems „on the fly“ übersetzen, damit die virtuellen Maschinen sich bei der Nutzung der Hardware nicht gegenseitig stören“[43].
Die zweite Variante ist die Paravirtualisierung. Dem Gastsystem ist bekannt, dass es virtualisiert wird und die Kommunikation zwischen virtueller Maschine und Host- Hardware wird direkt über eine API (Programmierschnittstelle) abgewickelt. Durch die direkte Kommunikation ist die Paravirtualisierung zurzeit die leistungsstärkste Virtualisierungstechnik, wodurch gleichzeitig die Kosten für das Serverbetriebssystem des Hosts entfallen.[44] Die Gastsysteme können jedoch nicht ohne Modifikationen in eine Paravirtualisierte virtuelle Maschine übernommen werden. Dies hat den Nachteil, dass Betriebssysteme der Firmen Microsoft oder Apple, bei der Paravirtualisierung, kaum zum Einsatz kommen.[45]
3.4 Desktop-Virtualisierung
Allgemein wird unter dem Begriff Desktop-Virtualisierung die Bereitstellung der Arbeitsumgebung über das Netzwerk, welche das Betriebssystem, die Applikationen und die Daten von dem physikalischen Computer trennt, verstanden.[46] Die Virtualisierung von Desktops ist eine neue Technologie, welche es ermöglicht das Desktop-Management zentral zu steuern und somit u.a. Kosten einzusparen.[47] Der Zugriff auf eine Virtuelle Arbeitsumgebung wird über einen gewöhnlichen PC, Laptop, Smartphone oderTablet ermöglicht.
Je nach Anwendungsszenario kann zwischen unterschiedlichen Ansätzen der Desktop-Virtualisierung gewählt werden. Eine genaue Beschreibung der unterschiedlichen Ansätze erfolgt in dem Kapitel 3.4.3 „Technologische Grundlage der Desktop-Virtualisierung“.
3.4.1 Gründe für die Desktop-Virtualisierung
Die Gründe welche für eine Desktop-Virtualisierung sprechen sind u.a. die schnelle Bereitstellung von neuen Desktops, das Releasemanagement wird übersichtlicher und der Zugriff auf die virtuelle Maschine ist von überall möglich.
Konsolidierung und Ressourcennutzung:
Rollouts von Betriebssystemen werden zu einer zeitintensiven Aufgabe im IT Betrieb. Eine Möglichkeit diese Aufgabe zeitlich besser managen zu können, bietet die Virtualisierung von Desktops. Hier ist es nur nötig ein Image des neuen Betriebssystems zu erstellen und in die Umgebung einzubinden. Durch die zentrale Einbindung der Images werden Kosten und Zeit gespart. Mit neuen Service Packs oder Updates kann analog verfahren werden. Diese müssen nur einmal zentral installiert werden, anstelle des herkömmlichen Weges eines manuellen Updates pro Rechner.[48] Eine bessere Ressourcennutzung tritt zum einen im Rechenzentrum auf, da hier ähnlich der Server-Virtualisierung die vorhandenen Ressourcen auf die virtualisierten Anwendungen aufgeteilt werden können. Das Fraunhofer- Institut für Umwelt-, Sicherheits- und Energietechnik sieht ein großes Potenzial zum Umweltschutz, wenn die richtigen Endgeräte dem Anwender zur Verfügung gestellt werden. Hierbei geht es um den Einsatz von sogenannten „Thin Clients“, welche mit stromsparsamer Hardware auskommen, da die Leistung von einem Server bezogen wird. Dies würde laut dem Fraunhofer Institut erheblich C02 einsparen.[49]
Flexibilität und Skalierbarkeit:
Eine optimale Ressourcenausnutzung von Arbeitsspeicher und Prozessgeschwindigkeit ist gut zu organisieren, da alle virtuellen Desktops auf Servern laufen welche eine zentrale Verwaltung ermöglichen.[50] Wird ein neues System für einen neuen Mitarbeiter benötigt, ist das innerhalb weniger Minuten realisierbar. Dies ist möglich, da die virtuellen Desktops einheitlich sind und das Endgerät frei wählbar ist. Im Falle eines Hardwaredefektes an einem physikalischen Endgerät ist ein Austausch ohne größere Datensicherungen möglich. Einen zusätzlichen Vorteil bittet die Möglichkeit des Verschiebens von virtuellen Desktops auf einen anderen Server.[51] Dies könnte beispielweise für Wartungszwecke oder einen manuellen Lastenausgleich genutzt werden. Sollte es nötig sein neue Businesssoftware auszurollen, geschieht dies nicht an jedem einzelnen Computer sondern wird zentral gesteuert. Die Nutzung neuer Software sttehe dem Client dadurch sofort zur Verfügung.[52]
Hochverfügbarkeit und Sicherheit:
Einige Anbieter bieten eine Offline-Verfügbarkeit der virtuellen Maschine an.[53] Dies bedeutet, dass ein Offline-Image auf dem Endgerät abgelegt wird, welches ohne Netzwerk bzw. Internet betrieben werden kann. Wenn das Offline-Image wieder Kontakt mit dem Netzwerk hat, findet eine Synchronisation statt. Die Offline Funktion würde somit auch einen Netzwerkausfall kurzfristig überbrücken. Eine Verteilung der virtuellen Desktops auf mehrere Virtualisierungschichten bzw. Servern ist möglich und würde bei einem Hardwareabsturz dafür sorgen, dass nicht alle Anwender betroffen sind.[54] Durch die Datenablage im Rechenzentrum ist eine Wiederherstellung sämtlicher Daten schneller und kosteneffizienter möglich, als wenn die Daten auf jedem Endgerät gespeichert werden. Das geistige Eigentum von Unternehmen kann durch das Speichern der Daten im Rechenzentrum ebenfalls geschützt werden. Durch angepasste Sicherheitseinstellungen in den virtuellen Desktops, könnten die Richtlinien des Unternehmens besser umgesetzt werden. Beispielweise wäre das Unterbinden fremder Softwareinstallationen möglich.
Test und Entwicklung:
Das Testen und Entwickeln von Software ist ebenfalls auf einer virtuellen Maschine realisierbar, da es möglich ist das System und somit alle Standardeinstellungen innerhalb weniger Minuten wiederherzustellen. In einer normalen Client/Server Architektur wäre dies durch die Neueinspielung eines Images zeitaufwendiger.
3.4.2 Technologische Grundlage der Desktop-Virtualisierung
3.4.2.1 Virtual Desktop Infrastruktur
Die technologische Entwicklung der Desktop Virtualisierung schreitet voran.[55] Hieß es vor wenigen Jahren noch, es sei technisch, beispielsweise durch eine zu niedrige Bandbreite nicht möglich Desktops zu virtualisieren, sind heute auf dem Markt einige namenhafte Hersteller zu finden, welche ausgereifte Anwendungen bereitstellen.[56] Als erster Hersteller ist an dieser Stelle die Firma Citrix zu nennen, welcher als erster Hersteller das Prädikat „Enterprise-Ready“ für ihre Software XenDesktop 4 von der Burton Group bekommen hat.[57] Das Prädikat wird verliehen, wenn die Virtualisierungsoftware in den Bereichen Anwendungspraxis, Management und Sicherheit überzeugen kann.
Die Software Citrix XenDesktop setzt das sogenannte „Single-Image Management“ ein.[58] Diese Technologie ermöglicht ein zentrales Systemimage bereitzustellen, anstelle eines persönlichen Images für jeden einzelnen Anwender. Die persönlichen Daten sowie die Anwendungssoftware werden mit dem Systemimage jedes Anwenders personalisiert bereitgestellt. Diese Technologie ist auch bekannt unter dem Namen Virtual Desktop Infrastruktur (im Folgenden kurz: VDI). Hierbei werden das Betriebssystem, die Anwendungen und die persönlichen Daten voneinander getrennt betrachtet und jedem Benutzer in einem in sich konsistenten Paket einzeln zugewiesen. Diese konsistenten Pakete werden, wie bei der Servervirtualisierung, auf einer Virtualisierungsschicht erstellt und gehostet. Die Darstellung von einem personalisierten Desktop kann vom entsprechenden Anwender von jedem beliebigen Computer oder mobilen Endgerät, über einen sogenannten Receiver hergestellt werden. Der Receiver ist eine Software welche auf dem Betriebssystem des physikalischen Rechners installiert sein muss.[59] Eine Verbindung, ähnlich der Bare-Metal Servervirtualisierung ist ebenso möglich, findet jedoch in dem Zusammenhang mit Consumer-IT im Unternehmensumfeld keinen Einsatz. Da dieses zur Folge haben würde, dass das Betriebssystem der Consumer-IT nicht mehr benötigt wird.
Die Verbindung zwischen einem physikalischem Rechner und einer virtuellen Maschine wird per Connection Broker aufgebaut. Beim Connection Broker handelt es sich um eine Software, welche für die Authentifizierung und die Kommunikation (An- und Abmeldevorgang) zwischen Desktopsystem und virtueller Maschine zuständig ist.[60]
Durch eine erfolgreich verlaufende Authentifizierung, wird dem Anwender eine persönliche, virtuelle Maschine zugewiesen und auf sein Desktopsystem übertragen. Nachdem die virtuelle Maschine nicht mehr benötigt wird, ist eine Abmeldung vom System notwendig. Der Connection Broker schaltet die virtuelle Maschine ab und gibt die Ressourcen wieder frei. Darüber hinaus ist eine weitere Funktion des Connection Brokers, die automatische Lastverteilung der verfügbaren Ressourcen, Vorrausetzung hierfür ist ein Zusammenschluss der Server zu einer Farm.[61]
Durch diese VDI-Technologie ist es möglich, sich von jedem beliebigen Desktopsystem, mit seinem personalisiertem System zu verbinden. Dadurch hat die IT- Abteilung eine bessere Kontrolle über die Softwarelandschaft als bei traditionellen PCs und kann trotzdem eine Personalisierung der Desktops zulassen.[62] Die Daten verlassen das Rechenzentrum nicht, sodass vertrauliche Informationen immer zuverlässig geschützt sind, was einen weiteren Vorteil darstellt.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 7 - Virtuelle Desktop Infrastruktur (VDI)
Schwächen in der VDI Umgebung kommen dadurch zustande, dass die Offline Verfügbarkeit nicht trivial ist und durch einen eventuellen Ausfall des Servers gleich mehrere Anwender betroffen sind. Die Ausfallsicherheit des Servers kann jedoch durch redundante Serverhardware erhöht werden. Die Offline Verfügbarkeit wird mit Model Lokale Virtuelle Maschine unter Punkt 3.4.2.3 ermöglicht.
3.4.2.2 Server Based Computing
Das Server Based Computing (im Folgenden kurz: SBC) wird bei der Vitalisierung von Anwendungen oder in ganzen Betriebssystemen eingesetzt, die für die Standardarbeitsplätze von mehreren Anwendern vorgesehen sind. Hierbei ist Umgangssprachlich auch von der Anwendungsvirtualisierung die Rede.[63] Die virtuellen Desktops werden voneinander isoliert, standardisiert und möglichst schlank gehalten.[64] Durch das SBC wird nicht der Arbeitsspeicher des Clients belastet, sondern der des Servers im Rechenzentrum, auf dem die virtuellen Desktops installiert sind.[65]
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 8 - Server Based Computing (SBC)[66]
Anwendungen und Daten verlassen niemals das Rechenzentrum, damit vertrauliche Informationen stets geschützt sind. Der physische Rechner ist nur noch für die Eingabe der Daten zuständig, die Verarbeitung der Daten wird über den Server abgewickelt und zurück an den Client gesendet.[67] Eine wichtige Voraussetzung zum Betrieb eines solchen SBC ist jedoch, dass die Anwendungssoftware ein Mehrbenutzersystem (multiuserfähig) ist und somit die Fähigkeit besitzt, Arbeitsumgebungen für verschiedene Benutzer bereitzustellen und voneinander abzugrenzen.[68] Bei dieser Art der Virtualisierung sind eine Personalisierung und Systemänderungen seitens des Anwenders nicht möglich, was einen entscheidenden Nachteil darstellt. Ein Vorteil von SBC ist die Ausgereiftheit gegenüber anderer relativ junger Technologien.[69]
3.4.2.3 Lokale Virtuelle Maschine
Beim Modell des lokalen virtuellen Desktop wird die benötigte IT direkt auf dem lokalen Endgerät des Benutzers, auf einer clientseitigen, virtuellen Maschine ausgeführt.[70] Damit stellt dieses Modell eine ideale Lösung für Mitarbeiter dar, die häufig offline arbeiten müssen. Auf demselben physischen Laptop können dabei private und berufliche Desktops mit hoher Performanz ausgeführt werden. Die IT- Abteilung kann so die Business-Umgebung einfach verwalten und die Anwender können ihre private Umgebung flexibel nutzen. Die Desktops sind so voneinander isoliert, dass Sicherheitsprobleme, z.B. durch Virenbefall einer virtuellen Maschine nicht auf andere virtuelle Maschinen übergreifen können. Dieses Konzept bietet alle Vorteile einer VDI-Lösung (beispielsweise des persönlichen Desktops sowie der zentralen Betriebssystem Verwaltung) und ermöglicht dazu noch eine uneingeschränkte Offline-Nutzung. Daher ist die lokale, virtuelle Maschine besonders für Mobile Nutzer geeignet. Bei der nächsten Verbindung mit einem geeigneten Netzwerk werden Änderungen am Betriebssystem, an den Anwendungen und den Benutzerdaten automatisch mit dem Rechenzentrum synchronisiert, sodass stets die neusten Daten und Systemversionen zur Verfügung stehen.[71]
3.4.2.4 Gestreamte Desktops
Bei lokal gestreamten Desktops, bei denen Betriebssysteme von einem Hostsystem auf den physikalischen Rechner projiziert werden, wird ein zentrales Image im Rechenzentrum erstellt, aktualisiert und gewartet.[72] Durch die zentrale Ablage des Image steht dem Nutzer immer eine aktuelle Instant des Desktop Images zur Verfügung. Die Desktop-Images werden von einer virtuellen Festplatte (Virtual Hard Disk) gestartet und an den physikalischen Computer geliefert bzw. gestreamt. Die Rechenleistung wird nicht von dem Server im Rechenzentrum sondern vom dem physikalischen Rechner übernommen.[73] Daher lassen sich mit diesem Model vorhandene Computer in vollem Funktionsumfang nutzen und zugleich Support- und Verwaltungskosten senken. Dies ist zugleich der Unterschied zum Server Based Computing. Dieses Konzept gewährleistet den bestmöglichen nutzen für vorhandene Computer im Unternehmensnetzwerk. Denn pro Server kann eine Vielzahl von Benutzern unterstützt werden, da die Ressourcen nicht vom Server bereitgestellt werden. Für mobile Anwender sind diese Verfahren allerdings ungeeignet, da eine Netzwerkverbindung vorhanden sein muss. Ein entscheidender Vorteil: Gestreamte Desktops können auf jedem beliebigen PC bereitgestellt werden, so kann die vorhandene Computer-Hardware für einen einfachen und kostengünstigen Einstieg in die Desktop Virtualisierung genutzt werden.
3.4.2.5 Gestreamte Anwendungen
Die Anwendungen sind der Grund, weshalb sich Images einzelner Abteilungen oder Benutzer voneinander unterscheiden. Statt spezifische Desktopimages mit installierten Anwendungen zu erstellen, können Applikationen auch als separater On-Demand Service bereitgestellt werden.[74] Dadurch vereinfacht sich einerseits die Anwendung und das Desktopmanagement, anderseits sinken die Betriebskosten der IT-Landschaft. Die IT muss nur eine einzige zentralisierte Instanz jeder Anwendung verwalten. Die Benutzer rufen die Applikationen über eine Selbstbedienungsoberfläche auf. Da die Anwendungen virtualisiert sind, können Sie als Service in physischen und virtuellen Desktops bereitgestellt werden. Die meisten Windows-Anwendungen können sogar on-demand, also auf Abruf, virtualisiert und auf die Desktopumgebung gestreamt werden.[75] Da sie voneinander isoliert sind, laufen auch inkompatible Anwendungen problemlos auf demselben Endgerät. Auch außerhalb des Rechenzentrums gehostete Web- oder Cloud-Angebote können zentral verwaltet werden. Die Benutzer greifen über eine unternehmensweite Bedienungsoberfläche, welche üblicherweise durch ein Programm auf dem Endgerät bereitgestellt wird, zu. Durch die zentralisierten Zugangskontrollen, kann die IT Abteilung ein hohes Maß an Sicherheit gewährleisten, ganzgleich welche Anwendungen die Benutzer benötigen. Durch die Zentralisierung können Anwendungen virtualisiert, isoliert, kontrolliert verwaltet und ganz nach Bedarf auch auf jedem virtuellen Desktop und für jeden Benutzer bereitgestellt werden.
4 Consumerization of IT
4.1 Consumerization in Unternehmen
Nachdem die Grundlagen durch Begriffserklärungen und Vorstellung der Virtualisierungsmodelle gelegt wurden, stellt sich nun die Frage, was IT- Verantwortliche diesem Trend gegenüberstehen und welche Aspekte es zu beachten gilt, wenn Consumer-IT in einem Unternehmen integriert werden soll.
Als Grundlage der Auswertungen dienen Antworten von IT-Verantwortlichen unterschiedlichster Branchen, gewonnen aus einem eigens für diese Analyse erstellten Fragebogen. Alle Fragebögen befinden sich im Anhang 1 dieser Arbeit, daher wird in den Fußnoten, nicht nochmals darauf hingewiesen sondern nur der Name des Befragten genannt. Desweiteren werden Umsetzungsansätze analysiert und daraus Anforderungen an ein standardisiertes Konzept abgeleitet (siehe Kapitel 4.1.4.). Ebenso lässt sich aus den Antworten die gegenwärtige Grundhaltung der IT-Verantwortlichen ableiten.
Es wird u.a. die Herkunft des Trends aufgezeigt und der IT-Helpdesk der Zukunft skizziert.
4.1.1 Herkunft des Trends
Wenn nach der Herkunft des Trends gefragt ist, gibt es bei dem Thema „Consumerization of IT“ keine eindeutige Antwort. In den IT Abteilungen und Beratungshäusern gibt es derzeit die unterschiedlichsten Berührungspunkte mit der Thematik „Consumer-IT im Unternehmensumfeld“ oder umgangssprachlich: „Bring your own Device“ (im Folgendem kurz: BYOD). Im Beratungsumfeld gab es im Jahr 2000 schon das erste Aufeinandertreffen der Privaten- und Unternehmens-IT Welt, als es darum ging private PALM PDA (Personal Digital Assistant) in ein Firmennetzwerk zu integrieren. Dieses Jahr als Beginn der BYOD Welle zu definieren wäre jedoch falsch, weil die meisten PDAs aufgrund der Netzintegration und Funktionskonfiguration erst durch die internen IT Abteilungen ihren Weg genommen haben und dann den Anwendern im Unternehmen übergeben wurden. Dieses Szenario hat sich jedoch spätestens Ende 2007 mit der Einführung des Apple iPhones schlagartig geändert. Jetzt waren es nicht die IT Abteilungen, die das Gerät zuerst konfigurierten und geordnet in die Produktivumgebung einbrachten, sondern die Anwender - die das iPhone von zuhause mitnahmen und dieses für dienstliche Angelegenheiten nutzten. Die dienstlichen Angelegenheiten beschränkten sich nicht nur auf das Telefonieren, so wurden z.B. auch die Kalender und Adressbücher privat benutzter Handys und Smartphones synchronisiert. Die klare Unterscheidung zwischen einem dienstlichen und privaten Mobil-Endgerät wurde somit immer schwieriger und der Wunsch, nur ein mobiles Endgerät mit sich mitführen zu müssen, wurde immer größer. Die Abbildung 9 verdeutlicht an einem praktischen Beispiel diesen Wunsch. Die Abbildung zeigt einen Anwender mit seinem privaten Apple iPhone und dem dienstlich genutzten Blackberry.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 9 - Anwender mit zwei unterschiedlichen Endgeräten[76]
Ein weiterer Treiber des Consumerization-Trends ist bei den Führungskräften zu erkennen, Sie möchten gerne die fortschrittlichsten Technologien in ihrem Unternehmen einsetzen, um somit einen Vorteil gegenüber den Mitbewerbern zu erlangen.
Bei der Betrachtung von Software, ist deutlich erkennbar, dass die Nutzung von privaten Tools im Unternehmensumfeld ein sich schon lange angekündigter Trend ist. Beispielweise mit eigens programmierten Microsoft Access Anwendungen, die in einigen Fällen sogar zeitweise unternehmenskritische Funktionen übernommen haben. Dies ist durch eine nicht vorhandene Datensicherung äußerst kritisch. Ebenso gibt es Beispiele bei denen Unternehmensdaten an die private Mailadresse geschickt wurden, um sie dann zuhause auf dem privaten Computer mit einer speziellen Software, welche im Unternehmen nicht vorhanden ist, zu bearbeiten. Hierbei ist das Bedürfnis von Anwendern erkennbar, dass Dienste, welche Personen im privaten Gebrauch zur Verfügung stehen, ebenso im Unternehmen einsetzbar sein sollten. Dieser Wunsch wurde durch Dienste wie Instant Messaging über Skype oder Mailaccounts mit fast unbegrenztem Speichervolumen noch verstärkt.
4.1.2 Positiver oder Negativer Trend?
Das vorige Kapitel bezog sich auf die Herkunft des Trends Consumerization. Im Folgenden steht die Frage im Mittelpunkt, ob IT-Verantwortliche dem Trend positiv oder negativ gegenüberstehen.
Wie der Fachpresse zu entnehmen ist, stellt das Argument einer steigenden Motivation des Anwenders, durch die Möglichkeit ein eigenes Endgerät selbst zu wählen, das am häufigsten positiv aufgeführte Argument dar.
In den Interviews tauchen ebenfalls einige Definitionen auf, die in diese Richtung gehen. Auffällig ist allerdings, dass das Wort „Motivation“ bei Auswertung des Fragenkatalogs keine Nennung fand. Es wird von einer erhöhten Identifikation und Verantwortung der Mitarbeiter bzw. von der Möglichkeit der freien Endgeräteaus- wahl gesprochen. Diese freie Endgeräteauswahl wird jedoch nur im Zusammenhang mit einer Vorbereitung der Endgeräte seitens der IT-Abteilungen genannt. Unter einer Vorbereitung wird die eingeschränkte Endgeräteauswahl verstanden. Es sollten nur Endgeräte freigeben werden, welche die Integration erfolgreich ermöglichen. Die Auswahl ist einzuschränken, da ansonsten die unzähligen unterschiedlichen Betriebssysteme nach ihrem Integrationsgrad geprüft werden müssten. Das ist notwendig, weil es bei Endgeräte bzw. Betriebssystemen neueren Datums oftmals an geforderten Integrationsfunktionen mangelt oder dieser ungenügend unterstützt werden. Diese Integrationsfunktionen können u.a. die Sicherheit oder das zentrale Verwalten der Endgeräte sein.
Eine Reduktion komplexer Beschaffungszyklen und damit auch weniger gebundenes Kapitals sowie die Verschmelzung von privatem und beruflichem Engagement (soziale Netze) wurden ebenfalls als positive Aspekte genannt. Der Beschaffungsprozess nimmt durch z.B. Endgeräte-Leasing, Einkauf, Garantieverwaltung und Abschreibungen Arbeitskräfte in Anspruch. Dieser zusätzliche Arbeitsaufwand würde durch die Nutzung der privaten Endgeräten geringer ausfallen.
Insgesamt ist festzustellen, dass eine leicht-positive Tendenz für Consumerization überwiegt, jedoch ist hierbei zu beachten, dass die negativen Faktoren ebenfalls zu beachten sind, (siehe Kapitel 4.1.6.) Die Auswertung der Fragebögen hat erge-
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 10 – Positiver oder Negativer Trend (Auswertung)
4.1.3 Durch Consumer-IT den Innovationsdruck reduzieren?
Im Fokus der Betrachtung steht die Aussage: „Consumerization ist für die IT- Branche eine Möglichkeit dem wachsenden Innovationsdruck etwas entgegen zu setzen“, welches es im Folgenden zu diskutieren gilt. Es wird deutlich, dass der Innovationsdruck erst durch die Consumer-IT ausgelöst wurde, denn durch die kürzeren Innovationszyklen in der Consumer-IT Branche sind die Hersteller angehalten immer neue Endgeräte, mit teils sinnvollen - teils sinnlosen Funktionen, auf den Markt zu bringen. Genau diese Endgeräte sind es, bei denen es sich lohnt als IT-Verantwortlicher eine Integration abzuwiegen. Hierbei ist zu entscheiden, ob eine aufwendige Integration nötig ist, die Integration nach einem Standardprozess möglich ist oder der Release eines besseren Endgerätes abgewartet werden sollte, welches die Unternehmensanforderungen erfüllt. Desweiteren muss der Innovationsprozess durch die Unternehmenskultur unterstützt werden, sonst könnten die erkannten Einsparungs- und Optimierungspotenziale zwar einerseits erkannt werden, jedoch scheitert es dann oftmals auf der Seite des TOP-Managements an der Umsetzung und Unterstützung.
[...]
[1] Vgl. BITKOMl (2011).
[2] Soziale Netze sind Internetplattformen (z.B. Facebook.com) bei denen Benutzer eigene Inhalte erstellen und austauschen können, (weitere Begriffserklärungen befinden sich im Glossar)
[3] Vgl. BITKOM2 (2011).
[4] Einkommens- und Verbraucherstichprobe 2008 siehe Tabelle 1 im Anhang 3.
[5] Abbildung entnommen von: ADAMS, 2008.
[6] Vgl. GARTNER (2005).
[7] Vgl. ZDNET (2009).
[8] Vgl. HOLSCHKE (2009), S. 23.
[9] ZEITLER (2009).
[10] Abbildung entnommen von: GARTNER1, 2010.
[11] Vgl. KOLLMANN (2005).
[12] Vgl. MOCH (2010).
[13] Eigene Darstellung
[14] LEO (2011).
[15] DUDEN (2011).
[16] Vgl. o.V.: Buzzword. Online verfügbar unter: http://www.answers.com/topic/buzzword [Stand: 26.04.2011],
[17] Vgl. PREVENZANOS (2010).
[18] Vgl. PRENSKY (2001).
[19] Vgl. ROHRMANN (2010), S.46-52.
[20] GABLER (2011).
[21] Vgl. BAYER (2011), S. 15.
[22] COMPUTERZEITUNG (2009), S.10.
[23] Vgl. ebenda.
[24] ebenda.
[25] Abbildung entnommen von: CITRIX, 2011.
[26] Vgl. ZIRKELBACH (2008).
[27] Vgl. IRMSCHER (2011).
[28] Vgl. MICROSOFT (2011).
[29] DUDEN (2011).
[30] abstrahieren, bedeutet in diesem Zusammenhang das Lösen der Anwendung von der Hardware.
[31] VOGEL (2010), S. 7.
[32] LIEBISCH (2010), S. 72.
[33] Vgl. LIEBISCH (2010) S.73.
[34] Vgl. SOMMERGUT (2009).
[35] Vgl. DUNKEL (2010).
[36] Vgl. HÄRDTER (2010), S. 213.
[37] Vgl. POSCHEN (2009).
[38] Vgl. HÄRDTER (2011) S.209.
[39] Vgl. BITKOM3 (2009), S. 5.
[40] ebenda, S.6.
[41] LIEBISCH (2010) S. 73.
[42] Vgl. SOMMERGUT (2009).
[43] LIEBISCH (2009) S. 75.
[44] Vgl. WARNKE (2010) S.13.
[45] Vgl. TANENBAUM (2009) S.667.
[46] Vgl. CITRIX1 (2011).
[47] Vgl. VMWARE (2011).
[48] Vgl. LIEBISCH (2009) S.83.
[49] Vgl. LÖBERING (2008).
[50] Vgl. CITIRX1 (2011).
[51] Vgl. CITIRX1 (2011).
[52] Vgl. VMWARE1 (2011).
[53] Vgl. CITRIX1 (2011).
[54] Vgl. VWMARE1 (2011).
[55] Vgl. KÖTZING (2010).
[56] Vgl. RIEGLER (2010).
[57] Vgl. GARTNER2 (2010)
[58] Vgl. CITRIX1 (2011).
[59] Vgl. VMWARE1 (2011)
[60] Vgl. IGEL (2011).
[61] Vgl. LAMP (2010) S.102.
[62] Vgl. VMWARE2 (2011).
[63] Vgl. VIERSCHRODT (2011).
[64] Vgl. TECCHANNEL (2002).
[65] Vgl. BITKOM4.
[66] Vgl. SCHNEIDERHEINZE (2011).
[67] Vgl. Ebenda.
[68] Vgl. LARISCH (2005) S.4.
[69] Vgl. LAMP (2009) S. 104.
[70] Vgl. CITRIXl (2011).
[71] Vgl. Ebenda.
[72] Vgl. CITRIX2(2010).
[73] Vgl. CITRIXl (2011).
[74] Vgl. VMWAREl (2011).
[75] Vgl. RADONIC (2008).
[76] Abbildung entnommen von: IMME, 2011.
- Citation du texte
- Christopher Franke (Auteur), 2011, „Consumerization of IT“ – Buzzword 2011, Munich, GRIN Verlag, https://www.grin.com/document/183651
-
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X.