Lade Inhalt...

Client- und Servervirtualisierung in Bildungseinrichtungen

Bachelorarbeit 2013 60 Seiten

Informatik - Wirtschaftsinformatik

Leseprobe

Inhaltsverzeichnis

1. Problemstellung

2.Virtualisierung in der Informations- und Telekommunikationstechnologie
2.1 Virtualisierungsbegriff
2.2 Integration virtueller Maschinen
2.3 Hypervisoren
2.4 Historische Entwicklung

3.Virtualisierungstechnologien
3.1 Servervirtualisierung
3.1.1 Funktionsweise
3.1.2 Lösungen an Einzelplätzen
3.1.3 Lösungen zum komplexen Betrieb in Rechenzentren
3.2 Desktopvirtualisierung
3.2.1 Funktionsweise
3.2.2 Lösungen
3.3 Anwendungsvirtualisierung
3.3.1 Funktionsweise
3.3.2 Lösungen
3.4 Presentationvirtualisierung
3.5 Speichervirtualisierung
3.6 Netzwerkvirtualisierung

4.Möglichkeiten durch Client- und Servervirtualisierung
4.1 Kostenersparnis
4.2 Flexibilität
4.3 Mobilität und Datenbereitstellung
4.4 Safety und Security
4.5 Umweltaspekte

5.Einschränkungen durch Client- und Servervirtualisierung
5.1 Safety und Security
5.2 Hard- und Softwareunterstützung
5.3 Performance
5.4 Migrationsaufwand und Administration

6.Mehrwert in Bildungseinrichtungen
6.1 One-to-one Computing
6.2 Mobile Computing

7.Realisierbarkeit virtueller Desktopinfrastrukturen im Didaktischen Forschungs- und Transferzentrums der Universität Bamberg
7.1 Ausgangssituation
7.2 Virtualisierungskonzept
7.3 Wahl der Virtualisierungslösungen
7.4 Kostenermittlung
7.5 Bewertung

8.Fazit

Literaturverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1. Problemstellung

Der IT-Ausstattungsgrad an Schulen erreicht jährlich neue Spitzenwerte. Alleine an bayerischen Schulen sind bereits über 320.000 Computer im Einsatz. Im Zusammenspiel mit immer komplexer werdenden System- und Anwendungsstrukturen stellt diese Entwicklung einen hohen Anspruch an die Systemadministratoren in den Bildungseinrichtungen (Bayerisches Staatsministeriums für Unterricht und Kultus, Beraterkreis für Schulrechner 2012, 11).

Mit immer komplexer werdenden Strukturen erhöhten sich auch der Administrationsbedarf und das nötige Wissen zur Betreuung schulischer IT-Ressourcen. Für viele Systembetreuern liegt der zeitliche Aufwand zur Wartung und fachlichen Weiterbildung weit über dem Umfang der bereitgestellten Anrechnungsstunden (Breiter 2001, 96).

In Anbetracht fehlender finanzieller Mittel der Länderhaushalte und den damit verbundenen Sparzwängen der Schulen stellt die fachliche und pädagogische Betreuung stetig wachsender Systemstrukturen zunehmend höher werdende Ansprüche an das schulische IT-Management (Breiter 2001, 7).

Eine mögliche Lösung zur Überwindung dieser Diskrepanz bieten Client- und Servervirtualisierungsansätze. Durch die Migration klassischer Client-/Server-Strukturen zu virtuellen Systemumgebungen ergeben sich Möglichkeiten, IT-Betriebskosten und Betreuungsaufwand zu reduzieren (Lüdemann 2011, 40).

Die Virtualisierung von IT-Ressourcen stellt auch für Schulen und Hochschulen einen interessanten Ansatzpunkt zur effizienten Bereitstellung komplexer werdender Systemumgebungen dar (Bayerisches Staatsministeriums für Unterricht und Kultus, Beraterkreis für Schulrechner 2012, 17). Ziel dieser Bachelorarbeit ist es zu untersuchen, inwieweit Client- und Servervirtualisierung dazu beitragen können, Kosten und Administrationsaufwand in Bildungseinrichtungen zu senken. Dabei stütze ich mich auf eingehende Literaturrecherchen und Methoden zur Kostenanalyse an einem praktischen Beispiel.

Zunächst werden begriffliche Grundlagen geklärt und auf historische und aktuelle Entwicklungen der IT-Virtualisierung eingegangen (Kapitel 2). Kapitel 3 verschafft einen Überblick über verschiedene Virtualisierungstechnologien und zugehörige Produkte. In den nächsten beiden Schritten wird einerseits dargestellt, welche Vorteile und Chancen durch Client- und Servervirtualisierung geschaffen werden können (Kapitel 4), andererseits werden auch mögliche Nachteile und Risiken aufbereitet (Kapitel 5). In Kapitel 6 wird analysiert, inwieweit die Virtualisierungstechnologie dazu beitragen kann, zusätzliche Möglichkeiten im Einsatz an Schulen und Hochschulen zu schaffen. Darauf aufbauend wird in Kapitel 7 am praktischen Beispiel untersucht, ob die Virtualisierung von IT-Ressourcen im Didaktischen Forschungs- und Transferzentrums der Otto-Friedrich-Universität Bamberg erfolgversprechend durchführbar ist. Das letzte Kapitel fasst die Ergebnisse dieser Bachelorarbeit zusammen.

2.Virtualisierung in der Informations- und Telekommunikationstechnologie

Seit einigen Jahren wird die Virtualisierung von Hardwareressourcen als zukunftsweisender Trend zum effizienten Betrieb von Rechenzentren diskutiert und eingesetzt (Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 49). In diesem Kapitel möchte ich einen Einblick geben, was Virtualisierung im IT-Umfeld eigentlich bedeutet, wie sie umgesetzt wird und wo die Wurzeln dieser Technologie liegen.

2.1 Virtualisierungsbegriff

Virtualisierung findet im IT-Sektor eine Vielzahl von praktischen Lösungen und Varianten, sodass der Begriff zunächst sehr allgemein gefasst werden muss (Fischer 2009, 83). Um diesen Terminus so treffend wie möglich und so abstrakt wie nötig zu analysieren, möchte ich auf die folgenden Definitionen zurückgreifen:

Hölzlwimmer (2010) definiert diesen Begriff sehr allgemein: „Die Informatik versteht unter diesem Begriff, dass mit Hilfe von Hard- und Software physisch nicht existente Systeme erzeugt werden.“ (Hölzlwimmer 2010, 223).

Metzger, Reitz & Villar (2011) beziehen sich in ihren Begriffserklärung hauptsächlich auf die Grundlagen von „as-a-service“-Paradigmen: „Mit Virtualisierung werden die Mittel bezeichnet, die es erlauben – vor allem in der Serverwelt – Ressourcen von Computern zusammen zu fassen bzw. aufzuteilen und Nutzern als Service zur Verfügung zu stellen.“ (Metzger, Reitz & Villar 2011, 15).

Im Gegensatz dazu fokussieren sich Kofler & Spenneberg (2012) in ihrer Definition auf die Bereitstellung von Betriebssystemen: „Virtualisierung bedeutet, dass auf einem physikalischen Rechner mehrere Betriebssystem parallel installiert und ausgeführt werden. Die Betriebssysteme laufen in sogenannten »virtuellen Maschinen«.“ (Kofler & Spenneberg 2012, 11).

Durch die Kombination dieser Begriffserklärungen lässt sich folgern, dass Ressourcen in Form von Hard- und/oder Software zunächst von ihrem physischen System entkoppelt werden und in einer neugeschaffenen Umgebung mit anderen Ressourcen parallel betrieben werden. Diese neue Form der Bereitstellung geschieht durch die Integration virtueller Maschinen auf einem gemeinsamen Host/Server.

Auf die unterschiedlichen Ausführungsformen werde ich in Kapitel 3 näher eingehen. Zunächst möchte ich klären, was virtuelle Maschinen sind und welcher technologische Ansatz sich hinter dieser Idee verbirgt.

2.2 Integration virtueller Maschinen

Eine virtuelle Maschine kann als nachgebildete Form eines physischen Rechners betrachtet werden. Im Unterschied zu vollwertigen PCs können mehrere virtuelle Maschinen unabhängig voneinander auf einem gemeinsamen physischen Hostsystem betrieben werden. Den so geschaffenen Gastsystemen werden Hardwareressourcen zu Verfügung gestellt, sodass sie sich wie vollwertige Rechner verhalten (Ahnert 2009, 24).

Die Integration virtueller Maschinen möchte ich anhand eines allgemeinen Modells (Abb. 1) verdeutlichen:

Abb. 1: Allgemeines Virtualisierungs-Modell in Anlehnung an IBM Global Education (2007, 4)

Abbildung in dieser Leseprobe nicht enthalten

Auf der rechten Bildhälfte ist ein vollwertiger, „klassischer“ Computer dargestellt. Auf diesem PC laufen ein Betriebssystem und die darauf installierten Anwendungen.

Im Gegensatz dazu ist in der linken Hälfte ein Modell einer gehosteten Lösung zu sehen. Der Unterschied beider Varianten lässt sich folgend darstellen:

Während in der traditionellen Ausführung Betriebssystem und Anwendungen jeweils auf einem Rechner lokal installiert sind, befinden sich in der virtualisierten Ausführung mehrere virtuelle Maschinen auf einem gemeinsamen physischen Host-Rechner/Server. Die ursprünglich eigenständigen Betriebssystem- und Anwendungsumgebungen werden von ihrer physischen Hardware getrennt und teilen sich die abstrahierten Ressourcen des gemeinsamen Gastrechners. Die so entstandenen „virtuellen Rechner“ laufen dadurch isoliert, ohne Einflüsse auf andere virtuelle Maschinen und losgelöst von der physischen Hardware als eigenständige Computer mit eigenem Betriebssystem und eigenen Anwendungen (IBM Global Education 2007, 3).

Somit ist es zum einen möglich, viele unterschiedliche Systemumgebungen parallel zu betreiben, zum anderen können bestehende Hardwareressourcen besser genutzt oder physisch nicht vorhandene Hardware in emulierter Form bereitgestellt werden (Ahnert 2009, 24).

2.3 Hypervisoren

Hypervisoren dienen dazu, den Gastsystemen Hardware zu Verfügung zu stellen. Der Hypervisor bildet hierfür eine Schicht zur Zuweisung und Koordination zwischen der Host-Hardware und den gehosteten virtuellen Maschinen. Dabei wird physisch vorhandene Hardware bereitgestellt bzw. virtuelle Ressourcenkonfigurationen emuliert (Wöhrmann 2011, 17). Viele bekannte Anbieter setzen dabei auf drei verschiedene Varianten (Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 61):

Bare Metal Hypervisoren (Abb. 2) werden auch als Hypervisoren des Typs I bezeichnet. Diese werden direkt auf der zugrundeliegenden Hardware installiert und stellen selbst eine Betriebssystemumgebung dar (Barrett & Kipper 2010, 10). Der direkte Hardwarezugriff ermöglicht eine hohe Geschwindigkeit und bessere Performance im Vergleich zu Hosted Hypervisoren (Wöhrmann 2011, 17f.).

Abb. 2: Aufbau eines Bare Metal Hypervisors in Anlehnung an Larisch (2009a, 1)

Abbildung in dieser Leseprobe nicht enthalten

Hosted Hypervisoren (oder auch Hypervisoren des Typs II, Abb. 3) werden als Anwendungen auf einem bereits installierten Betriebssystem auf dem Host betrieben (Barrett & Kipper 2010, 11). Da der Hypervisor in dieser Konstellation vollumfänglich auf das Trägerbetriebssystems zugreifen kann, ermöglicht diese Variante eine breite Treiberunterstützung. Allerdings müssen aufgrund der Architektur höhere Leistungseinbußen in Kauf genommen werden (Wöhrmann 2011, 17f.).

Abb. 3: Aufbau eines Hosted Hypervisors in Anlehnung an Larisch (2009a, 1)

Abbildung in dieser Leseprobe nicht enthalten

Xen Hypervisoren von Citrix Systems können als Mischform der Bare Metal und Hosted Hypervisor Ansätzen betrachtet werden. Xen verwendet Linux-Betriebssysteme in der initialen Domain 0, ersetzt somit den Betriebssystem-Kernel und erreicht daher gute Performancewerte (Abb. 4). Allerdings ist die Einbindung von Gastsystemen relativ komplex und erfordert häufig Fachwissen und Geduld (KOFLER 2013, 236 & RUNGE, STURM, WIßKIRCHEN, EBEL, GROH, HÖLLER & MEWES 2009, 103.).

Abb. 4: Aufbau eines Xen Hypervisors in Anlehnung an Picht (2009, 19)

Abbildung in dieser Leseprobe nicht enthalten

2.4 Historische Entwicklung

Der Trend zu virtualisierten Client- und Serverstrukturen fand seit 2006 immer größer werdenden Zuspruch und breite Verwendung in Rechenzentren (Fischer 2009, 37). Trotz dieser Aktualität liegen die Wurzeln der Virtualisierung bereits in den 1950er Jahren (Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 53). Fischer (2009) unterteilt die Entwicklung der Virtualisierungstechnologie in die Abschnitte der klassischen Virtualisierung (ab 1950) und der modernen Virtualisierung (seit 2003, ausgehend von der Entwicklung von Xen) um den schwankenden Entwicklungs- und

Akzeptanzverlauf dieser Technologie zu unterstreichen (Fischer 2009, 105ff.). In den folgenden Abschnitten werde ich die wichtigsten Entwicklungsschritte ebenfalls in Form einer zeitlich unterteilten Chronik darstellen. Die Trennungen möchte ich allerdings an der Durchsetzung dezentraler Client-/Server-Strukturen sowie an der erstmaligen und vollumfänglichen Entwicklung einer heutzutage üblichen x86-Virtualisierungslöung im Jahr 1999 (Fischer 2009, 130.) setzen:

Abb. 5: Skizze in Form einer Zeitleiste zur Verbreitung virtualisierter IT- Systeme (eigene Darstellung)

Abbildung in dieser Leseprobe nicht enthalten

Christopher Strachey gilt heute als Urvater des Virtualisierungsgedanken in der IT. Strachey (1959) veröffentlichte 1959 die Abhandlung „Time Sharing in large fast computers“, in der er Ansätze zum Multitasking und Multiprogramming von Großrechnern darbrachte. Grundgedanke seiner Überlegung war die Erweiterung einer physischen CPU um eine logische CPU, um somit vorhandene Rechenkapazitäten effizient auszunutzen (Strachey 1959 zitiert nach Fischer 2009, 97 & Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 53).

1962 wurde der Gedanke der Hardwarevirtualisierung im ATLAS-Großrechner erfolgreich umgesetzt. Dieser Großrechner ermöglichte parallele Magnetbandbearbeitung durch Multitasking-Operationen in Form von virtualisierten Speicher. Der ATLAS war dadurch deutlich leistungsstärker als die Großrechner des bis dato unangefochtenen Marktführers IBM (Fischer 2009, 97f.).

Mitte der 1960er Jahre entstanden durch eine Kooperation von IBM und dem Massachusetts Institute of Technology (MIT) erste Entwicklungen von Emulatoren (Fischer 2009, 66). Aus dieser Zusammenarbeit resultierten 1970 auch die ersten virtuellen Maschinen für den Mehrbenutzerbetrieb. Diese kamen in den IBM-Großrechnersystemen 370 zum Einsatz und ermöglichten es, eigenständige IBM

System/370-Betriebssysteme als virtuelle Maschinen in Bildschirmterminals zu Verfügung zu stellen. In der Folgezeit entstanden weitere Technologien zur Virtualisierung von Hardwareressourcen, die unter anderem auf logischer Partitionierung beruhten (Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 53).

Die Verbreitung von Microcomputern mit x86-Technologie bremste den Siegeszug der Virtualisierung deutlich (Fischer 2009, 101). Die nun verfügbaren kostengünstigen und kleinen Personal Computer und Server fanden große Akzeptanz, führten zu Client-/Serverstrukturen in den Rechenzentren und zur Dezentralisierung von IT-Ressourcen. Dies führte dazu, dass Virtualisierungslösungen einen zunehmend geringer werdenden Stellenwert innehatten (Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 54).

Mit stetig wachsenden Client-/Serverstrukturen und immer leistungsfähigerer Hardware stieg die Anzahl unterausgelasteter und kostenineffizienter Serverlandschaften. Diese Umstände führten wiederum zu Rezentralisierungsaktivitäten durch Virtualisierung. In den späten 1990er Jahren etablierten sich Mehrbenutzerbetriebssysteme durch die Windows Terminal Services von Microsoft bzw. Citrix Systems. Diese Form der Presentationvirtualisierung ermöglichte den Remote-Zugriff von Userterminals aus (Thin Clients) auf zentral gehostete, geteilte Mehrbenutzer-Betriebssystemumgebungen (Anderson & Griffin 2009, 28f. & Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 54f.).

1999 gelang es VMWare mit dem Release der VMWare Workstation zum ersten Mal, „einen kompletten x86-Computer auf einem x86-Host-System performant zu virtualisieren“ (Fischer 2009, 130). In der Folgezeit beschleunigten schnelle und kostengünstige Breitbandverbindungen den Trend zu zentraler Bereitstellung virtueller Server und Desktops (Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 55).

Seit 2006 beherrscht das Schlagwort „Cloud Computing“ die IT-Branche und wird nach den Mainframe-Ansätzen und dem Client-/Servermodell oft als dritter wichtiger Meilenstein der Informationstechnologie betrachtet (Metzger, Reitz & Villar 2011, 1f.). Die Bereitstellung von Rechen- und Speicherkapazitäten auf Dienstleistungsbasis baut in weiten Teilen auf Virtualisierungsgrundsätzen auf. Im Rahmen dieser „as-a-Service“-Paradigmen greifen Endanwender ortsunabhängig auf abstrahierte, zentral bereitgestellte und zum großen Teil virtualisierte Hardwareressourcen zu (Baumeister 2011, 339 & Metzger, Reitz & Villar 2011, 17).

3.Virtualisierungstechnologien

Wie bereits aus den Begriffsdefinitionen in Kapitel 2.1 hervorging, unterscheiden sich die Ausprägungen der IT-Virtualisierung hauptsächlich durch die zu visualisierenden IT-Objekte. Die so entstandenen Virtualisierungsvarianten sind allerdings nicht nur strikt getrennt voneinander zu betrachten, sondern können im kombinierten Einsatz Synergien schaffen (BITKOM 2009c, 4f. & Larisch 2009a, 2).

In diesem Kapitel werden die gängigen Technologien zur IT-Virtualisierung dargestellt. Ergänzend dazu wird ein Überblick über mögliche Produkte zur Realisierung in Bildungseinrichtungen besonders relevanter Virtualisierungstechnologien gegeben.

Als Ausgangspunkt hierfür möchte ich mich auf den aktuellen Technologiequadranten des Marktforschungsunternehmens Gartner Research (Abb. 6) stützen. Gartner Research veröffentlicht jährliche Magic Quadrants für verschiedene Technologiemärkte, die dazu dienen, verschiedene Anbieter aufgrund ihrer Entwicklungspotentiale und Realisierungsmöglichkeiten mit Wettbewerbern zu vergleichen. Diese Einschätzungen beruhen auf einer Vielzahl von Evaluationskriterien und Forschungsergebnissen des Marktforschungsinstituts (Gartner Research 2013).

Abb. 6: Gartner-Quadrant zur x86-Virtualisierung (Sommergut 2012)

Abbildung in dieser Leseprobe nicht enthalten

Der betrachtete Magic Quadrant zur x86-Virtualisierung visualisiert die Marktpositionierung der bedeutendsten Virtualisierungsanbieter zum Stand Juni 2012. Ausgehend von dieser Datengrundlage möchte ich Lösungen der vier höchstbewerteten Anbieter VMWare, Microsoft, Citrix Systems und Oracle (Gartner Research 2013) bei der Betrachtung der Server-, Desktop- und Anwendungsvirtualisierungstechnologien berücksichtigen.

3.1 Servervirtualisierung

Die Motivation zur Konsolidierung von Serverstrukturen liegt hauptsächlich in der Unterbeschäftigung klassischer IT-Umgebungen (Larisch 2009a, 7). Es wurden immer leistungsfähigere Hardware – wie beispielsweise Multicore-Prozessoren – entwickelt, sodass die Nutzlast der Server kontinuierlich zurückging. Des Weiteren wurden stetig mehr Anwendungen auf eigenen Servern gehostet. Diese Faktoren führten zu einer zunehmenden Anzahl kostenineffizienten Server und steigenden Betriebskosten in den Rechenzentren. Durch Servervirtualisierung kann diesen Entwicklungen entgegengewirkt werden. (Kelbley & Sterling 2011, 22).

3.1.1 Funktionsweise

Um die Technologie zur Virtualisierung von Serverstrukturen zu untersuchen, möchte ich die umseitige Abb. 7 heranziehen:

Wie in Kapitel 2.2 beschrieben, werden in virtualisierten Systemumgebungen mehrere Betriebssysteme in Form von virtuellen Maschinen auf einem physischen Host betrieben. Überträgt man dieses Prinzip auf die Serverebene, können somit mehrere physische Server durch einen physischen Server, auf dem mehrere virtuelle Server isoliert voneinander betrieben werden, ersetzt werden. Somit kann einerseits die Anzahl der betriebenen Server gesenkt und andererseits deren Ausleistung optimiert werden (IBM Global Education 2007, 3f.).

Abb. 7: Modell der Servervirtualisierung in Anlehnung an IBM Global Education (2007, 4)

Abbildung in dieser Leseprobe nicht enthalten

Bei der Analyse der Lösungen zur Servervirtualisierung ist im Weiteren zu unterscheiden, ob diese in erster Linie zum parallelen Betrieb mehrerer Betriebssystemumgebungen an Einzelplätzen oder innerhalb vielschichtiger Systemstrukturen – teils mit Integration weiterer Virtualisierungstechnologien – konzipiert sind.

3.1.2 Lösungen an Einzelplätzen

VMWare Workstation läutete 1999 die Ära der x86-Virtualisierung ein. Die Software ermöglicht es, neue virtuelle Maschinen zu erstellen oder auch bestehende Systeme in virtuelle Maschinen zu überführen und diese parallel auf einem physischen Host zu betreiben (Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 108). Die etwa 190,00 € teure Einzelplatzlizenz (VMWare 2013a) bietet eine Vielzahl an Funktionen und breite Hardware- und Betriebssystemunterstützung (Larisch 2009a, 69f.). VMWare Workstation und die für Apple konzipierte Variante VMWare Fusion werden häufig in Testnetzwerken, Entwicklungs- oder Schulungsumgebungen eingesetzt (Ahnert 2009, 69f. & Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 109).

VMWare Player stellt eine kostenlose Variante der VMWare Workstation mit geringem Funktionsumfang dar. Der VMWare Player dient lediglich zum Abspielen vorkonfigurierter virtueller Maschinen. Funktionen wie das Klonen virtueller Maschinen oder die Erstellung von Snapshots werden nicht durch den Player unterstützt (Zimmer, Wöhrmann, Schäfer, Baumgart, Alder, Kügow & Brunner 2012, 41). Es ist jedoch möglich, virtuelle Maschinen anderer Anbieter in der Laufzeitumgebung zu nutzen oder fertige VMWare-Images über den Anbieter zu beziehen (BITKOM 2009c, 17 & Braun 2008, 265).

Microsoft bietet mit der Software Virtual PC eine Alternative zu VMWare Workstation an. Virtual PC wurde ursprünglich von Connectix für Macintosh-Systeme konzipiert und nach der Übernahme durch Microsoft geringfügig weiterentwickelt. Virtual PC wird vor allem in Entwicklungs-, Test- und Helpdesk-Umgebungen an Einzelplätzen eingesetzt und ist im Vergleich zu VMWare Workstation leistungsschwächer und unterstützt nur Windows- und OS/X-Gäste (Zimmer 2005, 79ff.). Die kostenlose Software ist übersichtlich, läuft stabil und lässt sich gut bedienen (Boddenberg 2009, 903).

Oracle VM VirtualBox ist vom Leistungsumfang in etwa mit VMWare Workstation vergleichbar. Das Produkt unterstützt 32- und 64-Bit Versionen nahezu aller gängigen Betriebssysteme. Die Vorteile dieser Alternative bestehen aus der Integration vieler Sprachpakete, der Unterstützung durch open source Communities und häufige Updatezyklen (Donauer & Jäger 2011, 49ff.). Für kommerzielle Zwecke fallen neben den einmaligen Lizenzkosten von 39,00 € zusätzliche, jährliche Support-Kosten pro Einzelplatz an (Oracle 2013a).

3.1.3 Lösungen zum komplexen Betrieb in Rechenzentren

Die kostenlose Software VMWare Server ist ein Hosted Hypervisor, was zur Folge hat, dass Performanceeinbußen in Kauf genommen werden müssen. Des Weiteren muss beachtet werden, dass den virtuellen Maschinen Hardwareressource nur begrenzt zu Verfügung gestellt werden können und auch einige Funktionen zur automatischen Migration und Load Balancing fehlen (Runge, Sturm, Wißkirchen, Ebel, Groh, Höller & Mewes 2009, 112f.). VMWare Server dient folglich eher als Einstiegslösung zur Servervirtualisierung oder zum Testen und Pilotieren virtualisierter IT-Systeme (Larisch 2009a, 35ff.).

VMWare vSphere stellt die umfangreichste Lösung in der VMWare-Produktfamilie dar. Die Basis-Version des Bare Metal Hypervisors ist ab 900,00 € erhältlich (VMWare 2013c). Die zahlreich verkaufte und technisch ausgereifte Software bietet viele verschiedene Werkzeuge zur Virtualisierung komplexer Systemumgebungen in Rechenzentren und größeren Firmennetzwerken. Es werden viele unterschiedliche Varianten angeboten, die je nach Einsatzzweck mit diversen Administrationsfunktionen ausgestattet und mit anderen VMWare-Produkten und Virtualisierungstechnologien kombiniert werden können. VMWare vSphere bietet unter anderem integrierte Möglichkeiten zur Speichervirtualisierung, Performance-Optimierung, Datenwiederherstellung, Optimierung der Systemsicherheit und zum automatischen Lastausgleich (Zimmer, Wöhrmann, Schäfer, Baumgart, Alder, Kügow & Brunner 2012, 42 ff.).

Microsoft Virtual Server ist ein kostenloser Hosted Hypervisor, der Linux-Distributionen nur als Gastbetriebssystem unterstützt. Es ist ebenfalls nicht möglich, 64-Bit-Betriebssysteme als Gäste zu betreiben. Virtual Server gestattet es, Hardwareressourcen automatisch und nach Bedarf zuzuordnen und kann in ein ActiveDirectory eingebunden werden. Typische Einsatzgebiete der Software sind kleine bis mittelgroße System-, Test- und Entwicklungsumgebungen (Ahnert 2009, 74f.).

Hyper-V ist die umfangreichste Lösung zur Servervirtualisierung aus dem Microsoft-Produktportfolio und bildet das Pendant zu VMWare vSphere. Basisversionen sind Bestandteil aktueller Windows Server-Betriebssysteme und auch als funktional eingeschränkter und eigenständiger Hyper-V Server erhältlich (Larisch 2009b, 28ff. & Radonic 2011a, 84f.). Die Anwendungslösung ermöglicht die Realisierung von virtuellen Server-, Speicher-, Desktop- und Netzwerkstrukturen. Umfangreiche Hardwareunterstützung, Migrations- und Load-Balancing-Tools sowie Snapshotfunktionen runden den Leistungsumfang ab (Larisch 2009b, 43f). Für komfortablen Administrationsfeatures und performanceoptimierten Betrieb in größerer Systemumgebung sind jedoch häufig kostenpflichtige Erweiterungen wie der System Center Virtual Machine Manager nötig (Radonic 2011a, 85).

Citrix Systems bietet das Produkt Citrix XenServer zur Servervirtualisierung in kleineren bis mittelgroßen Produktivumgebungen an (Becker 2009, 51). Schon die kostenfreie Ausführung unterstützt die Einbindung gängiger Betriebssysteme und Hardwareressourcen sowie einfache Snapshot- und Migrationsfunktionen. Die open source-Lösung kann gegen Aufpreis mit zusätzlichen Funktionen nachgerüstet werden (Citrix Systems 2013b & Radonic 2011a, 85ff.). Abhängig vom Lizenzmodell kann auf weitere Features zur Performances- und Sicherheitsoptimierung, Speichervirtualisierung und andere Administrationswerkzeuge zurückgegriffen werden (Citrix Systems 2013b).

Oracle VM Server verwendet einen Xen-ähnlichen Hypervisor zur Performanceoptimierung. Neben einer umfangreichen Betriebssystemunterstützung bietet Oracle fertige VM Templates mit hauseigenen Anwendungen zur einfachen Integration an. VM Server ist eine freie Software, für Supportleistungen fallen jedoch laufend Kosten an (BITKOM 2009c, 15).

[...]

Details

Seiten
60
Jahr
2013
ISBN (eBook)
9783656831464
ISBN (Buch)
9783656830771
Dateigröße
1.9 MB
Sprache
Deutsch
Katalognummer
v281212
Institution / Hochschule
Otto-Friedrich-Universität Bamberg – Fakultät Wirtschaftsinformatik und Angewandte Informatik; Lehrstuhl für Wirtschaftspädagogik
Note
1,7
Schlagworte
Wirtschaftsinformatik; Wirtschaftspädagogik; Informatik; Virtualisierung; Vitualization; Clientvirstualisierung; Serverviertualisierung; Anwendungsvirtualisierung; Hochschule; Uni; Hochschuleinsatz; Virtualisierungstools; Virtual Box; Oracle; Virtual PC; Virtual Server; Thin Client; Nutzwertanalyse;

Autor

Zurück

Titel: Client- und Servervirtualisierung in Bildungseinrichtungen