Lade Inhalt...

Virtualisierung von IT-Infrastrukturen am Beispiel von VMware

Diplomarbeit 2006 83 Seiten

Informatik - Wirtschaftsinformatik

Leseprobe

Inhaltsverzeichnis

1. Vorwort

2. Grundlagen der IT-Infrastruktur
2.1. Wie kann eine IT-Infrastruktur aussehen
2.1.1. Stern-Topologie
2.1.2. Ring-Topologie
2.1.3. Bus-Topologie
2.1.4. Baum-Topologie
2.1.5. Vermaschte Netze
2.1.6. Zell-Topologie
2.2. IP-Adressbereiche
2.3. Welche Dienste und Server im Netzwerk
2.3.1. Domain Controller
2.3.2. DHCP Server
2.3.3. DNS Server
2.3.4. WINS Server
2.3.5. Proxy Server
2.3.6. Mail Server
2.3.7. File Server
2.3.8. Print Server
2.3.9. Datenbank Server
2.3.10. Web Server
2.3.11. Application Server
2.3.12. Backup Server
2.4. Begriffserklärung
2.4.1. Definition von SAN, Storage Area Network
2.4.2. Definition von NAS, Network Attached Storage

3. Verschiedene Virtualisierungsprodukte
3.1. Xen – Linux
3.2. VirtualPC
3.3. Virtuozzo vServer von SW-Soft
3.4. VMware

4. Produkte von VMware
4.1. Managing the Data Center
4.1.1. VMware ESX Server
4.1.2. VMware VirtualCenter
4.1.3. VMware P2V Assistant
4.1.4. VMware ACE Assured Computing Environment
4.1.5. VMware Virtual SMP
4.2. Optimizing Development
4.2.1. VMware Workstation
4.2.2. VMware GSX Server
4.2.3. VMware Player

5. Lösungsansätze am Beispiel von VMware
5.1. Serverkonsolidierung
5.1.1. Konsolidierung IT-Infrastruktur
5.1.2. Konsolidierung geschäftskritischer Server
5.2. Test und Entwicklung
5.2.1. Mehrere Betriebssysteme
5.2.2. Netzwerk auf einem System
5.2.3. Testbibliotheken
5.3. Disaster Recovery – Geschäftskontinuität
5.3.1. Clustering
5.3.2. Recovering
5.3.3. Failover

6. Vorgehensweise
6.1. Exkurs: RAID
6.2. Virtual Network Settings
6.3. Verwalten einer virtuellen Infrastruktur
6.5. Anwendungsbeispiele
6.6. Beispiele aus der Wirtschaft
6.6.1. Die Commerzbank
6.6.2. SAP

7. Kostengegenüberstellung
7.1. TCO – Total Cost of Ownership
7.2. Die vier TOC Kategorien
7.3. Beispiele mit Zahlen
7.4. Welche Kosten kommen in einer herkömmlichen IT-Infrastruktur auf?
7.4.1. Die Server
7.4.2. Die Klimaanlage

8. Vor- und Nachteile

9. Fazit / Ausblick

Ehrenwörtliche Erklärung

Zusammenfassung

Abstract

1. Vorwort

In den meisten Unternehmen wächst die IT-Infrastruktur beachtlich. Verschiedene Unternehmen expandieren und verbinden ihre Niederlassung weltweit zu einem einzigen Firmennetz. Ebenso die Vernetzung von Kunden oder Zulieferer über das Internet ist ein großes Thema. Für jede neue Funktion werden immer neuere und leistungsfähigere Geräte angeschafft. Nicht zu verachten ist allerdings, die Gegenüberstellung der Kosten mit dem Nutzen. Ebenfalls muss genau erfasst werden, welche weiteren Kosten auftreten können. Dazu gehört der benötigte Platz der IT-Infrastruktur, die Wartungskosten, Betriebskosten, die entstehen können, sowie die Folgekosten bei zum Beispiel Hardwareschäden oder Aufrüstung, die Ausfallzeiten mit sich bringen. Die komplette Infrastruktur, die benötigt wird, sei es geeignete Liegenschaften, sicherheitsrelevante Aspekte, wie zum Beispiel die Vermeidung unbefugten Zutritts oder die Integrität der Datenbestände eines Unternehmens.

Alle Welt spricht von der Virtualisierung in der Informations-Technologie. Es gibt mehrere Möglichkeiten, Systeme zu virtualisieren und auch unterschiedliche Softwarelösungen. Aber was bringt die Virtualisierung? In Zeiten der knappen IT-Budgets ganz klar, Kostensenkung in der Hardware und in der Administration.

Worauf ich hier eingehen möchte, ist die Konsolidierung vieler physischer Server-Systeme in vielen logischen Einheiten, die auf einem physischen Server laufen und nicht die Verknüpfung der Rechenpower vieler Systeme in einer logischen Einheit.

Durch die Virtualisierung kann ebenfalls die Rechenleistung der einzelnen Maschinen um ein Vielfaches gesteigert werden. Die meisten Server sind oft nur für ein oder zwei Aufgaben zuständig. Das heißt, ein Großteil der Zeit sind sie nur minimal ausgelastet und verbrauchen kostbare Ressourcen. Mit der Virtualisierungs-Strategie kann dem entgegen gewirkt werden. Man lässt auf einem Server mehrere Server-Systeme virtualisiert laufen, damit sie sich die kostbaren Hardware-Ressourcen teilen. Dadurch kann auch der Serverpark um einige Maschinen reduziert werden, was sich auch erheblich in den Kosten widerspiegelt. Die Effektivität der im Unternehmen verwendeten Server kann von den momentanen 5 – 15% der Auslastung dadurch schon mal auf 60 – 80% gesteigert werden. Auch neue Systeme können so in Stunden anstatt in Tagen oder sogar Wochen aufgesetzt und in dem produktiven Betrieb aufgenommen werden.

Auf den folgenden Seiten möchte ich die Umsetzung von einer herkömmlichen Unternehmens-IT-Infrastruktur in eine virtuelle IT-Infrastruktur aufzeigen, unter Zugrundelegung von Zeit, welche für eine leichte Umsetzung ebenso eine große Rolle spielt wie auch die Kosten. Eine Kostengegenüberstellung stellt dar, wo und wie Kosten durch eine Virtualisierung einer IT-Infrastruktur eingespart werden können.

2. Grundlagen der IT-Infrastruktur

In diesem Kapitel werden die grundlegenden Verständnisse der IT-Infrastruktur vermittelt und wie ein Netzwerk aufgebaut ist und welche Mindestkomponenten für den reibungslosen Betrieb erforderlich sind.

Des Weiteren wird ein Überblick über die meisten, in einem Unternehmensnetzwerk benötigten und vorhandenen Server und Applikationen gewährt. Es wird auf die Funktion und die Notwendigkeit der einzelnen Server eingegangen und erläutert. Da in es jedem Unternehmen unterschiedliche Prioritäten in Funktionsumfang und Applikationen gibt, werden hier nur die wichtigsten und wohl die meist vertretenen Dienste aufgeführt.

Hiermit soll erst einmal das Gefühl und die Sicht für eine Unternehmens-Infrastruktur gezeigt werden, um später den Sinn der Virtualisierung zu verstehen.

2.1. Wie kann eine IT-Infrastruktur aussehen

Wie kann eine Infrastruktur in einem Unternehmen aussehen beziehungsweise welche Netzwerktopologien gibt es und werden eingesetzt? Topologien beschreiben die Struktur bei einem Computernetzwerk, das mit mehreren Geräten verbunden ist und untereinander Daten austauscht. Die Struktur wird mit Hilfe der Graphentheorie grafisch mit Knoten und Kanten dargestellt. Die Strukturen können Stern-, Ring-, Bus-, Baum-, Zell-Topologie und Vermaschtes Netz sein.

Hier ein Überblick über die unterschiedlichen Topologien und ihre Einsatzgebiete.

2.1.1. Stern-Topologie

Bei Stern-Topologien werden alle Teilnehmer an einen zentralen Teilnehmer in einer Zweipunktverbindung verbunden. Eine zentrale Einheit kann ein Hub oder ein Switch sein. Dazu aber später mehr. Fällt ein Teilnehmer aus, so beeinflusst dies nicht die anderen Einheiten im Netzwerk. Ist allerdings die zentrale Komponente gestört, würde dies das ganze Netz betreffen und lahm legen.

Ein Schutz dagegen wäre eine redundante Installation: die doppelte Anzahl der zentralen Komponente.

Die Vorteile einer solchen Struktur sind eine leichtere Erweiterbarkeit, eine hohe Übertragungsrate (falls ein Switch verwendet wird) und der Ausfall einzelner Geräte würde den Rest des Netzwerks nicht beeinflusst.

Die Nachteile wiederum sind die aufwändige Verkabelung und der komplette Ausfall des Netzes, wenn die zentrale Komponente streikt.

Eingesetzt wird diese Topologie unter anderem bei FastEthernet, Token Ring, Telefonnetz.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-1 – Die Stern-Topologie – Quelle: Dominik Frank

2.1.2. Ring-Topologie

In der Ring-Topologie werden jeweils zwei Teilnehmer über Zweipunktverbindungen miteinander verbunden. Auf diesem Weg entsteht ein Ring, wenn die letzten zwei Teilnehmer zusammen gefügt werden. Die Informationen werden von Teilnehmer zu Teilnehmer übertragen, bis sie ihren Bestimmungsort erreicht haben. Es können auf diese Weise große Entfernungen überbrückt werden, da die Teilnehmer auch als Repeater wirken. Mit Lichtwellenleiter (LWL) können das schon mehrere Kilometer sein.

Fällt hier ein Teilnehmer aus, legt dieser das ganze Netzwerk lahm. Verhindert wird das nur durch die Protection-Umschaltung. Das muss allerdings von den Geräten unterstützt werden. Die Protection-Umschaltung läuft folgendermaßen ab: der normale Weg, den die Pakete nehmen, läuft zum Beispiel im Uhrzeigersinn. Angenommen, ein Teilnehmer ist gestört, dann nehmen die Pakete den Weg in die andere Richtung zum Ziel. In diesem Falle gegen den Uhrzeigersinn. Bei Feldbussystemen werden beispielsweise diese Verfahren eingesetzt und bei Token Ring wurde es verwendet.

Vorteile sind deterministische Netzwerkkommunikation, bei der Vorgänger und Nachfolger definiert sind. Es gibt keine Kollisionen, und jede Station dient als Verstärker. Die Übertragungsbandbreite ist Ring-Netzwerken garantiert.

Nachteile dieser Topologie sind die teuren Komponenten und die mühsame Erweiterbarkeit.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-2 – Die Ring-Topologie – Quelle: Dominik Frank

2.1.3. Bus-Topologie

Die Bus-Topologie besteht aus einem Hauptkabel, dem Bus, an dem alle teilnehmenden Geräte angeschlossen sind. An den beiden Enden hängen Abschlusswiderstände, die Reflexionen verhindern sollen. Der Anschluss zwischen Bus und Netzwerkkarte geschieht mit einem T-Stück.

Mit Zugriffsverfahren wie CSMA/CD wird versucht, Störungen zu verhindern, damit es keine Kollisionen gibt, da alle Teilnehmer gleichzeitig oder nur leicht zeitversetzt senden dürfen. Die Daten können in beide Richtungen übertragen werden. Eine Station sendet ihre Daten und diese breitet sich in beide Richtungen aus. Fällt ein Teilnehmer aus, bleibt das Netzwerk intakt. Nur bei einem Kabelbruch des Busses steht das ganze Netzwerk.

Vorteile: geringe Kosten durch geringe Kabelmengen. Eine einfache Verkabelung und leichte Erweiterbarkeit sind möglich.

Nachteile: bei dieser Struktur steigt die Belastung (Strom) des Hauptkabels mit jeder Erweiterung eines Teilnehmers. Alle Daten werden über ein einziges Kabel geleitet.

Dadurch können sie durch so genannte Sniffer leicht abgehört und mitgeschnitten werden. Eine Störung am Hauptkabel durch beispielsweise eine lockere Kupplung blockiert das gesamte Netzwerk. Die Ermittlung der Fehlerquelle gestaltet sich als sehr mühsam und schwierig.

Es kann immer nur eine Station Daten senden, während die anderen horchen müssen. Daher wird bei den anderen Teilnehmern der Datenstrom blockiert und ein Datenstau entsteht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-3 – Die Bus-Topologie – Quelle: Dominik Frank

2.1.4. Baum-Topologie

Bei einer Baumstruktur werden mehrere Netze in Sternformen hierarchisch zu einem Baum zusammen geführt. Die Verbindungen zwischen den Verteilern (Switch, Hub) werden mittels Uplinkports hergestellt. Diese Struktur wird meistens für große Netze in großen Gebäuden und Liegenschaften eingesetzt.

Vorteile:

Strukturierte Erweiterbarkeit und große Entfernungen durch Kombinationen erreichbar.

Nachteile:

Bei einem Ausfall eines Verteilers (Switch, Hub, Router) sind ganze Teilnetze abgeschieden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-4 – Die Baum-Topologie – Quelle: Dominik Frank

2.1.5. Vermaschte Netze

Bei einem vermaschten Netz ist jeder Teilnehmer mit einem anderen oder mehreren Teilnehmern verbunden. Ein Netz gilt als vollvermascht, wenn jeder Knoten und jede Kante miteinander verbunden ist. Fällt eine Verbindung oder ein Gerät aus, kann im Normalfall durch Routing der Datenverkehr umgeleitet werden. Diese Struktur wird in großen Netzen wie zum Beispiel das Internet angewendet. Aber auch hier gibt es Hauptleitungen, die wie ein Bus funktionieren, die so genannten Backbone-Leitungen.

Vorteil:

Diese Variante gilt als die sicherste der Netzwerkstrukturen gilt, da der Datenverkehr über Routingtabellen umgeleitet werden kann, falls eine Station ausfällt.

Nachteil:

Es werden um einiges mehr Kabelmengen verbraucht, was zu einem hohen Energieverbrauch führt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-5 – Ein vermaschtes Netz – Quelle: Dominik Frank

2.1.6. Zell-Topologie

Die Zell-Topologie kommt in drahtlosen Netzen wie Wireless LAN oder Mobilfunk vor. Der Bereich um eine Basisstation (Access Point in WLAN) ist die Netzzelle. Der Datenverkehr zwischen den einzelnen Teilnehmern erfolgt über die Netzzelle hin zur Basisstation und von dort zur nächsten Zelle einer eventuell anderer Basisstationen.

Vorteile: es ist keine Verkabelung nötig und es entstehen keine Störungen beim Ausfall einiger Teilnehmer.

Nachteile: nur begrenzte Reichweite. Bei Sichtverbindung mehr und bei Hindernissen weniger Reichweite. Ein drahtloses Netz ist sehr störanfällig und sehr unsicher.

Der Datenverkehr kann hier mitgeschnitten und abgehört werden, da jeder von außen in das Netz eindringen kann. Durch gesonderte Verschlüsselung wie WEP, WPA oder VPN kann dem entgegen gewirkt werden. Dazu braucht es eventuell weitere Sicherheitsstrukturen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-6 – Ein Funknetzwerk wie WLAN oder Mobilfunk – Quelle: Dominik Frank

2.2. IP-Adressbereiche

Damit sich Stationen in einem Netzwerk finden und miteinander kommunizieren können, brauchen sie eine eindeutige Kennung. In IP-Netzen sind das die IP-Adressen, ein Datum, das die logische Verknüpfung der einzelnen Stationen (Hosts) erlaubt. Dabei können die Teilnehmer Computer, Server, Drucker, Switches, Router usw. sein. Vergleichbar ist die IP-Adresse mit einer Telefonnummer. Wird diese Nummer angewählt, meldet sich dieser.

Es wird in öffentlichen und privaten Netzklassen unterschieden. Über die privaten Adressbereiche kann frei verfügt werden, da sie im Internet nicht geroutet werden. Die öffentlichen Adressen können gekauft oder gemietet werden. Auch ganze Netzbereiche können gebucht werden.

Im Prinzip braucht jedoch ein Unternehmen nicht mehr als zwei bis drei öffentliche Adressen, je nachdem wie viele Dienste die Firma nach außen bereitstellen möchte. An den öffentlichen IP-Adressen hängen zum Beispiel die Router einer Firma, die die Verbindung des internen Netzwerkes mit dem Internet herstellen. Im internen Netzwerk können dann private IP-Adressen verwendet werden. Damit wäre dann auch das Problem gelöst, das vor ein paar Jahren aufgekommen ist. Damals hieß es, die Adressbereiche würden auf dieser Welt nicht mehr ausreichen. Es hatte nämlich jeder Netzwerkdrucker, PC oder Server eine öffentliche IP-Adresse, wobei es zu erheblichen Sicherheitsrisiken kam.

Die nachstehende Tabelle vermittelt einen Überblick über die einzelnen Adressbereiche.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2-1 – IP-Adressbereiche und ihre Nertzklassen – Quelle: Dominik Frank

Die Unterteilung der Adressen geschieht zum einen durch die Netzadresse selbst und zum anderen durch die dazugehörende Netzmaske. Durch Subnetting, also das Festlegen einer Subnetzmaske, können diese Adressbereiche weiter unterteilt werden und damit eine gewünschte Struktur erzeugen.

Damit IP-Adressen auch einem Host eindeutig zugewiesen werden können, muss die IP-Adresse mit der Hardware-Adresse (MAC-Adresse) des Teilnehmers verknüpft werden. MAC-Adressen (Media Access Control) ist eine 12stellige, hexadezimale Zeichenkette, die vom Hersteller vergeben wird und weltweit einmalig ist. Diese Informationen werden in einer ARP-Tabelle (Address Resolution Protocol) festgehalten.

Wenn ein IP-Paket von einer Quell-Adresse zu einer Ziel-Adresse versendet werden soll, werden die Netzwerkteile der Adressen verglichen, ob sie sich im gleichen Netz befinden. Ist dies der Fall, wird das IP-Paket direkt an die Ziel-Adresse geschickt. Stimmen die Netzadressen nicht überein, wird das IP-Paket an einen Router gesendet. Dort wird in der Routingtabelle nachgeschaut, wo das Zielnetz ist und wohin das Paket weitergeleitet werden soll.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2-2 – Ablauf eines Routings inkl. der einzelnen Schichten, die involviert sind – Quelle: Cisco

IP-Adressen sind lange Zahlenreihen, mit denen es etwas umständlich zu arbeiten ist. Jeder Teilnehmer im Netz kann auch einen alphanumerischen Namen besitzen. Dieser Rechnername muss in die passende IP-Adresse übersetzt werden. Diese Aufgabe übernimmt ein DNS Server (Domain Name System). Auf ihm sind alle IP-Adressen und ihre zugehörigen Rechnernamen registriert.

Die Vergabe der IP-Adressen kann auf zwei unterschiedliche Arten erfolgen. Einmal kann sie manuell vergeben werden oder sie wird automatisch über einen DHCP Server vergeben. Das DHCP Protokoll (Dynamic Host Configuration Protocol) dient dazu, dynamisch einem Teilnehmer im Netz eine IP-Adresse aus einem bestimmten Bereich zu zuweisen. Bei jeder neuen Netzwerkanmeldung bekommt der Rechner eine neue IP. Voraussetzung ist das Anmelden nach der Lease time an. Die Lease time reserviert die IP-Adresse für einen festgelegten Zeitraum. Das heißt, meldet sich der Teilnehmer innerhalb der Lease time an, bekommt er die gleiche IP-Adresse zugewiesen wie zuvor.

Bei DHCP ist das Zusammenspiel mit dem DNS Server wichtig, da eigentlich nicht bekannt ist, welche IP-Adresse man gerade bekommen hat und man so auf den Rechnernamen angewiesen ist.

2.3. Welche Dienste und Server im Netzwerk

In einem Unternehmen werden zum Betrieb der IT-Infrastruktur selbst und für den allgemeinen Geschäftsbetrieb eine Reihe von Servern und Diensten benötigt. Die nachfolgende Liste soll die einzelnen Dienste kurz beschreiben.

2.3.1. Domain Controller

Der Domain Controller ist der oberste Dienst in einem Netzwerk. Er stellt die Domain für ein Netzwerk zur Verfügung. Ebenso werden auf ihm alle Benutzeraccounts mit all ihren Rechten und Restriktionen verwaltet. Wer hier nicht eingetragen ist, hat im Netzwerk keine Möglichkeit, sich einzuloggen und mitzuwirken. Früher unter NT4 Domainen gab es einen Primary Domaincontroler (PDC) und einen Secondary beziehungsweise einen Backup Domain Controller (BDC). Fiel der PDC aus, übernahm der BDC die Arbeit. Allerdings konnten Änderungen in der Benutzerverwaltung immer nur auf dem PDC durchgeführt werden. Mit dem Einzug von Active Directory durch Windows 2000 fielen diese Restriktionen weg. Es gibt mehrere Domain Controller (DC) im Netzwerk, die untereinander Replikationsdienste durchführen. Änderungen können jetzt auf jedem DC gemacht werden, und die anderen bekommen es mit der nächsten Replikation auch mit.

2.3.2. DHCP Server

Oft ist der DHCP Server auf einem Domain Controller mit angesiedelt. Er verwaltet die komplette dynamische IP-Adressen-Verwaltung im Netzwerk. Jeder Teilnehmer im Netz bekommt von ihm eine gültige IP-Adresse aus einem bestimmten Adressraum zugewiesen.

2.3.3. DNS Server

Der DNS Server (Domain Naming Service) ist ein ganz wichtiger Dienst im Internet, aber auch im Firmennetzwerk. Er setzt die Domainnamen (Internetadressen) in die passenden IP-Adressen um. Auf diese Weise muss keiner die IP-Adresse eingeben, wenn er eine Internetseite besuchen möchte. Ebenso läuft es im internen Netzwerk, in dem die IP-Adressen mit den Rechnernamen verknüpft werden.

2.3.4. WINS Server

Der WINS Server, Windows Internet Naming Service, dient als dynamische NetBIOS Namensauflösung. Geht ein neuer Host ans Netz, meldet er seinen Rechnernamen und seine Domain an den WINS Server. Auch kann über ihn die auf einem Rechner angemeldeten Benutzer und Benutzergruppen ermittelt werden. Mit Windows 2000 und der Einführung von Active Directory wurde eigentlich der WINS Server durch DNS Dienst abgelöst. „Eigentlich“ heißt, dass in der Praxis weiterhin auf einen WINS Server nicht ganz verzichtet werden kann. Verschieden Dienste wie Exchange Server oder DFS (Verteiltes Dateisystem) benötigen den WINS.

2.3.5. Proxy Server

Der Proxy dient als eine Art Vermittler oder Stellvertreter für die Teilnehmer im Netzwerk. Der Proxy ist im Prinzip eine Art Cache (Zwischenspeicher), der alle angeforderten Daten auf dem Internet speichert. Wenn aus dem Netzwerk mehrere Clients (Browser auf verschiedenen Rechnern) auf die gleiche Internetseite zugreifen wollen, dann holt der Proxy die Daten dieser Seite genau einmal ab und speichert sie zwischen. Die Seite ist dann für die anderen Clients aus dem Cache verfügbar. Dadurch kann zum einen die Netzbelastung eingeschränkt werden und eine effizientere Nutzung gewährleistet werden, zum anderen kann hier auch eine Zugriffssteuerung eingesetzt werden. Verschiedene Webseiten können so gesperrt werden oder durch ACL (Access Control List) können auch einzelne Benutzer mit bestimmten Rechten belegt werden. Meist ist hier die Rede von einem http-Proxy, aber es gibt auch FTP-Proxy oder SOCKS-Proxy. Oft wird ein Proxy unter Linux installiert und dazu den Squid als Proxy-Software benutzt.

2.3.6. Mail Server

Der Mail Server ist auch ein wichtiger Serverdienst in einem Netzwerk. Er erstellt die zentrale Kommunikation des Unternehmens bereit. Es können Microsoft Exchange Server oder auch Lotus Domino Server eingesetzt werden. Meistens ist es aber der Exchange Server von Microsoft. Er beherbergt alle Mailboxen der Mitarbeiter und durch einen Gateway Server können die E-Mails von dem Exchange Server auch zu externen Adressen geschickt werden.

2.3.7. File Server

Auf einem Filer oder Dateiserver werden sämtliche Dateien im Unternehmen gespeichert. Er dient als eine reine Dateiablage, von der auch Backups gemacht werden. Ein Filer kann ein Windows Server sein oder unter Linux, Mac OS betrieben werden. Jeder Windows Server kann als Dateiserver eingerichtet werden. Bei ihm werden im Prinzip nur Dateifreigaben für das interne Firmennetz eingerichtet. Im Windows Explorer können diese Freigaben dann mit Servername und Name der Freigabe auf dem eigenen Rechner eingebunden werden.

Ein unter Linux geführter Dateiserver muss den nötigen Dienst installiert haben. Bei Linux wird für die Netzwerkfreigaben in einem Windows-Netzwerk die Software Samba verwendet. Hier wird auch die Verwaltung der Rechte eingetragen oder der Verweis auf einen Active Directory Server gesetzt. In einem reinen Linux-Umfeld wird der Dienst NFS (Network File Share) verwendet. Die Dateien werden auf dem Server gespeichert, wenn nicht genügend Speicherplatz vorhanden ist, kann ein Disk Array extern angehängt werden. Dann könnte man schon fast von einem NAS sprechen.

2.3.8. Print Server

Der Print Server oder Druck Server dient als zentrale Verwaltungsstelle aller Netzwerkdrucker im Firmennetz. Dieser verwaltet alle Druckaufträge und leitet sie direkt an den passenden Druck weiter. Auf dieser Weise ist jeder Drucker (Netzwerkdruck) unter einer IP-Adresse erreichbar. Auch können direkt an einen PC angeschlossene Drucker durch eine Art Printserver-Funktion im Netzwerk bereitgestellt werden.

2.3.9. Datenbank Server

Ein Datenbank Server hat eigentlich nur die Aufgabe, die auf ihm installierte Datenbank, zum Beispiel Oracle, MS SQL, zu verwalten und eventuell die Daten zu speichern.

2.3.10. Web Server

Der Web Server stellt das Intranet und den externen Webauftritt der Firma bereit. Meist ist dies eine Linux-Maschine, auf der ein Apache Web Server oder ein Tomcat Application Web Server läuft. Es kann aber auch ein Windows Server sein, der seine Dienste über den MS IIS (Microsoft Internet Information Store) anbietet. Oft gibt es hier ein Zusammenspiel mit einem Datenbank Server. Damit eine Maschine nicht überlastet wird, werden diese zwei Dienste oft auf zwei unterschiedlichen Servern verteilt, auch aus datensicherheitstechnischen Gründen.

2.3.11. Application Server

Auf dem Application Server können mehrere Programme laufen. Entweder es ist eine Webbasierende Anwendung, dann ist der MS IIS oder der Tomcat installiert. Der MS IIS arbeitet ASP-Skripte ab, während der Apache Tomcat nur in Java programmierte Seiten darstellt. Es können aber auch zum Beispiel Office Programme installiert sein, die über die Terminal Services Funktion oder über Citrix auf einen Citrix Presentation Server benutzt werden.

2.3.12. Backup Server

Der Backup Server hat nur eine Aufgabe: die Backup Jobs laufen zu lassen und alle gesicherten Daten zum Beispiel auf einem an ihm angeschlossenen Bandlaufwerk. Er könnte aber auch auf Festplatten speichern. Als Backup Server ist er mit allen zu sichernden Servern über die so genannten Backup Agents verbunden, die den Zugriff auf die Daten gewährleisten, auch wenn sie gerade in Benutzung sind.

2.4. Begriffserklärung

In dieser Tabelle werden ganz kurz die gebräuchlichsten Abkürzungen und Begriffe sowie ihre Bedeutungen dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2-3 – Die gebräuchlichsten Begriffe und Abkürzungen – Quelle: Dominik Frank

Da die Speichermöglichkeiten für die Virtualisierung einer ganzen IT-Infrastruktur ein sehr wichtiges Thema ist, wird hier auf die zwei häufigsten eingesetzten Verfahren noch genauer eingegangen.

2.4.1. Definition von SAN, Storage Area Network

Als SAN bezeichnet man ein Netzwerk, das Festplatteneinheiten mit Server-Systemen miteinander verbindet. An ein SAN können mehrere Server-Systeme angebunden werden, eine so genannte Mehrpunkt-zu-Punkt-Verbindung.

Im SAN werden die Daten überwiegend blockbasierend übertragen. Das heißt, es werden Daten in einzelnen Blöcken von den Festplatten übertragen und nicht dateibasierend wie bei NFS, Network File Systems. Hier werden ganze Dateien übertragen. Als Kommunikationsprotokoll wird meist SCSI verwendet, welches wiederum auf Fiber Channel und iSCSI aufsetzt.

Bei Fiber Channel, das überwiegend mit Glasfaser oder auch mit Kupferkabel verwendet wird, erreicht man Bandbreiten bis zu 4Gb/s. iSCSI ist ein Storage-over IP Verfahren in dem die SCSI-Daten TCP/IP-Pakete verpackt und über IP-Netze übertragen werden. Es erweitert das Direct Attached Storage (DAS), das festeingebaute Festplatten eines Server-Systems beschreibt. Bei einem DAS wird eine Punkt-zu-Punkt-Verbindung zwischen dem Server-System und den Festplatten hergestellt.

Der Vorteil bei SAN-Systemen ist die Virtualisierung vorhandener Subsysteme. So kann der Massenspeicher virtuell wie eine einzelne Festplatte behandelt werden.

Ein Nachteil existiert noch heute, und zwar die nicht standardisierte Technik einzelner Hersteller. Ein Unternehmen muss sich für ein System eines Herstellers entscheiden, um so eventuelle Probleme in der Kommunikation und der Inkompatibilität der Komponenten zu umgehen.

2.4.2. Definition von NAS, Network Attached Storage

NAS sind an das Netzwerk angeschlossene Massenspeichereinheiten, die zur Erweiterung der Speicherkapazität im lokalen Netzwerk dienen. Sie funktionieren wie ein File-Server. Meist haben NAS-Systeme nur eine einzige Aufgabe, die Daten auf ihren angeschlossenen Festplatten im lokalen Netz bereit zustellen. Hier werden eigentlich nur Dateibasierende Dienste wie Samba (SMB) oder Network File System (NFS) installiert.

Ein NAS-Server ist sehr gut skalierbar. Er kann eigene Festplatten besitzen oder an ein vorhandenes SAN angebunden werden. Die Konfiguration eines NAS ist denkbar einfach. Meistens geschieht dies durch ein Webinterface. Überwiegend wird als Betriebssystem Linux verwendet.

3. Verschiedene Virtualisierungsprodukte

Es gibt eine Anzahl von Virtualisierungssoftware auf dem Markt. Im Großen und Ganzen besteht die Technik darin, dass die nur einmal verfügbare, physikalische Hardware für mehrere Gastsysteme gleichzeitig zur Verfügung gestellt wird. Dies kann durch das Emulieren oder Virtualisieren erreicht werden. Beim Emulieren sinkt die Performance aber recht stark. Mit ressourcehungrigen Systemen oder Anwendungen kommt man nicht weit. Beim Virtualisieren wird jedem Gastsystem vorgespielt, es habe eine eigene CPU, einen eigenen Speicher.

Hier ein kurzer Überblick über die drei bekanntesten Virtualisierungsprogramme.

3.1. Xen – Linux

Xen ist eine Virtualisierungssoftware aus dem Open Source Bereich. Ursprünglich stammt sie von der Universität Cambridge, deren Entwickler aber mittlerweile eine eigene Firma mit dem Namen XenSource gegründet haben.

Sie steht unter der GNU General Public License (GPL) und ist in den gängigsten Linux Distributionen integriert. Da Xen direkt auf der x86-Hardware läuft und für die darauf laufenden Systeme, den so genannten Domains, paravirtualisiert und nicht emuliert, wird durch einen geringen Overhead eine hohe Performance erzielt. Als Gastsystem werden Linux, NetBSD oder Windows unterstützt. Letzteres aus Lizenzgründen jedoch noch nicht offiziell.

Xen ist eine Kernelerweiterung, die den Kernel um eine virtuelle Architektur, dem Hypervisior, ergänzt. Es ist geplant, Xen in den offiziellen Kernel 2.6 zu integrieren. Wird Xen auf einem LinuxSystem installiert und bei einem Neustart in den Kernel geladen, startet die Domain-0 (xen0). Die Domain-0 startet und verwaltet die weiteren Domains, für die sie verantwortlich ist. So ist es möglich, abhängig von Ressourcen wie Speicher und CPU, beliebig viele Domains bzw. Gastsysteme zu installieren.

3.2. VirtualPC

VirtualPC ist ursprünglich aus dem Hause Connectix, die 2003 von Microsoft gekauft wurde. Microsoft integrierte dann VirtualPC in die eigene Produktpalette. Bei Microsoft Office Professional für Mac OS kommt VirtualPC schon zum Einsatz. Hier wird ein x86-System für einen Macintosh emuliert.

Mit VirtualPC wird ein kompletter PC virtualisiert mit Hilfe so genannter virtueller Maschinen. Im Gegensatz zu anderen Produkten wird nicht der physikalisch vorhandene Rechner simuliert bzw. emuliert, sondern nur einen Standard-PC mit einem Pentium II – Prozessor, einem CD- oder DVD-Laufwerk und maximal 3 Festplatten, einer 100 Mb Netzwerkkarte, einer Audiokarte und einer 8-MB-Grafikkarte. PCI-Geräte werden nicht unterstützt und USB nur von der Macintosh-Version.

Unter VirualPC können auch nur Windows-Systeme virtualisiert werden und keine Linux-Systeme. Dies möchte Microsoft nach dem momentanen Stand der Dinge auch vorerst nicht ändern. Bei Mac OS werden durch VirtualPC sämtliche Windowsprogramm lauffähig gemacht.

3.3. Virtuozzo vServer von SW-Soft

Die Firma Virtuozzo stellt eine Virtualisierungssoftware zur Verfügung, die es sowohl für Linux- als auch für Windows-Systeme gibt. In den letzten Jahren ist die Software vServer durch die Produkte der einzelnen Hoster bekannt geworden. Hinter den Produkten „VPS – Virtual Private Server“ und „Virtual RootServer“ steckt meistens die Software aus dem Hause Virtuozzo in Washington DC / USA, deren European Office ihren Sitz in Darmstadt hat.

Der Aufbau von vServer ist ähnlich dem von VMware. Sie setzt ebenfalls auf dem Hostsystem auf und präsentiert die vorhandene Hardware durch ihre Virtualisierungsschicht den einzelnen virtuellen Systemen. vServer wird durch eine Vielzahl von Managing-Tools unterstützt, wie zum Beispiel dem Tool „Vituozzo Physical To Virtual Migration“ (VZP2V) oder dem browser-based Interface für den Control Center.

vServer ist für den kommerziellen Einsatz gedacht und ist kostenpflichtig. Aber es existiert mittlerweile ein Open-Source-Clone, der OpenVZ. Dieser Clone wird von der Firma SWsoft unterstützt, die wiederum zu Virtuozzo gehört (auch Acronis). OpenVZ läuft allerdings nur unter Linux-Distributionen.

3.4. VMware

VMware stammt von der Firma VMware Inc, die im Jahre 1998 gegründet wurde und ihren Sitz in Kalifornien hat. Sie hatte die Idee, die Virtualisierungtechnik aus der Mainframe-Klasse in die Industriestandard-Rechner zu bringen. Mit den Produkten VMware Workstation, VMware GSX Server, VMware ESX Server und weiteren VMware Tools in ihrer Produktpalette decken sie ein breites Spektrum in der IT-Landschaft ab.

Man kann sie durchaus als Markführer in Sachen Virtualisierung von Systemen und ganzer Netzwerke in der IT-Branche nennen. Sie setzen auch neue Standards im Bereich der Serverkonsolidierung und Disaster Recovery. Auf diese Produkte wird hier genauer eingegangen werden.

[...]

Details

Seiten
83
Jahr
2006
ISBN (eBook)
9783638559683
Dateigröße
3.5 MB
Sprache
Deutsch
Katalognummer
v62778
Institution / Hochschule
SRH Fachhochschule Heidelberg
Note
1,3
Schlagworte
Virtualisierung IT-Infrastrukturen Beispiel VMware

Autor

Teilen

Zurück

Titel: Virtualisierung von IT-Infrastrukturen am Beispiel von VMware