Lade Inhalt...

Struktur von Rechnernetzen

Facharbeit (Schule) 2001 27 Seiten

Informatik - Technische Informatik

Leseprobe

Inhaltsverzeichnis

1. Allgemeine Einführung in Computer-Netzwerke
1.1. Was ist ein Computer-Netzwerk
1.2. Geschichte der Vernetzung
1.3. Nutzungsmöglichkeiten von Netzwerken

2. Die Architektur von Computer-Netzwerken
2.1. Das Client-Server-Konzept
2.2. Das Peer-to-Peer-Konzept
2.3. Vergleich der beiden Netzwerkarchitekturen

3. Klassifikation von Rechnernetzen
3.1. Einteilung nach der Reichweite
3.1.1. Virtuelles Netz (VLAN)
3.1.2. Lokales Netz (LAN)
3.1.3. Kommunales Netz (MAN)
3.1.4. Weitverkehrsnetz (WAN)
3.1.5. Globales Netz (GAN)
3.2. Einteilung nach der Vermittlungstechnik
3.2.1. Leitungsvermittlung
3.2.2. Paketvermittlung
3.2.3. Gegenüberstellung der beiden Vermittlungstechniken
3.3. Einteilung nach den Topologien
3.3.1. Was ist eine Rechnernetz-Topologie ?
3.3.2. Physikalische Topologien
3.3.3. Logische Topologien

4. Beschreiben des Datenaustausches durch ein einfaches Schichtenmodell
4.1. Warum hat man den Datenaustausch in Schichten eingeteilt ?
4.2. Das OSI-Referenzmodell
4.2.1. Bitübertragungsschicht
4.2.2. Sicherungsschicht
4.2.3. Vermittlungsschicht
4.2.4. Transportschicht
4.2.5. Kommunikationssteuerungsschicht
4.2.6. Darstellungsschicht
4.2.7. Anwendungsschicht
4.3. Ablauf eines Kommunikationsvorgangs

5. Kommunikationsprotokolle
5.1. Was sind Kommunikationsprotokolle ?
5.2. Das TCP/IP - Protokoll als Beispiel eines Kommunikationsprotokolls
5.2.1. TCP
5.2.2. IP

1. Allgemeine Einführung in Computer-Netzwerke

1.1. Was ist ein Computer - Netzwerk ?

Ein Netzwerk besteht in seiner einfachsten Form aus zwei Computern. Sie sind über ein Netzwerkkabel miteinander verbunden. Anders ausgedrückt: Ein Computer-Netzwerk ist eine Ansammlung zusammenhängender, selbstständiger Computer. Zusammenhängend bedeutet dabei, dass die Computer Informationen über das Netzwerk austauschen können. Selbstständig meint, dass kein Rechner den anderen unmittelbar steuert. Die Informationen, die über Netzwerke ausgetauscht werden, können Programme, Daten oder Nachrichten sein. Um innerhalb eines Netzes Aktionen starten zu können, muss der Benutzer aber bestimmte Kommandos verwenden. Im Laufe der Jahre haben sich Qualität und Anzahl der Programme für Computer-Netzwerke drastisch erhöht. In den letzten Jahren sind sie in starken Maße populär geworden und haben sich in vielen Bereichen zu einem Standard entwickelt.

1.2. Geschichte der Vernetzung

Begonnen hat alles mit autonomen Rechnern, die über Terminals an zentrale Großrechner angeschlossen waren und nur von einem Nutzer zur selben Zeit verwendet werden konnten. Diese standen meist in unmittelbarer Nähe der großen Rechneranlagen. Ende der sechziger Jahre wurde die digitale Kommunikation erprobt und Mitte der Siebziger in einem bis heute geltenden Standard festgelegt. Gleichzeitig entstand mit dem PC und Arbeitsplatzrechnern (Workstations) eine Ablösung des Zentralrechnerkonzepts hin zu dezentraler Rechenleistung, womit zwar Leistungsprobleme gelöst, die Kommunikation unter den Teilnehmern des Rechenbetriebs aber erschwert wurde. Durch lokale Netze und später auch den Anschluss an das Internet konnten diese Probleme überwunden werden.

1.3. Nutzungsmöglichkeiten von Netzwerken

1. Resource-Sharing: Innerhalb von Datennetzen können Hardware-Ressourcen (Rechner, Festplatten, Drucker,...) und Software-Ressourcen (spezielle Anwendungsprogramme) effektiver ausgenutzt werden.
2. Remote Login: Das Netzwerk ermöglicht den Zugriff auf Ressourcen, unabhängig davon, wo sich Hard-/Software und Benutzer befinden. Ein Systembetreuer hat dadurch die Möglichkeit des Zugriffs auf Rechner, die Hunderte Kilometer entfernt sein können.
3. Electronic Mailing (E - Mail): Alle Teilnehmer können weltweit miteinander kommunizieren, wodurch auch die Möglichkeit eines Datenaustausches durch Anhängen einer Datei an eine E-Mail besteht (Attachment).
4. File - Sharing: Die Ressourcen können zentral gewartet und über das Netzwerk einer großen Zahl von Benutzern zugänglich gemacht werden. Durch Passwörter und unterschiedliche Zugriffsrechte auf die Daten ist auch der Datenschutz wesentlich besser gewährleistet. Außerdem sinkt der Aufwand für Installation und Update der Software beträchtlich.

Weitere Vorteile von Rechnernetzen:

1. Die Zuverlässigkeit eines Systems vernetzter Rechner ist höher als die eines einzelnen Rechners. Fällt z.B. in einem Rechnernetz ein Computer aus, können die Benutzer auf andere Rechnerkapazitäten und deren Daten ausweichen.
2. Das Preis-/Leistungsverhältnis mehrerer kleiner, aber vernetzter Rechner ist günstiger als die eines großen Rechners. Großrechner z.B. sind zwar von der Verarbeitungsgeschwindigkeit zehn mal schneller, als die schnellsten Microprozessoren, kosten jedoch ungefähr tausend mal mehr als eine Workstation (Arbeitsplatzrechner) oder ein Personal Computer (PC).

2. Die Architektur von Computer - Netzwerken

2.1. Das Client - Server - Konzept

Um dies erklären zu können, muss man erst einmal wissen was Clients und Server überhaupt sind:

Clients können sogenannte diskless workstations sein, die keine eigene Festplattenhierarchie vor Ort besitzen. Beim Einschalten holen sie sich das Betriebssystem sowie die benötigten Informationen über das Netz beim Server, so z.B. den eigenen Rechnernamen, Netzadresse, Nutzerberechtigungen, usw. Nach diesem Vorgang können sie dann wie ein normaler Rechner betrieben werden.

Es kann sich aber auch um ganz normale Arbeitsplatzrechner, z.B. PCs, handeln, die von den Servern angebotene Dienstleistungen nutzen.

Server sind üblicherweise die stärksten und am besten ausgebauten Rechner (meist Workstations) im Netz. Sie realisieren funktionale und infrastrukturelle Netzdienste, d.h. sie bieten den Clients Funktionen an und ermöglichen auch die Netzwerkverwaltung. Sie besitzen große Festplattenkapazitäten, eine schnelle CPU (Zentrale Recheneinheit) und, wenn möglich, darüber hinaus noch unterschiedliche Coprozessoren. Server wohnen in ausbaufähigen Gehäusen, die auch spätere Nachrüstungen mit neuen Speichermedien ermöglichen. Neben den üblichen Externspeichern auf Diskettenbasis können Server auch Bandlaufwerke, Bernoulli-Boxen oder Wechselplatten besitzen, um einer ihrer wichtigsten Funktionen, dem automatischen Backup, nachgehen zu können. Manche Teile der Server können ausfallsicher ausgelegt sein.

Bei einem Client-Server-Netz sind sämtliche Arbeitsstationen (Clients) untereinander und mit einem oder mehren Rechnern verbunden, welche spezielle Aufgaben für die Clients übernehmen und als Server bezeichnet werden. Ein Server liefert dabei eine klar definierte Menge von Diensten, die von den Arbeitsstationen genutzt werden können. Ein typisches Beispiel stellt der Fileserver dar, der gemeinsam nutzbare Datenbestände wie Programme oder Datenbanken enthält und diese den Arbeitsstationen zur Verfügung stellt. Weitere Beispiele für spezielle Server sind Printserver zur Steuerung gemeinsamer Drucker oder Kommunikationsserver zur Organisation des Internet-Zugangs.

Neben der Datenverwaltung gehört zu den zentralen Aufgaben eines Servers die Verwaltung der Benutzer des Netzes. So können die Zugriffsmöglichkeiten auf Daten oder Programme für jeden einzelnen Benutzer individuell freigegeben oder gesperrt und damit Datenmissbrauch verhindert werden. Ein weiterer Vorteil eines Fileservers ist in der erhöhten Datensicherheit zu sehen, da Datenbackups auf Bänder oder redudante Festplatten (RAID - Systeme) zentral durchgeführt werden können. Durch Anbindung des Servers an das Telefonnetz bzw. an Datenfernnezte besteht die bereits erwähnte Möglichkeit des Remote Logins.

Ein Server kann auch als Client fungieren und Dienste anderer Server abrufen. Die verbreitetste Anwendung der Client-Server-Architektur ist die PC-Arbeitsstation, die z.B. über LAN und WAN mit Servern, die lokal oder zentral angesiedelt sein können, verbunden ist. Solche Architekturen werden verstärkt genutzt und stellen Benutzern eine immer größere Auswahl von Diensten zur Verfügung.

Client-Server-Strukturen haben sich als Vernetzungskonzept durchgesetzt und ermöglichen die Realisation von komplexen Rechnernetzen mit mehreren Hundert Arbeitsstationen.

Beispiele für derzeit aktuelle Netzwerk-Betriebssyteme sind Windows NT Server , Macintosh OS X und Novell NetWare.

Das zu Grunde liegende Prinzip, dass ein Rechner (der Server) Dienste bereitstellt, die dann von anderen Rechnern (Clients) genutzt werden können, ist auch im Internet zu beobachten. Internetseiten werden von speziellen Webservern zur Verfügung gestellt und können dann mittels eines Browsers (eine Client-Anwendung) genutzt werden. Für Unternehmen mit kleineren bis mittleren LANs hat sich der Aufbau von Client-Server-Netzwerken unter Nutzung der Stern-Topologie bewährt.

Abbildung in dieser Leseprobe nicht enthalten

2.2. Das Peer - to - Peer - Konzept

Die Peer-to-Peer-Technologie ist aus der Möglichkeit entstanden, leistungsfähige PCs mit von Servern bekannten Diensten auszustatten. Der Begriff „peer“ kommt aus dem Englischen und bedeutet soviel wie „gleichgestellt“, „ebenbürtig“. Daraus folgt, dass in diesen Netzen alle Rechner gleichberechtigt zusammenarbeiten. Sie sind für kleinere Arbeitsgruppen zwischen 5 und 20 Arbeitsplätzen geeignet. Dort ist die Anschaffung eines teuren ExtraServers meist unangemessen, wenn man mit relativ leistungsfähigen Arbeitsplatzrechnern ausgestattet ist. Somit dient diese Verbindung ausschließlich dem Datenaustasch, der Nutzung gemeinsamer Ressourcen und dem E-Mailing.

In einem Peer-to-Peer-Netzwerk ist jeder angeschlossene Computer ein Server bzw. ein Client. Alle Benutzer können von PCs auf Systembereiche und Ressourcen anderer Computer im Netz zugreifen, wenn die Netzwerksoftware entsprechend konfiguriert ist sowie den anderen Computern ihre Ressourcen zur Verfügung stellen. Einen Netzwerkverwalter gibt es nicht, deshalb muss jeder Netzwerkteilnehmer selber bestimmen, welche Ressourcen er freigeben will. Die Datensicherung muss von jedem Nutzer selber vorgenommen werden. Filesharing ist nicht möglich, da hierfür ein Server erforderlich ist. Die Vorteile dieser Netzwerkart liegen in dem schnellen und kostengünstigen Aufbau, wobei die Teilnehmer möglichst dicht beieinander sein sollten. Ein Nachteil ist, dass eine geregelte Datenverwaltung und sinnvolle Ressourcennutzung nur mit viel Aufwand und Disziplin seitens der Netzwerkteilnehmer realisierbar ist. Deswegen werden Peer-to-Peer-Netze immer seltener eingesetzt auch wenn die Möglichkeit Server und Clients auf gleicher hierarchischer Ebene kommunizieren zu lassen eine Lösung für viele der zukünftigen Geschäftsprozesse im Internet und Intranet sein könnte.

Beispiele für Betriebssysteme für diese Art der Vernetzung sind Windows 9x oder 2000, Macintosh OS 7 und höher oder das Personal NetWare von Novell.

2.3. Vergleich der beiden Netzwerkarchitekturen

In den Vorteilen des einen sind vom Prinzip her meistens gleichzeitig die Nachteile des anderen Konzepts zu sehen. Peer-to-Peer-Netzwerke sind langsamer als solche, die auf einem Server basieren. Wenn sich viele Peer-Rechner zur selben Zeit Daten zukommen lassen wollen, lässt die Netzleistung nämlich deutlich nach. Daraus folgt, dass Client-Server- Netze besonders dann genutzt werden, wenn eine hohe Verarbeitungsgeschwindigkeit gefordert ist. Auch für die Bereiche der Steuerung und Verwaltung sowie, wenn der Datenzugriff und die Datensicherheit eine große Rolle spielen, ist dieses Konzept besser geeignet. Außerdem kann der Benutzer eines Peer-Computers den anderen Netzwerkteilnehmern das Leben schwer machen, indem er z.B. seinen gerade als Server fungierenden Rechner ausschaltet oder Zugriffsrechte auf Daten einfach ändert. Diese Nachteile von Peer-to-Peer-Netzwerken kann man gleichzeitig als Vorteile von Client- Server-Systemen betrachten. Sie zeigen sich in erster Linie, wenn die Dienstleistungen in Unternehmen betrachtet werden. Wenn aber technisches Interesse und Fachwissen seitens der Benutzer hinsichtlich Betrieb, Steuerung und Konfiguration „ihrer“ PCs vorhanden und die Netzwerkgruppe noch dazu recht klein ist und die Leistung nicht zu den wichtigsten Faktoren im Netzwerk zählt, kann die Anschaffung eines Peer-to-Peer-Netzwerkes durchaus sinnvoll sein. Der wesentlichste Vorteile dieser Netzwerkarchitektur liegt nämlich im finanziellen Bereich. Ein zusätzlicher Server, wie in einem physikalischen Client-Server-System ist hier schließlich nicht nötig und eben diese sind immer extrem teuer, da ihre Ausstattung auf Grund der geforderten Leistung deutlich größer als die eines durchschnittlichen PCs sein muss.

3. Klassifikation von Rechnernetzen

3.1. Einteilung nach der Reichweite

Eine übliche Einteilung von Computer-Netzwerken erfolgt nach Entfernungsklassen, wobei sich die Ausdehnung von einigen Zentimetern beim VLAN (Very Local Area Network ) über Gebäude- und Campusnetze (LAN), über kommunale Netze (MAN ) und Weitverkehrsnetze (WAN) bis hin zu den weltumspannenden globalen Netzen (GAN) erstrecken kann.

3.1.1. Virtuelles Netz -- Virtual Local Area Network (VLAN)

Virtuelle Netze oder virtuelle LANs sind ein technologisches Konzept zur Einbindung von Workgroups innerhalb eines Netzes. Ihre Ausdehnung beträgt meist nur einige Zentimeter. VLANs vereinigen die Vorteile, die man normalerweise mit durch Brücken verbundenen Netzen verbindet, wie leichtes Hinzufügen, Wegnehmen oder Ändern einer Station, zusammen mit dem Vorzug der Systemtrennung und Strukturierung mittels Routern. Alle Stationen, die an einem bestimmten Port eines Ethernet-Systems liegen, werden als Teil des virtuellen Netzes aufgefasst, und eine Menge von Ethernet Ports im physikalischen Gesamtnetz bilden das gesamte virtuelle Netz.

3.1.2. Lokales Netz -- Local Area Network (LAN)

Ein lokales Netzwerk ist eine Gruppe von Computern und anderen Geräten, die über einen begrenzten Raum verteilt und durch folgende Kommunikationsleitungen miteinander verbunden sind:

- Twisted-Pair-Kabel: Es besteht im einfachsten Fall aus verdrillten Kupferleiter- Doppeladern (UTP). Der Einfluss äußerer Störfelder wird durch das Verdrillen reduziert. Es werden auch Twisted-Pair-Kabel mit einer metallischen Abschirmung um die Adernpaare (S/UTP), sowie mit zusätzlicher Aluminiumfolie um jedes Adernpaar (D/STP) angeboten, um den Störeinfluss weiter zu reduzieren.
- Koaxialkabel: Dieses Kabel ist als Antennenkabel bekannt. Die innere Kupferader ist von einer Isolationsschicht und einem Kupferdrahtnetz umgeben. Das Letztere dient sowohl als Leiter, als auch zur Abschirmung äußerer Störfelder.
- Lichtwellenleiter: Dieses auch Glasfaserkabel genannte Übertragungsmedium ermöglicht derzeit die höchsten Übertragungsraten (Gigabit-Ethernet). Sie bestehen aus einer etwa 0,1 mm dünnen Glasfaser, die von einem äußeren Glasmantel mit anderem Brechungsindex umhüllt ist. Dadurch werden die Lichtimpulse am äußeren Mantel total reflektiert und bewegen sich somit entlang der inneren Faser.

Das LAN erlaubt den Informationsaustausch zwischen den Rechnern. Sie enthalten meistens Mikrocomputer und gemeinsame Ressourcen wie z.B. Laserdrucker und große Festplatten. Die meisten LANs unterstützen eine Vielzahl verschiedener Computer und anderer Geräte. Jedoch muss jedes Gerät die selben höheren Kommunikationsprotokolle für das entsprechende LAN verwenden, damit sie im Netz miteinander kommunizieren können. Bei größeren, zusammengesetzten Netzwerken werden mehrere LANs durch Brücken (Bridges) verbunden. Verschiedenartige LANs werden durch Gateways miteinander verknüpft, die sowohl die Daten übertragen als auch eine Synchronisation der möglicherweise verschiedenen Protokolle der Netzwerke vornehmen. Ein LAN hat eine Ausdehnung von üblicherweise höchstens 10 km, wobei es Übertragungsraten bis 10 Gbit/s (10-Gigabit-Ethernet) erreichen kann. Die wichtigsten LAN-Typen sind heute Ethernet, Token Ring, Token Bus und FDDI.

Die folgenden Anforderungen sind an die Auslegung eines lokalen Netzes zu stellen:

- Eine hohe Bandbreite des Übertragungsmediums für raschen Netzzugang und schnelle Nachrichtenübertragung
- Eine geeignete Topologie zur Erreichung der angesprochenen Ziele, einschließlich einer hohen Ausfallsicherheit
- Geeignete Vereinbarungen über den Kommunikationsablauf (Protokolle)
- Geeignete Hilfsmittel zur optimalen Ausnutzung der durch Übertragungs- einrichtungen und Protokolle gegebenen Möglichkeiten seitens der Benutzer
- Offene Systemarchitekturen

3.1.3. Kommunales Netz -- Metropolitan Area Network (MAN)

MANs sind Stadtnetze oder Regionalnetze, die sich zwischen den lokalen Netzen (LAN) und den Weitverkehrsnetzen (WAN) positionieren. Bei MANs handelt es sich um Netze mit einer regionalen Ausdehnung, die für unterschiedlichste Übertragungsdienste wie Sprache, Daten, Bewegtbild usw. ausgelegt sind. Stadtnetze decken den Kommunikationsbedarf innerhalb von Städten und Ballungsgebieten auf elegantere und leistungsfähigere Art und Weise ab, als dies mit Weitverkehrsnetzen möglich ist. Die Basis der Stadtnetze bildet heute SDH , eine Technologie zur logischen Verschaltung der Kabel und zur Herstellung logischer Verbindungen zwischen den Teilnehmern. Da es sich bei SDH lediglich um eine Technik zur Bereitstellung von Leitungen und logischen Verbindungen handelt, nicht aber um eine vermittelnde Technik, muss eine vermittelnde Technik, wie ATM , eingesetzt werden.

Die Ausdehnung für ein MAN liegt bei 100 km und mehr. Die Übertragungsgeschwindigkeit beträgt 100 Mbit/s bis 1 Gbit/s. MANs benutzen Lichtwellenleiter als Übertragungsmedium, um die hohen Übertragungsgeschwindigkeiten mit möglichst geringer Fehlerrate zu realisieren.

3.1.4 Weitverkehrsnetz -- Wide Area Network (WAN)

Von WAN spricht man immer dann, wenn zur Datenübertragung ein Netz benutzt wird, das unter Umständen weltweite Entfernungen umspannt. Ein WAN besteht häufig aus mehreren örtlichen Netzen (LANs), die über Fernleitungen miteinander verbunden sind (meist über das Telefonnetz). Da WANs häufig ihre Konfiguration ändern, haben sie selten regelmäßige, sondern eher allgemeine Topologien. In diesem Bereich sind internationale Standards wie das OSI-Referenzmodell besonders wichtig.

Um unterschiedliche Netze miteinander verbinden zu können, werden einzelne Netzteile über Gateways gekoppelt, die die verschiedenen Protokolle, Kodierungen, elektrischen Eigenschaften, etc. der einzelnen Netzen ineinander umsetzen. In der Praxis werden auch Zwischenformate wie TCP/IP, die im LAN-Bereich entstanden sind, verwendet. Diese beiden Protokolle sind in den Schichten 3 und 4 vorzufinden, wurden aber vor den ISO-Standards entwickelt.

Ist ein WAN als Punkt-zu-Punkt-Netzwerk ausgelegt, so ist die Wegewahl- und Flusskontroll-Problematik entscheidend.

3.1.5. Globales Netz -- Global Area Network (GAN)

GAN ist ein Kommunikationssystem, das durch die Verwendung von Satelliten keiner praktischen räumlichen Begrenzung unterliegt. In der Satellitenübertragung verwendet ein GAN sehr leistungsfähige Funkstrecken mit komfortablen Möglichkeiten für Fehlererkennung und Fehlerkorrektur. Die Punkt-zu-Punkt-Nachrichtenverzögerung ist naturgemäß relativ hoch. Dem Benutzer gegenüber tritt das GAN, als ihm zur Verfügung stehender Raum- oder Zeitkanal in Erscheinung. Die Übertragungsgeschwindigkeit auf einem solchen Kanal beträgt üblicherweise 2 Mbit/s. GANs arbeiten in der Regel mit regionalen WANs zusammen, können aufgrund ihrer Leistungsfähigkeit jedoch auch LAN-Teile untereinander verbinden. Beispiele dafür sind: Telcom, Satellite Business System (SBS).

3.2. Einteilung nach der Vermittlungstechnik

3.2.1. Leitungsvermittlung

Die Leitungsvermittlung ist eine Vermittlungstechnik, bei der zwischen dem Sender und dem Empfänger eine permanente physikalische (oder virtuelle) Leitung über einen oder mehrere Vermittlungseinheiten geschaltet wird, die ausschließlich die beteiligten Kommunikation- partner nutzen können. Andere Bezeichnungen für diese Vermittlungstechnik sind auch Durchschaltvermittlung, Circuit Switching oder Line Switching. Zum Verbindungsaufbau wird ein fester Leitungsweg gesucht, welcher für die gesamte Dauer der Verbindung reserviert wird und mit voller Übertragungsbandbreite zur Verfügung steht. Dadurch geht natürlich die nicht benötigte Bandbreite ungenutzt verloren. Bei der Leitungsvermittlung werden die Bitfolgen reihenfolgegetreu übertragen. Ein Vorteil ist, dass sich die Übertragungsverzögerungen nur auf die signaltechnischen Laufzeiten beschränken, jedoch ist das Netz nicht in der Lage, Informationen zurückzuhalten und sie dem Empfänger verzögert oder in einer anderen Taktfrequenz zur Verfügung zu stellen. Der Empfänger muss die Informationen also zur selben Zeit und mit gleicher Geschwindigkeit abnehmen, weshalb diese Vermittlungstechnik gegenwärtig hauptsächlich zur Sprachübertragung im Telefon- oder Fernmeldenetz genutzt wird. Es gibt aber auch ein datenübertragendes Netz, das Datex- L(eitungsvermittlung)-Netz. Das ISDN-Netz integriert sogar beide Übertragungsarten in sich. Dafür werden nach der europäischen Norm jedem Teilnehmer je Basiskanal, der für Daten- oder Sprachübertragung verwendet werden kann, 64 kBit/s zur Verfügung gestellt.

Nachteile der Leitungsvermittlung sind, dass bei fehlender Auslastung der Leitung durch die Kommunikationspartner Ressourcen ungenutzt verloren gehen. Auch wenn es gar nicht erst zu einer Verbindung kommt werden während des Aufbaus Ressourcen unnütz reserviert. Weiterhin gibt es relativ lange Zeiten für Verbindungsauf- und -abbau und es fehlen oft Ersatzwege im Fehlerfall, da die Zahl der schaltbaren Verbindungen beschränkt ist, so dass der Zugriff auf ein Netz auch nicht immer garantiert werden kann. Außerdem kann der angerufene Teilnehmer „besetzt“ sein, wenn er schon mit jemand anderem kommuniziert.

3.2.2. Paketvermittlung

Paketvermittelnde Netze zerlegen Nachrichten in Datenpakete fester Größe. Diese werden dann einzeln und in loser Reihenfolge übertragen und von dem Zielsystem wieder zu einer vollständigen Nachricht zusammengesetzt. Damit dies möglich ist, sind bestimmte Folgeverweise in den einzelnen Paketen vorhanden, welche die Adress-Informationen von Empfänger und Absender, Hinweise zur Versendung, Weginformationen und andere Hinweise an den Empfänger enthalten. Bei der Vermittlung kann es vorkommen, dass die Reihenfolge der empfangenen Datenpakete bedingt durch Datenpaketverluste, Überholung von Datenpaketen und ungewollten Duplizierungen unvollständig und durcheinander geraten ist. Da mehrere Teilnehmer ihre Pakete gleichzeitig über ein und die selben Leitungen und Knotenrechner schicken können, kann es außerdem zu Überlastungen im Netz kommen, die manchmal auch erst während der Verbindung entstehen. Dadurch kann es eben passieren, dass Datenpakete verloren gehen oder falsch zugestellt werden. Um solche Fehler zu erkennen, sind zusätzliche Aufwendungen erforderlich, die als Fehlerkontrolle, Flusskontrolle, Wegwahl und Überlastkontrolle bezeichnet werden.

Diese Art von Netzen wird auch als Store-and-Forward-Network bezeichnet, da Informationen zunächst in einem Knoten-Rechner gespeichert (store) werden muss, bevor sie weitergereicht (forward) werden kann.

Paketvermittelnde Netze werden in der Regel nicht nur über eine Anschlussgebühr sondern auch über die Anzahl der übertragenen Pakete abgerechnet.

Der verbreitetste Standard für paketvermittelte Netze ist X.25. Das Netz der Telekom heißt Datex-P(aketvermittlung).

Gegenüberstellung der beiden Vermittlungstechniken

Abbildung in dieser Leseprobe nicht enthalten

3.3. Einteilung nach den Topologien

3.3.1. Was ist eine Rechnernetz-Topologie ?

Unter einer Rechnernetz-Topologie versteht man die Anordnung von Computern und Kabeln. Sie bestimmen die einzusetzende Hardware, sowie die Zugriffsmethoden. Diese wiederum haben Einfluss auf die Übertragungsgeschwindigkeit und den Durchsatz der Daten. Man unterscheidet zwischen logischer und physikalischer Topologie. Die physikalische Topologie legt fest, wie ein Netz angeordnet ist (Stern-, Ring-, Busförmig). Als logische Topologie bezeichnet man die möglichen logischen Verbindungen von Netzwerkknoten. Dabei wird angegeben, welche Knotenpaare miteinander kommunizieren können und ob sie direkt physisch miteinander verbunden sind. Die logische und die physikalische Topologie müssen in Netzwerken nicht identisch sein. So kann beispielsweise ein Netz physikalisch sternförmig miteinander verbunden sein und dennoch logisch als Ring betrieben werden.

Generell kann man Netzwerktopologien in zwei Klassen unterteilen, wobei in der ersten Klasse die Verbindungen von einem Knoten zum folgenden aufgebaut werden, wie im Falle einer Ringtopologie, und in der zweiten Klasse alle Netzknoten unmittelbar an das Medium angeschlossen sind, wie im Falle der Bustopologie.

3.3.2. Physikalische Topologien

Ringtopologie

Bei der Ringtopologie sind alle Arbeitsstationen und der oder die Server in Form eines Ringes miteinander verbunden. In der Regel sendet jede Station nur in eine Richtung und empfängt aus der anderen. Somit muss jede Station ein empfangenes Paket an die nächste weitersenden, so dass technisch der Ring aus Punkt-zu-Punkt-Verbindungen besteht.

Ringnetze werden im Tokenring-Protokoll und im FDDI-Protokoll verwendet.

Vorteile:

- Hohe Ausfallsicherheit durch Einsatz eines Doppelrings (FDDI)
- Verteilte Steuerung
- Keine Beschränkung der Gesamtlänge des Netzes, da die einzelnen Rechner als Zwischenverstärker wirken

Nachteile:

- Es muss zu jedem Rechner eine Doppelleitung geführt werden (hoher Verkabelungsaufwand)
- Aufwendige Fehlersuche
- Bei Störung Netzausfall
- Der Ring muss zur Erweiterung unterbrochen werden

Bustopologie

Das Bus-Netzwerk besteht aus mehreren Stationen (Knoten), die hintereinander oder nebeneinander in Reihe angeordnet sind. Damit die Datensignale an den Enden des Busses nicht reflektiert werden, müssen sich dort Abschlusswiderstände (Terminatoren) befinden.

Man kann einem Bus jedoch unterschiedliche Strukturen aufprägen.

Vorteile:

- Einfach installierbar
- Geringer Verkabelungsaufwand
- Geringe Kosten

Nachteile:

- Netzausdehnung begrenzt
- Bei Kabelbruch fällt Netz aus
- Schwierige Fehlersuche bei Netzausfällen

(z.B. Ethernet, Token Ring)

Sterntopologie

Die sternförmige Verbindung von Rechnern erfolgt mit Hilfe eines sogenannten Sternverteilers. Dieser wird allgemein als Hub (engl. Nabe) bezeichnet. Verbindet eine zentrale Station verschiedene Netze mit unterschiedlichen Protokollen (Ethernet, Tokenring, FDDI) miteinander, do wird diese als Switch (engl. Schalter) bezeichnet. Diese Geräte ermöglichen durch Einstöpseln einer Zweidrahtleitung (Twisted-Pair) den Anschluss eines Rechners an das bestehende Netz. Wird ein Client-Server-Netz gewünscht, dann werden der oder die Server ebenfalls am Sternverteiler angeschlossen. Ein Sternnetz kann aber auch als Peer-to-Peer-Netz betrieben werden.

Heute werden auch Bus- und Ringnetze immer mehr als Sternverkabelungen über einen zentralen Verteiler ausgeführt.

Vorteile:

- Einfache Vernetzung
- Einfache Erweiterung
- Datenkollisionen sind vermeidbar (bei Einsatz eines Switches)

Nachteile:

- Aufwendige Verkabelung (ein Leitungspaar zu jedem Rechner)
- Begrenzte Leitungslänge vom einzelnen Rechner zu Hub oder Switch
- Netzausfall bei Ausfall oder Überlastung des Hubs

Vollvermaschte Topologie

Wird jede Station mit jeder anderen verbunden, so bezeichnet man dies als ein vollvermaschtes Netz. Solche Architekturen werden nur in Ausnahmefällen verwendet, da die Anzahl der Verbindungen quadratisch steigt und der Aufwand somit bereits für kleine Netze nicht mehr vertretbar ist. Außerdem ist bei den meisten Anwendungen jede einzelne Verbindungsleitung nur sehr gering ausgelastet, so dass einfachere Architekturen ökonomischer und dennoch ausreichend sind. Derartige vollvermaschte Topologien trifft man nur in Spezialarchitekturen, wie Hochleistungsrechnern an, die also keine Rechnernetze in unserem Sinne mehr sind.

Gekoppelte Topologie

Werden beliebige Rechnernetze miteinander verbunden, so nennt man dieses ein gekoppeltes Netz oder Internet. Für die Verbindung zwischen zwei Netzen werden eigene Systeme zur Verfügung gestellt, die im Internet als Gateways und nach dem OSI-Basisreferenzmodell als Relaisstationen bezeichnet werden.

Backbone Topologie

Es gibt auch Netze, die alleine dazu dienen, andere Netze zu verbinden. Diese werden meist als Backbone-Netze bezeichnet. Da diese Netze recht schnell sein müssen, werden sie häufig in einer schnellen Technologie erstellt, z.B. mit Lichtwellenleitern (FDDI-Backbone).

3.3.3. Logische Topologien

Token Ring (Token Passing)

Der wichtigste Unterschied zu Ethernet ist, dass bei Token Ring ein als Token Passing bezeichnetes Zugriffsverfahren verwendet wird, das Datenkollisionen verhindert: Zur Zuteilung der Sendeberechtigung wird von einer Station eine Berechtigungsmarke ausgesendet. Dieses im Leerlauf kreisende bestimmte Bitmuster mit drei Byte Länge wird auch als Frei-Token bezeichnet. Wenn ein Rechner Daten senden will, muss er auf das FreiToken warten und wandelt dieses dann in ein Belegt-Token um. Die Daten werden gesendet, indem sie an das Belegt-Token angehängt werden. Der empfangene Rechner kopiert die Daten in seinen Speicher und gibt sie danach im Ring weiter. Im letzten Byte setzt der Empfänger zusätzlich ein Bestätigungsbit. Wenn die Daten den Sender wieder erreichen, nimmt dieser sie aus dem Netz. Anhand des Bestätigungsbits erkennt er, dass der Empfänger die Daten übernommen hat. Der Sender wandelt abschließend das Belegt- wieder in ein FreiToken um. Danach kann der nächste Rechner zum Sender werden.

Der Token Ring nimmt mit einem Anteil von etwa einem Drittel die zweite Stelle der lokalen Netze ein. Er kann mit Geschwindigkeiten von 4 oder 16 Mbit/s, seit 1998 auch als High Speed Token Ring (HSTR) mit 100 Mbit/s betrieben werden.

Vorteile:

- Jeder Rechner kommt vorher bestimmbar an die Reihe
- Die Ringgröße unterliegt nahezu keiner Beschränkung, weil die Rechner jeweils als Zwischenverstärker dienen
- Auch Stern- oder Busnetze sind logisch als Token Ring möglich
- Keine Datenkollisionen
- Vergabe von Zugriffsprioritäten ist möglich

Nachteile:

- Sendewillige Rechner müssen immer erst auf das Frei-Token warten
- Kostenintensiv im Vergleich zu Ethernet
- Es arbeitet langsamer im Vergleich zum Gigabit-Ethernet.

FDDI -- Fibre Distributed Data Interface

Die FDDI-Technologie ist vorwiegend für den Einsatz zur Verbindung mehrerer Teilnetze oder Standorte gedacht. Das Zugriffsverfahren entspricht einem Token-Passing-Verfahren. Aus Sicherheitsgründen wird bei FDDI aber ein Doppelring verwendet, so dass bei Ausfall eines Ringes ein zweiter zur Verfügung steht.

Indem das Frei-Token sofort an die gesendeten Daten angehängt wird, ist es möglich, dass sendewillige Rechner sofort wieder auf den Ring zugreifen können. Auf diese Weise befinden sich gleichzeitig mehrere Datenpakete im Ring, wodurch eine Leistungssteigerung erreicht wird.

Die Übertragungsrate beträgt 100 Mbit/s. Als Medium stehen Kupferleitungen und Lichtwellenleiter zur Verfügung.

Ethernet -- Carrier Sense Multiple Access/Collision Detection (CSMA/CD)

Das klassische Ethernet entspricht einer Busstruktur. Welche der angeschlossenen Stationen senden darf, wird durch das CSMA/CD-Verfahren bestimmt:

Jeder Knoten verfügt über einen eigenen Tranceiver (Sende- und Empfangsgerät) und eine eigene Netzwerkadresse. Alle Rechner hören permanent das Netz ab (Carrier Sense) um festzustellen, ob Daten zu empfangen sind oder ob das Medium zum senden eigener Daten frei ist. Ist es frei, so beginnt der Tranceiver die Daten auf den Bus zu schicken, andernfalls wird nach einer kurzen Wartezeit ein erneuter Versuch gestartet (Multiple Access). Alle Knoten, die an diesem Bus angeschlossen sind, haben Zugriff auf diese Informationen. Den Daten wird die Adresse des Empfängers, des Senders und eine Fehlerbehandlung vorausgeschickt. Die Knoten, die nicht als Empfänger adressiert sind, ignorieren die Daten. Der Knoten, der adressiert ist, liest die Daten und schickt eine Bestätigung an den Sender. Entsprechen die gesendeten Daten nicht den abgehörten Daten, so hat eine andere Station gleichzeitig gesendet. Es entsteht ein elektrisches Störsignal auf dem Bus. Der Sender, der das Störsignal zuerst entdeckt (Collision Detection), sendet ein spezielles Signal (Jamming- Signal), damit alle anderen Knoten wissen, dass das Netzwerk blockiert ist. Nach einer zufälligen Wartezeit wird wiederum geprüft, ob der Bus frei ist. Ist dies der Fall, so versuchen die Knoten erneut zu senden. Der Vorgang wird so oft wiederholt, bis eine Station es schafft seine Daten zu verschicken.

Die Datenübertragungsrate von Ethernet beträgt im einfachsten Fall 10 Mbit/s, bei einem Fast-Ethernet sind 100 Mbit/s möglich. Für den Backbone-Bereich gibt es mittlerweile das Gigabit-Ethernet mit 1000 Mbit/s.

Vorteile:

- Einfache Installation
- Kostengünstiges Netz (auch 100-Mbit-Komponenten)
- Einfügen neuer Stationen problemlos möglich Nachteile:
- Einfaches „Anzapfen“ und Abhören des Netzes möglich
- Häufige Kollisionen reduzieren die Übertragungsrate erheblich. Dies wird vor allem bei starkem Netzzugriff deutlich.

4. Beschreiben des Datenaustausches durch ein einfaches Schichtenmodell

4.1. Warum hat man den Datenaustausch in Schichten eingeteilt ?

In einem Computer-Netzwerk ist nicht nur das Übertragungsmedium und der physikalische Anschluss wichtig sondern vor allem die Software, die die Kommunikation steuert und folgende Aufgaben zu bewältigen hat:

- Verbindung: Aufbauen, Aufrechterhalten und Abbauen von Verbindungen zwischen Rechnern.
- Wegwahl (Routing): Da nicht zwischen allen Rechnern eine direkte Verbindung besteht, muss eine geeignete indirekte Verbindung gefunden werden.
- Transparente Übertragung: Beliebige Bit- und Bytekombinationen müssen so übertragen werden, dass sie beim Empfänger unverändert ankommen.
- Flusskontrolle: Da die in einem Netz verbundenen Rechner unterschiedliche Übertragungsgeschwindigkeiten haben können, muss eine Überlastung eines empfangenden Rechners vermieden werden.
- Multiplexing: Falls über eine physikalische Leitung mehrere indirekte Verbindungen aufrecht erhalten werden müssen, wird diese den Verbindungen in bestimmten Zeitabschnitten zu Verfügung gestellt.
- Splitting/Recombining: Aus Effizienzgründen können Datenpakete aufgespaltet (Splitting), über verschiedene Leitungen versendet und beim Empfänger wieder in der richtigen Reihenfolge zusammen gesetzt (Recombining) werden.
- Zuverlässigkeit: Übertragungsfehler kommen immer wieder vor. Um eine Verbindung absolut zuverlässig zu gestalten, müssen auftretende Fehler durch geeignete Maßnahmen korrigiert werden, z.B. durch Wiederholung des Sendens von Datenpaketen.

Da die Komplexität der Kommunikationssoftware sehr groß ist, wird das Problem softwaretechnisch in Schichten aufgeteilt, die streng hierarchisch aufeinander aufbauen. Die Anzahl der Schichten, der Name und die Funktion jeder Schicht unterscheiden sich von Netzwerk zu Netzwerk. Daher hat die ISO (International Standardization Organisation) ein Standardmodell für vorhandene und zukünftige Kommunikationssoftware entwickelt, das Reference Model of Open Systems Interconnection (OSI-Referenzmodell), welchem sieben Kommunikationsschichten zu Grunde liegen.

Abbildung in dieser Leseprobe nicht enthalten

4.2. Das OSI - Referenzmodell

4.2.1. Schicht 1 -- Bitübertragungsschicht (Physical Layer)

Die Bitübertragungsschicht ist für die Übertragung einzelner Bits zwischen den Kommunikationssystemen zuständig. Dazu muss zunächst entschieden werden, welches Kabel und welche Stecker zu verwenden sind. Zweitens legt die Schicht fest, wie der Bitstrom aufgebaut, übermittelt und abgebaut werden soll.

Derzeitige Übertragungsmedien sind lokale Netze, Telefonleitungen (Datenübertragung via Modem), integrierte Digitalleitungen (ISDN) und Datenleitungen der Post wie Datex-P oder Datex-L.

Ein weitverbreitetes Protokoll dieser Schicht ist RS-232-C.

4.2.2. Schicht 2 -- Sicherungsschicht (Data Link Layer)

Die Sicherungsschicht garantiert den zuverlässigen Transport von Informationen, wozu einerseits die Fehlererkennung und -korrektur und andererseits die sogenannte Flussregelung dient. Darunter versteht man die Abstimmung zwischen Sender und Empfänger, durch Festlegung des Bytetaktes, sowie durch Gruppierung und Sortierung der Informationen. Der Empfänger quittiert den Empfang der Daten an den Sender. Eine dritte Aufgabe dieser Schicht bei lokalen Netzen besteht in der Festlegung des Zugriffsverfahrens, also z.B. CSMA/CD, FDDI oder Token Ring.

4.2.3. Schicht 3 -- Vermittlungsschicht (Network Layer)

In der Vermittlungsschicht werden die sogenannten Paketleitwege bestimmt. Darunter versteht man die Festlegung des Weges (Routing) vom Ursprungs- zum Zielrechner, wobei zwischen diesen Tausende von Kilometern Distanz liegen können, so dass es eine große Zahl von möglichen Routen gibt. Aufgabe der Schicht 3 ist es, eine geeignete Route auszuwählen und eine entsprechende Adressierung der Datenpakete vorzunehmen. Ein bekanntes Protokoll der Vermittlungsschicht ist das Internet Protokoll (IP).

4.2.4. Schicht 4 -- Transportschicht (Transport Layer)

Die Transportschicht stellt das Bindeglied zwischen den Anwendungs- und Übertragungsschichten bzw. Netzwerk- und Anwendungsumgebung dar. Ihre Aufgabe besteht in der Verknüpfung der beiden Kommunikationspartner durch Auf- und Abbau der Verbindung. Außerdem werden die zu übertragenden Daten auf der Senderseite in kleinere Einheiten zerlegt und auf Empfängerseite auf Vollständigkeit überprüft und wieder zusammengesetzt. Als wichtigstes Protokoll dieser Schicht ist das Transmission Control Protocol (TCP) zu nennen.

4.2.5. Schicht 5 -- Kommunikationssteuerungsschicht (Session Layer)

Sie ist die erste von den drei anwendungsorientierten Schichten. Ihre Aufgabe ist die Dialogsteuerung. Darunter versteht man die Festlegung, welche der beteiligten Stationen senden und welche empfangen darf (Token-Management). Außerdem erlaubt sie den Benutzern Verbindungen (Sessions) auf verschiedenen Rechnern aufzubauen. Durch die Zuordnung logischer Namen zu den physikalischen Adressen wird der Austausch von Adressen auf Anwenderebene vereinfacht. Ein Beispiel hierfür sind die Domain Name Server (DNS) des Internets.

4.2.6. Schicht 6 -- Darstellungsschicht (Presentation Layer)

Die Darstellungsschicht befasst sich nicht mit konkreten Übertragungsproblemen, sondern mit der Syntax (formaler Aufbau) und Semantik (Bedeutung), das heißt der einheitlichen Codierung und damit der Standardisierung der zu übertragenden Daten. Der wichtigste internationale Code hierfür ist ASCII.

4.2.7. Schicht 7 -- Anwendungsschicht (Application Layer)

Die oberste Schicht stellt die Schnittstelle zum Anwender dar, dem sie verschiedene häufig benötigte Dienste zur Verfügung stellt. Darunter fallen alle Anwendungs- programme/Protokolle dieser Schicht wie z.B. ftp, telnet, rlogin, smtp, http, nis und verschiedene Netzwerk-Filesysteme wie NFS.

4.3. Ablauf eines Kommunikationsvorgangs

Je zwei Schichten A und B kommunizieren miteinander unter Einhaltung bestimmter Regeln und Konventionen, die in dem jeweiligen Schichtprotokoll festgelegt sind. Wenn eine Schicht A einer Schicht B Nachrichten übermitteln will, übergibt sie diese der darunter liegenden Schicht, welche zu der erhaltenen Nachricht ihre eigene PCI (siehe unten) hinzufügt, die sie zur Abwicklung ihres Schichtprotokolls benötigt. Anschließend übergibt sie die Gesamtinformationen an die nächste darunter liegende Schicht usw. bis die Informationen auf Schicht 1 angekommen sind, wo der physikalische Übertragungsvorgang stattfindet. An der anderen Seite angekommen, werden sie wieder Schicht für Schicht nach oben transportiert, wobei in jeder von ihnen die jeweiligen Kontrollinformationen wieder entfernt werden, bis die eigentliche Nachricht auf der Schicht B angekommen ist.

Zur Erklärung:

Die zusätzlichen Informationen, die zwischen zwei benachbarten Schichten bei der Datenübertragung ausgetauscht werden, sind nötig, damit die Schichten ihren Dienst erfüllen können und heißen Protocol Control Informations (PCI).

5. Kommunikationsprotokolle

5.1. Was sind Kommunikationsprotokolle ?

Diese Protokolle sind für den geregelten Informationsaustausch zwischen Rechner und Peripheriegeräten zuständig, wobei sie immer einen bestimmten Funktionsbereich abarbeiten, der bei der Datenkommunikation einer Schicht des OSI-Referenzmodells entsprechen kann. Man spricht von einem Protokollstack oder -stapel, wenn Protokolle aufeinander abgestimmt sind und mehrere Funktionalitäten unterstützen. Datenübertragungsprotokolle legen die Regeln in Form eines Verzeichnisses fest, worin alle Formate, deren Syntax und Semantik, Parameter und Eigenschaften für eine vollständige, fehlerfreie und effektive Datenübertragung enthalten. Sie beinhalten Übereinkünfte über Datenformate, Zeitabläufe und Fehlerbehandlung beim Datenaustausch zwischen Computern. Eine unmittelbare Kommunikation zwischen Systemen ist nur dann möglich, wenn sie in allen Schichten identische Protokolle verwenden. Andere Möglichkeiten sind die Multiprotokollfähigkeit von z.B. Hubs, die Protokollübersetzung durch z.B. Gateways und Konverter oder die Verpackung eines Protokolls (Tunneling, Encapsulation).

Beispiele für von Protokollen zu regelnde Mechanismen sind die physikalische Darstellung der übertragenen Daten, die Feststellung ihrer Struktur, die Wegfindung (Routing), die Adressierung, die Sicherstellung einer zuverlässigen Übertragung und die Unterstützung spezieller Anwendungen.

Zu Beginn der Rechnerkommunikation haben sich, wegen der fehlenden allgemeingültigen Konventionen, herstellerspezifische Protokollfamilien gebildet. Die bekanntesten sind IBM SNA, DECnet, Netbios, Vines, Novell Netware, Apple Talk und LAN-Manager. Erst im Laufe der 80er Jahre haben sich herstellerübergreifende Protokolle durchsetzen können, z.B. XNS-Protokolle und die TCP/IP-Protokolle. Parallel dazu wurden von der ISO die OSIProtokolle definiert, welche sich aber auf Grund der Vielfalt und Mächtigkeit ihrer Funktionalität bisher noch nicht durchsetzen konnten.

5.2. Das TCP/IP - Protokoll als Beispiel eines Kommunikationsprotokolls

TCP/IP ist eine Protokollkombination, die die Schichten Transport und Vermittlung aus dem OSI-Schichtenmodell erfolgreich verbindet. Ohne es wäre das Internet in seiner heutigen Form undenkbar. Es bedarf einer gemeinsamen Sprache, damit die angeschlossenen Rechner überhaupt miteinander kommunizieren können. TCP/IP wurde ursprünglich für einen Vorläufer des Internets namens ARPANET entwickelt. Die damals definierten Protokolle sind auch heute noch weltweiter Netzwerkstandard für die Kommunikation im LAN und WAN. Die Gesamtheit der entwickelten Protokolle bezeichnet man als Internet Protocol Suite. Die beiden wichtigsten Protokolltypen TCP und IP sind zum Synonym für diese Protokollfamilie geworden.

5.2.1. TCP -- Transmission Control Protocol

Das TCP ist das verbindungsorientierte Transportprotokoll oberhalb von IP. Seiner Funktionalität nach kann es in der Schicht 4 des OSI-Referenzmodells eingesetzt werden. TCP gibt Aufrufe zum Auf- und Abbau von Verbindungen zum Senden und Empfangen von Daten und zur Statusabfrage der Verbindung. Außerdem teilt es beliebig lange Nachrichten von Benutzerprozessen in Größen von maximal 64 kBytes auf. Die einzelnen Teile werden als Datagramme (Datenpaket + Header) verschickt. Da die Vermittlungsschicht keine Garantie gibt, dass die Daten korrekt übertragen werden, sorgt TCP dafür, den Datagrammen ein Zeitlimit vorzugeben und sie notfalls wiederholt zu senden. Da die Datagramme nicht notwendigerweise in der richtigen Reihenfolge ankommen, muss TCP sie dann wieder korrekt zusammensetzen.

Die Programme und Protokolle oberhalb der Transportschicht können sich also fest auf die Übertragungsgarantie von TCP verlassen. Der Verwaltungsaufwand, der dabei entsteht, bremst die Leistung der Datenübertragung allerdings in erheblichem Maße aus. Jedes Datenpaket, das TCP verschickt, wird ein Header vorangestellt, der die folgenden Daten enthält:

- Sender-Port
- Empfänger-Port
- Paket-Reihenfolge (Nummer) · Prüfsummen
- Quittierungsnummer

5.2.2. IP -- Internet Protocol

Das IP ist ein wichtiger Bestandteil in einem TCP/IP-basierenden Netzwerk. Es dient der Vermittlung (Routing) von Datenpaketen im Netzwerk. Dazu haben alle Stationen und Endgeräte eine eigene, einzigartige Adresse im Netzwerk. Sie dient nicht nur zur Identifizierung, sondern auch zum Erkennen eines Teilnetzes, in dem eine Station zu finden ist. Der Header eines IP-Datenpaketes enthält folgende Einträge:

- IP-Version
- Paketlänge
- Lebenszeit
- Prüfsumme
- Senderadresse
- Empfängeradresse

Sender- und Empfängeradresse werden in 32-Bit-Feldern angegeben und bestehen aus einer Angabe des Netzes und des darin befindlichen Anschlusses (Rechner, Host). Falls sich der Empfänger in einem anderen Netz als der Sender befindet, ist keine direkte Versendung möglich, stattdessen wird ein Router (im Internet ein Gateway) im eigenen Netz angesprochen, der die Weiterleitung der Informationen anhand sogenannter Routing-Tabellen (Wegweiser zu anderen Netzen) übernimmt.

Die 32 Bit große IP-Adresse ist in 4 Byte zerlegt und wird durch Punkte voneinander getrennt. Jedes Byte kann einen Wert von 0 bis 255 annehmen (xxx.xxx.xxx.xxx).

Die IP-Adressen werden in 5 Klassen eingeteilt, wobei die letzte für zukünftige Anwendungen reserviert ist. Um die Zustellung von IP-Paketen zu vereinfachen, unterteilt man die Adresse in zwei Teile: den Netzwerkteil (Netz-ID) und den Rechnerteil (Host-ID), die in den verschiedenen Klassen unterschiedliche Gewichtungen haben. Der Router muss, um ein Datenpaket zustellen zu können, nur den Netzwerkteil einer Adresse kennen. Den anderen Teil wertet erst das Zielnetzwerk des Paketes aus.

Da es jedoch unterschiedlich große Netzwerke gibt, mit vielen oder wenigen Host, gibt es verschiedene Aufteilungen des 32-Adressbits.

Abbildung in dieser Leseprobe nicht enthalten

Klasse A - Netzwerke

Theoretisch kann es nur 127 Netzwerke diesen Typs geben, wobei die Nummer 127 in der gesamten Klasse reserviert ist. Dafür kann jedes dieser Netzwerke 16.777.216 Hosts umfassen. Es gibt aber nur sehr wenige Organisationen, die ein Netzwerk der Klasse A benötigen. Ein typischer Vertreter wäre z.B. das amerikanische Milnet.

Klasse B - Netzwerke

Die Netzwerke der Klasse B können 65.536 Hosts umfassen. Solche Netzwerke werden meistens von Universitäten und großen Unternehmen benötigt. Insgesamt gibt es 16.384 solcher Klasse B Netzwerke.

Klasse C - Netzwerke

Die Netzwerke dieser Klasse umfassen 256 Hosts (tatsächlich aber nur 254, da die Nummern 0 und 256 reserviert sind). Es gibt davon 2.097.152 Netze im Internet.

Klasse D - Netzwerke

Netzwerke dieser Klassen werden für das sogenannte Multicasting verwendet. Die Klasse-D- Adressen reichen von 244.0.0.0 bis 239.255.255.255.

Thesenpapier

Was ist ein Computer-Netzwerk ?

Ein Computer-Netzwerk ist eine Ansammlung zusammenhängender, selbständiger Computer. Vorteile von Netzwerken sind effektive Nutzung von Hardware- und Software-Ressourcen, die zentral gewartet werden können, Zuverlässigkeit und günstiges Preis-Leistungsverhältnis. Netzwerke finden neben der Versorgung von Workstations Anwendung z.B. bei der Datenübertragung, bei remote login und bei electronic mail.

Was ist der Unterschied zwischen Client-Server- und Peer-to-Peer-Konzepten ?

In einem Peer-to-Peer Netzwerk sind alle angeschlossenen Rechner gleichberechtigt, jeder Rechner kann anderen Stationen Daten zur Verfügung stellen oder von anderen Stationen angebotene Dienste nutzen. In größeren Netzen hat sich das Client-Server-Konzept durchgesetzt, welches auch im Internet eine wichtige Rolle spielt. In einem solchen Netz übernehmen Server die zentralen Funktionen und stellen den Clients (Kunden) Dienste zur Verfügung und verwalten diese. So gibt es z.B.: File-Server, Print-Server, etc.

Wie kann man Rechnernetze klassifizieren ?

Gesichtspunkte zur Klassifizierung von Rechnernetzen sind Reichweite (VLAN, LAN, MAN, WAN, GAN), Vermittlungstechnik (Leitungs-, Paketvermittlung), Topo - logie/Zugriffsverfahren (Stern, Ring, Bus,.../ Token Ring, FDDI, CSMA/CD) sowie Übertragungsmedium (Twisted-Pair-Kabel, Koaxialkabel, Lichtwellenleiter).

Wie lässt sich der Datenaustausch anhand des OSI - Referenzmodells erklären ?

Das OSI-Referenzmodell beschreibt universell eine logische Struktur aus sieben hierarchischen Schichten, die jeweils verschiedene Aufgaben bei dem Datenaustausch haben. Jede Schicht erbringt einen definierten Dienst, wobei sich die unterste Schicht mit der eigentlichen Datenübertragung befasst.

Dieses Modell beschreibt die allgemeine Standardsoftware für die Kommunikation in offenen Systemen.

Was versteht man unter Kommunikationsprotokollen und wozu dienen diese ?

Kommunikationsprotokolle ist die zum Betrieb eines Netzwerkes erforderliche Netzwerk- Software, welche die Aufgaben Verbindungsaufbau und -abbau, Wegewahl, transparente Übertragung, Flußkontrolle, Multiplexing und Splitting/Recombining sowie Übertragungs- sicherung hat.

Quellenverzeichnis

1. Microsoft Encarta Enzyklopädie 2000

2. Internet:

[1] http://einstein.offis.uni-oldenburg.de/rechnernetze/

[2] http://habenix.uni-muenster.de/ZIV/Lehre/1999- 2/RechnernetzeTechnischeGrundlagen/01_Architekturmodell/

[3] http://hodgson.pi.tu-berlin.de

[4] http://netzwerke.virtualave.net/ip_adr.htm

[5] http://technologie.uni-duisburg.de/workshops/netzwerk/clientse.htm

[6] http://w3.siemens.de/solutionprovider/_online_lexikon/

[7] http://www.bergt.de/lexikon/index.htm

[8] http://www.e-online.de/sites/kom/0606251.htm

[9] http://www.powerweb.de/phade/diplom/kap211-213.htm

[10] http://www.werbedesign.at/r_stadler/mediendesigner/netzwerke.htm

Selbstständigkeitserklärung

Hiermit erklären wir, dass wir diese Facharbeit selbstständig und nur unter Hilfenahme der angegeben Quellen erstellt haben.

Rudolstadt, den 09.09.2001

Abbildung in dieser Leseprobe nicht enthalten

Details

Seiten
27
Jahr
2001
Dateigröße
435 KB
Sprache
Deutsch
Katalognummer
v104594
Note
Schlagworte
Struktur Rechnernetzen

Autor

Zurück

Titel: Struktur von Rechnernetzen