Lade Inhalt...

Die freie Meinungsäußerung im Internet. Probleme der Informationskontrolle und Zensur im neuen Massenmedium

Diplomarbeit 2006 157 Seiten

Medien / Kommunikation - Journalismus, Publizistik

Leseprobe

Inhaltsverzeichnis

Abkürzungsverzeichnis

Hauptteil

1. Einleitung
1.1. Aufbau und Zielsetzung

2. Begriffserklärung
2.1. Freiheitsbegriffe
2.1.1.Freiheit
2.1.2.Meinungsfreiheit und Informationsfreiheit
2.1.3.Informationelle Selbstbestimmung
2.1.4.Pressefreiheit
2.2. Mediale Freiheitsbeschränkungen
2.2.1.Zensur
2.2.2.Informationskontrolle
2.2.3.Medienmanipulation
2.2.3.1. Tendenzschutz
2.2.3.2. Agenda Setting
2.2.3.3. Schweigespirale
2.2.3.4. Embedded Journalism
2.3. Urheberrecht

3. Geschichte und Struktur des Internets
3.1. Begriffsbestimmung: Neue Medien und Internet
3.1.1.Neue Medien
3.1.2.Internet
3.2. Eine kurze Geschichte des Internets _
3.3. Die Server-Hierarchie
3.4. Die Netzwerk-Hierarchie
3.5. Hypertext
3.6. Transmission Control Protocol

4. Wer regiert das Internet?
4.1. Die Gesetzgeber des Internets
4.1.1.World Wide Web Consortium (W3C)
4.1.2.Internet Assigned Numbers Authority (IANA)
4.1.3.Internet Corporation for Assigned Names and Numbers (ICANN) 30
4.1.4.Network Information Center (NIC)
4.1.5.Inhaltsanbieter und Provider

5. Sender und Sammler: Die totale Informationsfreiheit im Internet
5.1. Wer veröffentlicht?
5.1.1.Private Veröffentlichung
5.1.2.Klassische Medien
5.1.3.Marketing und Public Relations
5.1.4.Politische Gruppen, Vereine, Verbände und Organisationen
5.1.5.Wikis, Foren und Wissensschwärme
5.2. Probleme der Veröffentlichung
5.2.1.Inhaltliche Unzulänglichkeit
5.2.2.Inhaltliche Unzuverlässlichkeit
5.3. Im Widerspruch zu Recht und Gesetz
5.3.1.Verletzung des Urheberrechts am Beispiel von P2P-Tauschbörsen
5.3.2.Verbreitung gefährlicher Inhalte am Beispiel von Sprengstoff-Handbüchern
5.3.3.Verbreitung jugendgefährdender Inhalte am Beispiel von Pornographie
5.3.4.Verletzung von Menschenrechten am Beispiel von Kinderpornographie
5.4. Der Verlust der informationellen Selbstbestimmung
5.4.1.Probleme der freiwilligen Preisgabe von Informationen
5.4.2.Erstellung von Datensammlungen
5.4.3.Identitätsdiebstahl
5.4.4.Verstoss gegen Persönlichkeitsrechte Dritter am Beispiel von digitalen Bildern

6. Suchen und Finden
6.1. Suchmaschinen
6.1.1.Suchmaschinen der ersten Generation
6.1.2.Suchmaschinen der zweiten Generation
6.1.3.Suchmaschinen der dritten Generation
6.1.4.Kritik an den Suchmaschinen
6.1.4.1. Fehlende Vollständigkeit
6.1.4.2. Sprachbarrieren erschweren die Suche
6.1.4.3. Redaktionelle Tendenz__
6.1.4.4. Entfernung und Filterung von Inhalten
6.1.4.5. Kommerzialität
6.1.4.6. Google-Bomben und Relevanz-Fälschung
6.2. Internet-Archive
6.2.1.Persönliche Daten
6.2.2.Staatliche Einflussnahme

7. Zensur und Medienmanipulation im Netz
7.1. Die Notwendigkeit informationeller Kontrolle im Internet
7.1.1.Aus staatlicher Sicht
7.1.2.Aus wirtschaftlicher Sicht
7.1.3.Aus Sicht des Anwenders
7.2. Möglichkeiten der Informationskontrolle im Netz
7.2.1.Verbot des gesamten Internets
7.2.2.Filtersysteme
7.2.3.Bürokratie und Zugangskontrolle
7.2.4.Selbstzensur
7.2.5.Sperrung bei den ISPs
7.2.6.Kommerzielle Interessen der ISPs
7.2.7.Interessen von Politik und Wirtschaft

8. Machtstrukturen im Internet am Beispiel Google

9. Staatliche Zensur am Beispiel von Chinas "großer Firewall"

10.Grenzen staatlicher Exekutive - Der Fall Gary Lauck

11.Privatwirtschaftliche Manipulation im Netz
11.1. Privatwirtschaftliche Zensur im Netz am Beispiel Freenet

12.Der Einfluss der Weblogs

13.Der Konflikt zwischen Kontrolle und Freiheit im Netz
13.1. Die Illusion des unabhängigen Netzes
13.2. Der Kapitalismus als treibende Kraft
13.3. Der Netzbürger

14.Schlussbetrachtung und Ausblick

Literaturverzeichnis

Abbildungsverzeichnis

II. Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

III. Hauptteil

1. Einleitung

Das Internet dringt täglich stärker in jeden Bereich des Lebens ein. Das weltumspannende Datennetz erleichtert Vieles, die sofortige Verfügbarkeit von Informationen beschleunigt den Transfer von Wissen und Informationen rund um den Erdball in sekundenschnelle. Das Internet ist Informations- und Unterhaltungsmedium, Lebenshilfe und Befriedigung der abwegigsten Gelüste, Marktplatz, Forum und Schwarzmarkt, Bücherei und Archiv, Postweg und Videorekorder, ein Medium der unendlichen Meinungen, Dar- und Selbstdarstellungen.

Anfang der 1990er als World Wide Web aus den Universitäten auf den Privatrechner geführt, hat das Internet in nur 15 Jahren die Welt erobert und ist aus vielen Bereichen der modernen Informationsgesellschaft nicht mehr wegzudenken. Das Internet verheißt die totale Information und bietet sie zumeist auch. Ganz nebenbei erlaubt es jedem Teilnehmer, Informationen nicht nur zielgerichtet zu empfangen, sondern auch selbst zu senden. Im Internet ist jeder Rezipient gleichzeitig Sender, gleichberechtigt neben den Internet-Präsenzen der etablierten Medien.

Alles, was sich in Form digitaler Daten darstellen lässt, wird im Internet angeboten, überall sind Informationen greifbar. Diese neue Form der Informationsübermittlung bringt jedoch nicht nur Vorteile, sondern stellt sowohl Staaten, als auch Unternehmen und Bürger vor einen riesigen Konflikt. Die internationale Kriminalität treibt im Netz neue Blüten und stellt das klassische, territorial beschränkte Staatsmodell vor kaum lösbare Probleme. Unternehmen haben mit Rechtsverletzungen und Umsatzeinbußen zu kämpfen und der Internet-Anwender verliert seine informationelle Selbstbestimmung.

Auf der anderen Seite existiert eine enorme Gier nach Informationen. Staaten möchten wissen, was ihre Bürger treiben, diese vor Schaden bewahren und die Datenkriminalität einschränken. Unternehmen möchten wissen, wie ihre Kunden aussehen und ihre eigenen Rechte schützen. Kriminelle haben den Wert persönlicher Information für sich entdeckt und sammeln und missbrauchen diese nach allen Regeln der Kunst.

Der Anwender ist süchtig nach den Informationen, die er sich schnell, einfach und nicht selten kostenlos aus dem Netz beschaffen kann, gleichzeitig muss er darauf achten, dass er weder den Datensammlern aus Wirtschaft und Politik oder Kriminellen in die Fänge geht.

Die Kontrolle über Informationen ist im Internet zu einem enormen Machtfaktor herangereift. Wer Informationen beeinflussen und kontrollieren kann, ist dank der weltumspannenden Struktur des Internets in der Lage sowohl national, als auch global Meinungen und Menschen zu beeinflussen.

1.1. Aufbau und Zielsetzung

Die vorliegende Arbeit befasst sich mit Informationskontrolle und Zensur im Internet. Das neue Massenmedium besitzt gegenüber klassischen Medien den Vorteil, dass jeder Teilnehmer sich mit einfachsten Mitteln selbst in den Status eines Senders verwandeln kann. Das Web gilt als unkontrollierbar, trotzdem setzen vor allem staatliche Instanzen auf Überwachung und Kontrolle des Informationsaustauschs.

Die zentralen Fragen sind, ob und in welchem Ausmaß eine Informationskontrolle und Zensur im Internet nötig und möglich ist und wo sie bereits erfolgt. Gibt es die totale Informationsfreiheit im Netz, wie sie von Netzaktivisten wie John Gilmore1 propagiert wird oder ist die Freiheit im Netz eine Illusion? Zunächst sollen im ersten Teil der Arbeit (Kapitel 2) einige grundlegende Begriffe geklärt werden. Was ist Freiheit und welche Formen von Freiheit, mit besonderer

Rücksicht auf die für das Internet relevante Informationsfreiheit, gibt es? Welche Ein- schränkungen der medialen Freiheit gibt es? Des Weiteren soll auf das im Internet besonders relevante Urheberrecht als Form der Freiheit und gleichzeitigen Beschränkung eingegangen werden. Im folgenden Kapitel (Kapitel 3) soll das Internet als Medium definiert werden. Was sind neue Medien? Was ist das Internet? Wie ist es technisch organisiert?

Danach soll die Regierung des Internets ausgemacht werden (Kapitel 4). Welche Stellen haben welchen Einfluss auf das Internet? Gibt es eine Internet-Regierung und ist diese überhaupt demokratisch legitimiert? Das folgende Kapitel (Kapitel 5) befasst sich mit der Frage nach der Veröffentlichung: Wer veröffentlicht was und warum und welche Probleme gibt es dabei? Welchen Einfluss haben Suchmaschinen und Web- Archive (Kapitel 6)? In Kapitel 7 soll darauf basierend die Notwendigkeit von Informa- tionskontrolle im Netz analysiert werden sowie die Möglichkeiten, die Staat, Wirtschaft und Bürger haben, um Informationen zu kontrollieren. Die Kapitel 8 bis 11 führen

anhand von konkreten Beispielen die zuvor abstrakt beschriebenen Problemfelder vor. In Kapitel 12 soll mit den Weblogs auf einen neuen, demokratischen Machtfaktor im Netz aufmerksam gemacht werden. Das folgende Kapitel (Kapitel 13) befasst sich zusammenfassend mit dem Konflikt zwischen Informationskontrolle und Informations- freiheit. Kapitel 14 schließt die Diplomarbeit mit einer Schlussbetrachtung und einem Ausblick ab.

2. Begriffserklärung

Im Folgenden sollen einige für diese Arbeit grundlegende Begriffe klar gestellt werden. In der Arbeit werden immer wieder bestimmte Begriffe wie z.B. Zensur, Informations- kontrolle, Informationsfreiheit und Pressefreiheit aufgegriffen. Die inhaltlichen Bedeutungen dieser Begriffe überschneiden sich umgangssprachlich, weshalb eine vor- hergehende inhaltliche Klassifizierung sinnvoll ist. Die Begriffe sind inhaltlich geordnet.

2.1. Freiheitsbegriffe

2.1.1. Freiheit

Meyers Lexikon definiert um die vorletzte Jahrhundertwende die Freiheit als den "Ausdruck für den Zustand der Unabhängigkeit, d.h. der Abwesenheit eines äußeren Zwanges.“2 Im Bezug auf die menschliche und gesellschaftliche, also politische Freiheit wird die Abwesenheit von äußerem, inneren oder durch Menschen oder Institutionen bedingten Zwängen benannt.

Deterministisch betrachtet ist jedoch selbst ein einzelner Mensch in freier Umgebung niemals tatsächlich frei. Er ist ein lebenslanger Sklave seiner Biologie, was sich in täglichen Bedürfnissen zur Lebenserhaltung äußert. Zu diesen natürlichen Zwängen zählen z.B. Nahrungsaufnahme oder Schlaf. In dieser Hinsicht ist der Mensch demnach unfrei.

Begibt sich der Mensch in ein soziales Umfeld, wozu er als soziales Tier i.d.R. gezwungen ist, setzt er sich weiteren Beschränkungen der totalen Freiheit aus. Selbst in so genannten freiheitlich-demokratischen Systemen, in denen die individuelle Freiheit ein hohes Gut ist, stößt die Freiheit des Menschen an Grenzen, nämlich in dem Moment, in dem das Streben nach persönlicher Freiheit die Freiheit anderer Menschen beschränkt. Der Volksmund umschreibt diese einfache, "goldene Regel"3 genannte und in fast allen Weltreligionen auffindbare Verhaltensregel mit dem Sprichwort "was Du nicht willst, das man Dir tu', das füg' auch keinem Anderen zu."

Der Philosph greift zu Kants kategorischem Imperativ, Juristen, Staatstheoretiker und Journalisten beziehen sich auf die rechtliche Verwirklichung dieser wichtigen rechtlichen Grundlage in Artikel 4 der Erklärung der Menschen und Bürgerrechte4 oder auf den Artikel 2 des Grundgesetzes der Bundesrepublik Deutschland:

"Jeder hat das Recht auf die freie Entfaltung seiner Persönlichkeit, soweit er nicht die Rechte anderer verletzt und nicht gegen die verfassungsm äß ige Ordnung oder das Sittengesetz verst öß t." 5

Theoretisch ist die Freiheit unbegrenzt. Praktisch muss sie jedoch ihre Grenzen dort finden, wo die Freiheit des anderen berührt wird.

2.1.2. Meinungsfreiheit und Informationsfreiheit

Die Meinungsfreiheit wird in Verfassungstexten i.d.R. zusammen mit der Informationsfreiheit genannt.

"Die Meinungsfreiheit bzw. Redefreiheit umfasst das subjektive Recht eines

jeden Menschen, seine Meinung zuäußern und zu verbreiten. Eine Meinung ist eine wertende Aussage, im Gegensatz zum Behaupten einer Tatsache." 6

Die Informationsfreiheit ist hingegen als Rezipientenfreiheit zu verstehen: Der

Rezipient hat die Freiheit, sich jederzeit ungehindert aus den der Allgemeinheit frei zugänglichen Quellen zu informieren.

Diese beiden Grundrechte des Menschen sind unter anderem in der allgemeinen Erklärung der Menschenrechte der Vereinten Nationen festgehalten:

"Jeder hat das Recht auf Meinungsfreiheit und freie Meinungsaußerung; dieses Recht schließt die Freiheit ein, Meinungen ungehindert anzuhängen sowieüber Medien jeder Art und ohne Rücksicht auf Grenzen Informationen und Gedankengut zu suchen, zu empfangen und zu verbreiten. “ 7

Die Meinungs- und Informationsfreiheit findet sich in der ein oder anderen Form in allen freiheitlichen Verfassungen. Im Grundgesetz der Bundesrepublik Deutschland lautet Artikel 5:

„ Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zuäußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. [...] “ 8

In der Bill of Rights, den ersten zehn Zusätzen der US-amerikanischen Verfassung findet sich direkt an erster Stelle die Garantie der Meinungs- und Informationsfreiheit:

„ Congress shall make no law respecting an establishment of religion, or prohibiting the free exercise thereof; or abridging the freedom of speech, or of the press; or the right of the people peaceably to assemble, and to petition the Government for a redress of grievances. “ 9

Auch in der französischen Verfassung werden Meinungs- und Informationsfreiheit als eines der höchsten Güter betrachtet. So findet sich die Erklärung der Menschenrechte von 1789 heute wie damals in der französischen Verfassung. Dort lautet die Formulierung:

„ La libre communication des pens é es et des opinions est un des droits les plus pr é cieux de l'homme: tout citoyen peut donc parler, é crire, imprimer libr- ement, sauf à r é pondre de l'abus de cette libert é , dans les cas d é termin é s par la loi. “ 10

Die Meinungs- und Informationsfreiheit schützt den Menschen vor staatlicher Willkür. Nur, wer eine freie Meinung besitzt, kann als mündiges Individuum betrachtet werden. Freie Informationen und Meinungen sind Werte, die es Menschen erst ermöglichen, sich gegen Beschneidungen ihrer anderern Grundrechte zur Wehr zu setzen. Im Umkehrschluss beschneiden totalitäre Regime schnellstmöglich das Recht auf Meinung und Information, um eine Opposition bereits im Keim zu ersticken.

Das Recht auf Information stützt das Recht auf Meinungsfreiheit: Nur, wo sich der Mensch ungehindert aus allen Quellen und Medien informieren kann und diese Informationen auch zur Verfügung gestellt werden, ist er auch in der Lage, sich eine eigene Meinung zu bilden und dadurch zum mündigen Individuum heranzureifen.

Die Menschenrechte Informations- und Meinungsfreiheit stoßen dort an ihre Grenzen, wo sie den allgemeinen Freiheitsbegriff verletzen oder gegen ihn verstoßen. So dämpft das deutsche Grundgesetz die allgemeine Informations- und Meinungsfreiheit dort, wo Rechte Dritter verletzt werden:

„ Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre. “ 11

In anderen Verfassungen finden sich ähnliche Einschränkungen der Garantie der Mei- nungsfreiheit. Interessant ist die Position der jeweiligen Garantien innerhalb der Verfassung. Während in den Vereinigten Staaten die Meinungsfreiheit als das höchste Gut eingestuft wird, also an erster Stelle der Bill of Rights steht, sind entsprechende Artikel in der französischen Verfassung oder dem deutschen Grundgesetz erst später im Text zu finden. So garantiert das Grundgesetz die Meinungs- und Informationsfreiheit erst in Artikel 5, während die Menschenwürde an erster Stelle steht.12 Die Meinungs- freiheit ist demzufolge gegenüber der Menschenwürde das niedrigere Gut im deutschen Grundgesetz.

In der französischen Verfassung sieht es ähnlich aus: Das Recht auf Meinungsfreiheit findet sich erst in Artikel 11 der französischen Erklärung der Menschenrechte. Auch in anderen Verfasssungs- und Menschenrechtstexten findet sich die Meinungsfreiheit ver- gleichsweise spät: In der Europäischen Menschenrechtskonvention steht sie in Artikel 1013, in der Allgemeinen Erklärung der Menschenrechte der Vereinten Nationen sogar erst in Artikel 19. Andererseits setzen die höchsten Güter der Menschenrechte "das Recht auf Freiheit, das Recht auf Eigentum, das Recht auf Sicherheit und das Recht auf Widerstand gegen Unterdrückung"14 bereits eine freie Meinungsbildung voraus. Ohne Meinungsfreiheit ist die Verteidigung anderer Grundrechte nahezu unmöglich.

2.1.3. Informationelle Selbstbestimmung

Das Recht auf informationelle Selbstbestimmung beinhaltet das Recht des Einzelnen selbst über seine personenbezogenen Daten zu verfügen. Die informationellen Selbstbestimmung gewinnt mit der Verbreitung des Internets massiv an Relevanz, da Datenerhebungen dank der neuen Technik besonders einfach sind und auch von Unternehmen ohne besondere Infrastruktur einfach durchgeführt werden können.

Im so genannten "Volkszählungsurteil" des Bundesverfassungsgerichts von 198315 wird das Recht auf Informationelle Selbstbestimmung als ein zwar im Grundgesetz nicht explizit genanntes, jedoch grundsätzliches Datenschutz-Grundrecht bezeichnet. Im Urteil des Bundesverfassungsgerichts heißt es:

"Unter den Bedingungen der modernen Datenverarbeitung wird der Schutz des Einzelnen gegen unbegrenzte Erhebung, Speicherung, Verwendung und Weitergabe seiner persönlichen Daten von dem allgemeinen Persönlichkeits- recht des Art. 2 Abs. 1 GG in Verbindung mit Art. 1 Abs. 1 GG umfaßt. Das Grundrecht gewährleistet insoweit die Befugnis des Einzelnen, grundsätzlich selbstüber die Preisgabe und Verwendung seiner persönlichen Daten zu bestimmen." 16

Das Recht auf informelle Selbstbestimmung wird demnach mit höchsten Grundrechten im Grundgesetz begründet, nämlich der Menschenwürde und der Freiheit. Ist der Mensch nicht informationell selbstbestimmt, werden die grundsätzlichen Persönlich- keitsrechte aus Artikel 1 und 2 in einem gewissen, von der Schwere des Verstoßes gegen das Recht auf infomationelle Selbstbestimmung abhängigen Grad eingeschränkt. Die Idee, das Recht auf informationelle Selbstbestimmung im Grundgesetz einzufügen, scheiterte jedoch bisher an fehlenden Mehrheiten.

Die Verfügunggewalt über die eigenen Daten darf laut des Urteils nur in einem bestimmten Fall eingeschränkt werden, nämlich dann, wenn die Allgemeinheit ein Interesse an der Einschränkung der informationelle Selbstbestimmung besteht. Dieses allgemeine Interesse muss sich jedoch im Rahmen des Grundgesetzes bewegen und verhältnismässig sein.17

2.1.4. Pressefreiheit

Die Pressefreiheit ist das „Recht von Rundfunk, Presse und anderen Medien wie Online-Medien auf freie Ausübung ihrer Tätigkeit, vor allem das unzensierte Veröffentlichen von Informationen und Meinungen.“18 Im Grundgesetz heißt es in Artikel 5:

„ Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zuäußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten. Die Pressefreiheit und die Freiheit der Berichterstattung durch Rundfunk und Film werden gewährleistet. Eine Zensur findet nicht statt. “ 19

Der Begriff "Presse" bezeichnet alle Medien, die zur Verbreitung von Inhalten geeignet sind, unabhängig von Auflage oder Umfang.

Die Pressefreiheit garantiert, dass in den zwei Säulen der Massenkommunikation Rundfunk und Presse eine Meinungsbildung nach dem Gedanken der Meinungs- und Informationsfreiheit stattfinden kann. So garantiert die Pressefreiheit neben der freien inhaltlichen Ausrichtung und Form von Presseerzeugnissen vor allem den Schutz von Informanten sowie des Redaktionsgeheimnises.

Die Massenkommunikation in Form von Rundfunk und Presse wirkt meinungsbildend auf die Rezipienten. Nur wer informiert ist, kann sich eine Meinung bilden. Gleich- zeitig können diese Informationen nur dann über die Massenmedien verbreitet werden, wenn die Presse und ihre Organe Redakteur und Reporter in ihrer Arbeit nicht behindert werden.

„ Informationen sind der erste Schritt zu Veränderungen - deshalb fürchten nicht nur autoritäre Regierungen eine freie und unabhängige Berichterstattung. “ 20

Wo Medien nicht über Unrecht, Machtmissbrauch oder Korruption berichten können, findet auch keine öffentliche Kontrolle statt, keine freie Meinungsbildung und kein friedlicher Ausgleich von Interessen.

„ Pressefreiheit ist die Basis einer demokratischen Gesellschaft. “ 21

Die Pressefreiheit wird als Menschenrecht begriffen, auch wenn sie in den verschie- denen Menschrechts-Grundsätzen nicht unbedingt explizit erwähnt wird. "Wo nicht unabhängig berichtet werden darf und wo Menschen ihre Meinung nicht frei äußern können, werden auch andere Menschenrechte verletzt"22, heißt es auf der Website der Reporter ohne Grenzen. Insofern ist die Pressefreiheit eine Voraussetzung für die Achtung der anderen Menschenrechte - wo sie nicht stattfindet, sind Menschen der Willkür der Obrigkeit ausgesetzt. Die Ambivalenz geht so weit, dass die Pressefreiheit "als Gradmesser für die Achtung der Menschenrechte in einem Land" gesehen werden kann.23

2.2. Mediale Freiheitsbeschränkungen

2.2.1. Zensur

"Eine Zensur findet nicht statt", heißt es in Artikel 5 des Grundgesetzes. Zensur verletzt das Recht auf die Meinungs-, Informations- und Pressefreiheit, die ebenfalls in Artikel 5 des Grundgesetzes garantiert werden.

Zensur ist eine Form der Informationskontrolle. Sie wird von Staaten, Organisationen oder deren Vertretern angewandt, um unerwünschte Inhalte zu unterbinden oder zu manipulieren. Die Zensur zielt darauf ab, bestimmte geistige, religiöse und moralische Werte oder Informationen einem bestimmten Publikum oder allen Menschen in ihrem Machtbereich zu entziehen. Gleichzeitig dient sie der Hervorhebung erwünschter Inhalte.

Betroffen von Zensur sind vor allen Dingen berichterstattende Medien wie Presse, Film, Bild und auch das Internet. Ebenfalls gerne zensiert werden künstlerische Inhalte. Bis zu einem gewissen Grad wird eine Form der Zensur selbst in westlichen Demokratien angewandt. So beschränkt Absatz 2 des Artikels 5 des Grundgesetzes die zuvor in Absatz 1 garantierte Meinungsfreiheit bereits ein:

„ Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre “ 24

Dennoch: Eine staatliche Zensur findet in Deutschland, wie im Grundgesetz garantiert, nicht statt. Inhalte werden allenfalls als jugendgefährdend eingestuft, von der Bundes- prüfstelle für jugendgefährdende Medien, was bedeutet, dass sie nicht beworben, verbreitet oder an Minderjährige verkauft werden dürfen. In seltenen Fällen, in denen das im Grundgesetz der Bundesrepublik Deutschland verfassungsrechtlich gegenüber dem Recht auf Meinungfreiheit höher eingestufte Recht auf Menschenwürde angetastet wird, z.B. bei Kinderpornographie, greift das Strafgesetz, da das Recht auf Menschen- würde als einer der ersten vier Artikel des Grundgesetzes anders als Artikel 5 nicht von anderen Gesetzen eingeschränkt werden darf.

2.2.2. Informationskontrolle

Der Begriff „Informationskontrolle“ wird normalerweise synonym mit Zensur verwendet, in der folgenden Arbeit wird der Begriff jedoch zur besseren Unter scheidung als „Kontrolle über Informationen“ oder „informationelle Kontrolle“ der Zensur übergeordnet. Die Informationskontrolle schließt neben der Zensur sowohl die informationelle Selbstbestimmung, also die Kontrolle über eigene Daten, als auch die Überwachung und Manipulation von Informationen ein. Informationskontrolle ist kann zudem eine Einschränkung völlig freier Informationsübermittlung durch z.B. das Urheber- und Patentrecht bedeuten sowie eine Überprüfung von Informationen auf ihren Gehalt. Während die Zensur hauptsächlich ein Mittel staatlicher Instanzen ist, kann Informationskontrolle auch von der Wirtschaft und von Privatpersonen ausgeübt werden, um Informationen zu unterdrücken oder zu manipulieren.

2.2.3. Medienmanipulation

Bei Medienmanipulation handelt es sich um die tendenzielle Einflußnahme auf Medienberichte, um diesen Berichten eine bestimmte Richtung zu geben. Sie steht theoretisch im Widerspruch zur allgemein angenommenen journalistischen Ethik, die eine größtmögliche Objektivität verlangt.

Die Medienmanipulation ist eine der häufigsten Formen der Einflussnahme auf Presse, Rundfunk, Buch und Film, allerdings auch ein Problem des menschlichen Individualismus. So besteht bereits durch den Autor einer Meldung eine gewisse Manipulation anhand seiner persönlichen Ansichten, die durch die Auswahl des Themas oder der Art, darüber zu schreiben ersichtlich wird.

2.2.3.1. Tendenzschutz

Eine Stufe darüber befindet sich der allgemein anerkannte redaktionelle Tendenzschutz, der als „innere Pressefreiheit“ einerseits durch den Artikel 5 des Grundgesetzes, also den Meinungsfreiheits-Artikel, andererseits durch den Paragraph 118 des Betriebsver- fassungsgesetzes25 geschützt ist. Der Verleger hat das Recht, die politische, wirtschaft liche und religiöse Richtung seiner Publikation in mit dem Grundgesetz konformen Bahnen zu beeinflussen. Redakteure sind dem redaktionellen Tendenzschutz unterworfen, sofern er im Arbeitsvertrag festgehalten ist.

2.2.3.2. Agenda Setting

Ein weiterer Faktor der Medienmanipulation ist das so genannte „Agenda Setting“. Hierbei handelt es sich um eine Theorie, die 1963 vom US-amerikanischen Kommunikationsforscher Bernhard C. Cohen aufgestellt wurde. Nach dieser Theorie könnten die Massenmedien zwar nicht beeinflussen, was die Menschen denken, jedoch, worüber sie sich Gedanken machen. Nach Cohens Theorie wird den Menschen über die Medien ein Tagesthema vermittelt, das in der Bevölkerung besonders präsent ist und deswegen auch Gesprächsthema. Beispiele sind die in den Medien mit schöner Regelmässigkeit wiederkehrenden Diskussionen über Lebensmittelskandale. Sie wirken sich direkt auf das Verhalten der Verbraucher aus. Besonders ersichtlich wurde dies bei den BSE- Krisen Mitte der 90er-Jahre und zum Jahreswechsel 2000/2001:

„ Bereits die Mediendiskussion im Frühjahr 1994über eine mögliche BSE-Ge- fährdung der Verbraucher sowie die erste BSE-Krise 1996 sorgten für einen starken Einbruch beim Rindfleischverbrauch. Der Bruttoverbrauch je Kopf in Deutschland erreichte 1997 seinen vorläufigen Tiefpunkt mit 14,5 kg; davon entfielen 10,1 kg auf den menschlichen Verzehr. 1990 kam der Pro-Kopf- Verzehr noch auf 14,8 kg; also ein Rückgang um 4,7 kg oder rund ein Drittel gegenüber 1990. Anschließend war ein leichter Anstieg des Rindfleischver- zehrs auf 10,7 kg festzustellen. Aufgrund der neuen BSE-Krise ab Ende Nov- ember 2000 ist ein neuer Tiefstand deutlich unterhalb der 10 kg/Kopf-Schwelle im laufenden Jahr wahrscheinlich. “ 26

In der Medienwissenschaft existieren drei Modelle des Agenda-Settings: Das Aufmerksamkeitsmodell besagt, dass ein Rezipient über die mediale Berichterstattung erst auf ein Thema aufmerksam gemacht wird. Das Hervorhebungsmodell bringt die unter- schiedliche Gewichtung, die Themen im Publikum erhalten, in Abhängigkeit zu der Hervorhebung oder Vernachlässigung des Themas in den Massenmedien. Das Themenselektionsmodell geht von einer 1:1-Übernahme der in den Medien vorgefundenen Themenauswahl durch den Rezipienten aus. Empirisch bewiesen wurde die manipulative Einwirkung des Agenda-Settings der Mas- senmedien auf das Denken des Publikums bereits 1968 von den US-Medienwissen- schaftlern McCombs und Shaw im Rahmen des US-Präsidentenwahlkampfes 1968.

2.2.3.3. Schweigespirale

Die Publizistik-Wissenschaftlerin Elisabeth Noelle-Neumann begründete in den 70er- Jahren die Theorie der Schweigespirale. Sie besagt, dass Minderheiten-Meinungen durch die Massenmedien immer wieder in den Vordergrund gerückt und als Mehrheits- meinung dargestellt werden. Gleichzeitig rückt die Mehrheitsmeinung in den Hintergrund, weil sich ihre Anhänger in der Minderheit sehen und aus Angst vor öffentlicher Häme darauf verzichten, ihre Meinung öffentlich zu äußern. Dadurch wird die Minderheiten-Meinung nach und nach zur Mehrheitsmeinung, während die ursprüngliche Mehrheitsmeinung in den Hintergrund tritt. Dieser Effekt wird zwar nicht durch die Massenmedien verursacht, jedoch massiv verstärkt.

Als Beispiel für eine Schweigespirale ist besonders die Diskussion um katastrophale Auswirkungen der technischen Entwicklung des Menschen auf die Natur zu nennen. Ganz nach dem journalistischen Prinzip „only bad news are good news“ wird mit Hilfe der Berichterstattung der Minderheitsmeinung einer Minderheit von Apokalyptikern der Vorzug gegeben, während Kritiker der Apokalypse oder Forscher ohne Horrorszenarien kaum in den Medien präsent sind: „ Hans Mathias Kepplinger und das Institut für Publizistik der Universität

Mainz haben die führenden meinungsbildenden Tageszeitungen und Magazine in der Bundesrepublik und ihre Berichterstattung zwischen 1965 und 1986 verfolgt. [...] Kepplingers Grundfrage lautete: Woher kommt die negative Haltung gegenüber Technik der deutschen Bevölkerung? [...] Der unbedingte Fortschrittsglaube sank zwischen 1970 und 1985 von 41 auf 17 Prozent, während der Anteil jener von 49 auf 70 Prozent stieg, die meinten, man solle die Sache mit der Technikentwicklung und -anwendung nichtübertreiben. Dafür ist auch nach Kepplinger vor allem eine veränderte Sichtweise der Journalisten verantwortlich zu machen. Die Zahl der kritischen Berichte ver- doppelte sich in Deutschland [...], die Journalisten zitiertenüberwiegend ‚ kri- tische ‘ Experten. “ 27

Aus dieser überwiegenden Zitierung kritischer Experten erwächst dem Zuschauer der Eindruck, diese kritische Haltung sei die Mehrheitsmeinung, die sich bald auf die Mehrheit der Bevölkerung überträgt. Derweil schweigen die Experten der Gegenseite, um nicht negativ aufzufallen. Der Redakteur arbeitet mit seiner Vorauswahl der fort- schrittskritischen Experten manipulativ, um einem Thema die nötige Würze zu geben, derweil die Mehrheitsmeinung derer, die diese Meinung nicht stützen, ins Hintertreffen gerät. Wird nicht zu Beginn dieser Entwicklung eingegriffen, z.B. durch Befragung zweier kontroverser Experten eines Themas, wie es z.B. die Wochenzeitung „Die Welt“ gerne inszeniert, dreht sich die Schweigespirale, bis die Mehrheit glaubt, was die Minderheit vorgibt und die ehemalige Mehrheitsmeinung zur Außenseiter-Meinung wird.

2.2.3.4. Embedded Journalism

Auch andere Formen der Medienmanipulation sind bekannt: So sind Pressevertreter zwar grundsätzlich zur Objektivität angehalten. Diese Objektivität fällt jedoch schwer, wenn der Pressevertreter auf Informationen seitens der Wirtschaft, der Politik oder des Militärs angewiesen ist. Da sowohl Politik, als auch Wirtschaftsunternehmen und selbst Privatpersonen ein Interesse daran haben, positiv in den Medien in Erscheinung zu treten, kann eine kritische Schreibe besonders bei kleinen Medien eine Benachteiligung bei der Informationsbeschaffung verursachen. Das äußert sich darin, dass "treue" Berichterstatter den "untreuen" Berichterstattern vorgezogen werden. Linientreue Berichterstatter haben es wesentlich leichter, Interview-Termine und Hintergrund- Informationen zu beschaffen, sind also nicht selten näher am Thema als kritische Berichterstatter.

Ein viel zitiertes Beispiel für diese Form der Beeinflussung ist der so genannte Embedded Journalism, der im Irak-Krieg 2003 massiv eingesetzt wurde. Um an Kriegs- schauplätzen von vorderster Front berichten zu dürfen, müssen sich Medienvertreter der Informationskontrolle durch das Militär unterwerfen. Die Bilder der Journalisten auf Panzern sprechen für sich, zumal sich das Militär eine Informationskontrolle vorbehält:

„ Zensur soll es nicht geben, verspricht das US-Militär, jedenfalls nicht um den Krieg schön zu reden. Allerdings mussten sich alle "embeds" verpflichten, bes- timmte Informationen vorerst für sich zu behalten, z.B. Truppenstärken und - positionen. Auch Bilder, mit denen sich tote amerikanische Soldaten und

Kriegsgefangene identifizieren lassen, sind tabu. Besonders wichtig, so die Mi- litärs, ist, dass Journalisten keine taktischen Details verbreiten. Denn das könne gefährlich werden, sowohl für die Soldaten als auch die Journalisten. “ 28

Doch auch in anderen Bereichen sind die Manipulationsmöglichkeiten enorm. So werden besonders treue Pressevertreter gerne mit Begünstigungen „belohnt“, indem sie Exklusivgeschichten oder ausgiebige Interviews erhalten. Ob der Redakteur durch solche "Liebesdienste" zu einem Organ der Public-Relations-Arbeit eines Unter- nehmens wird, ist fraglich. Sicher ist, dass die mediale Tendenz einer Beeinflussung unterliegt und dadurch eine Medienmanipulation erfolgt.

2.3. Urheberrecht

Als Urheberrecht wird das Recht bezeichnet, das der Urheber an einem irgendwie gearteten kulturellen Werk hat. Dabei kann es sich um Bilder, Filme, Text, Musik, aber auch um Software oder Ideen handeln. Der Gedanke des Urheberrechts ist eine Gleich- behandlung von geistigem Eigentum mit materiellen Gütern und sorgt dafür, dass ein Urheber als Urheber anerkannt wird und seine wirtschaftlichen Interessen an einem Werk wahrnehmen kann. Weiter berechtigt es den Urheber eines Werkes, über dessen Veröffentlichung sowie seinen Verwendungszweck zu entscheiden. Das Urheberrecht ist unveräußerlich, der Urheber kann jedoch die wirtschaftliche Nutzung seines Werkes abtreten. Zudem erlischt es auch nicht mit dem Tod des Urhebers: In der Europäischen Union gilt das Urheberrecht an geistigen Werken wie Musik oder Literatur für einen Zeitraum von 70 Jahren nach dem Tod des Autors. Das Urheberrecht an Werken so genannter ausübender Künstler, also Schauspielern oder bildenden Künstlern, erlischt

50 Jahre nach dem Tod des Urhebers. Bis zu diesem wird es auf die Erben des Urhebers übertragen. Nach Ablauf dieser Zeit geht das Werk des Urhebers in die Gemeinfreiheit über und gilt als nicht mehr geschützt, jedoch auch nicht mehr schützbar.29

Das Urheberrecht wird in den meisten Staaten weltweit gleich behandelt. Ermöglicht wird das durch die „Berner Übereinkunft zum Schutz von Werken der Literatur und Kunst“, einem völkerrechtlichen Vertrag, der seit 1886 besteht, mehrfach revidiert und seither von 162 Staaten unterzeichnet wurde. Sie wurde erarbeitet, um den zwischens- taatlichen Schutz geistigen Eigentums zu gewährleisten. Zuvor wurde das Urheberrecht nur innerhalb eines Staates angewandt, wodurch z.B. geistige Werke eines Franzosen in Frankreich zwar geschützt waren, in den USA jedoch problemlos verbreitet werden konnten und umgekehrt. Die Berner Übereinkunft schützt das zwischenstaatliche Urhe- berrecht, indem sie den Vertragsstaaten auferlegt, ausländische Werke genau so zu behandeln und zu schützen wie inländische. Gleichzeitig schützt die Berner Überein- kunft auch das Urheberrecht innerhalb der Unterzeichnerstaaten, weil sie eine Richtlinie zum Schutz der Urheberrechte darstellt. So legt die Berner Übereinkunft den Begriff des Urheberrechts genauso fest wie eine Schutzdauer über die Zeit des Lebens des Urhebers sowie von mindestens 50 Jahren nach seinem Tod.30

Besonders westliche Industrieländer setzen jedoch auf längere Schutzdauer ihrer geistigen Werke. So beschloss die Europäische Union schon 1993 eine Anhebung der Schutzdauer von nicht bildenden oder darstellenden Werke auf 70 Jahre.

Die Vereinigten Staaten folgten 1998 mit dem so genannten Copyright Term Extension Act, auch bekannt als „Micky Maus-Gesetz“ und hoben den Urheberschutz von Personen auf 70, von Unternehmen sogar auf 75 bis 95 Jahre nach dem Tod des Urhebers an. Das Gesetz gilt rückwirkend für alle Werke, für die seit 1978 noch der Schutz durch Urheberrecht galt. Der Name „Micky Maus-Gesetz“ erklärt sich über die intensive Lobby-Arbeit des Medienkonzerns Disney zu diesem Thema: Sein wohl wichtigstes Produkt, die Comic-Maus Micky Maus, war 1927 das erste Mal auf der Leinwand erschienen. Nach dem damaligen Urheberrecht wäre die Maus, die auch als Handelsmarke geschützt ist, 56 Jahre nach dem ersten Erscheinen in die Gemeinfreiheit übergegangen, womit Disney 1983 seine exklusiven Rechte an der Figur verloren hätte. Um das zu verhindern, leistete Disney sowohl 1976, als auch 1998 massive Lobbyarbeit. Inzwischen ist die Urheberschaft an Micky Maus bis 2019 geschützt, weitere Verlängerungen des Urheberschutzes dürften folgen.

3. Geschichte und Struktur des Internets

3.1. Begriffsbestimmung: Neue Medien und Internet

3.1.1. Neue Medien

Als „neue Medien“ werden im allgemeinen Medien bezeichnet, die auf Daten in digitaler Form zugreifen oder für deren Nutzung elektronische Informations- und Kommunikationstechnik benötigt wird. Dazu zählen z.B. die im weitesten Sinne als „Multimedia“ zusammengefassten Techniken, darunter Musik-CDs, Film-DVDs, CD/DVD-ROM und Videospiele, insbesondere jedoch das Internet mit all seinen Diensten wie E-Mail, Chat, Websites sowie Text-, Video- und Audio-Daten.

Es gibt vier Kriterien, um die Neuen Medien von den anderen Medienbereichen abzugliedern:31

- Digitalisierung: Anders als die analoge Form der Datenspeicherung, die sämtliche Daten speichert, die ein Aufnahmegerät „sieht“, reduziert die digitale Speicherung Daten auf binäre Zwischenwerte. Dadurch wird einerseits der Datenumfang massiv reduziert, gleichzeitig jedoch auch die Qualität der Wiedergabe. Die binäre Speicherung ermöglicht zudem eine zusätzliche Komprimierung der Daten, womit es erst möglich wird, diese Daten auf kompakten, digitalen Speichermedien wie CD- ROM, Flash-Speicher oder Festplatten abzulegen oder durch Kommunikationsnetze wie das Internet zu übertragen. Auf diese Weise wird es auch möglich, digitale Daten ohne die bei analogen Medien üblichen Verluste durch elektrische oder optische Störungen zu kopieren.
- Möglichkeiten der nachträglichen Bearbeitung: Die digitale Nachbearbeitung ist mit einfachsten Mitteln, nämlich einem handelsüblichen PC und der passenden Software, möglich.
- Nutzung als Individual- und Massenmedium: Die neuen Medien erlauben eine Nutzung sowohl als Individualmedium (E-Mail, Chat, Voice-over-IP), als auch als Massenmedium (Online-Magazin, Website, Internet-Radio und -TV).
-Interaktivität: Die neuen Medien sind anders als Radio, Fernsehen und Printmedien nichtlinear und interaktiv, d.h. dass Inhalte durch Hypertext vernetzt und verknüpft werden können und der Anwender jederzeit entscheiden kann, wann er welche Inhalte sehen möchte. Zudem kann er, abhängig vom Medium, selbst Inhalte erstellen.

Da die neuen Medien in Form von CD-ROMs oder Videospielen inzwischen auf breiter Front ihren Weg ins Internet gefunden haben oder durch das Internet weitgehend ersetzt wurden, wird in der folgenden Arbeit hauptsächlich auf das Internet Bezug genommen.

3.1.2. Internet

Der Begriff „Internet“ setzt sich aus den englischen Begriffen „Interconnected Networks“ zusammen und ist das neue Medium schlechthin. Als weltweites, digitales und interaktives Netzwerk erlaubt es den schnellen Austausch von Informationen zwischen verschiedenen, unabhängigen Computern oder Netzwerken in digitaler Form. Der Austausch digitaler Daten zwischen den Computern wird über Protokolle geregelt.

Allgemein wird das „Internet“ mit dem „World Wide Web“ synonym verwendet, dem weltweiten Hypertext-Netzwerk, auf dem Websites basieren. Das World Wide Web ist jedoch nur ein Teil der Anwendungsformen des Internets. So gibt es eine Vielzahl nicht hypertext-basierter Protokolle, wie z.B. FTP, E-Mail, Newsgroups oder Filesharing- Netze, in denen Daten ohne Hypertext-Verknüpfung ausgetauscht werden können.32

Das Internet ist das erste Massenmedium, das jeden Rezipienten gleichzeitig auch zum Sender werden lässt.Alles, was er dafür benötigt, ist ein Computer mit Internet- Anschluss, ein HTML-Editor und ein wenig Internet-Speicherplatz.

3.2. Eine kurze Geschichte des Internets

Das heutige Internet geht auf das US-amerikanische ARPANET zurück. Das ARPANET war ein Forschungsnetzwerk der Advanced Research Project Agency

(ARPA) des US-Verteidigungsministeriums, das 1962 im Auftrag der US-Airforce und unter Leitung des Michigan Institute of Technology entwickelt wurde. Es sollte der Vernetzung von Universitäten und Forschungsstätten über das Telefonnetz dienen, wurde jedoch zunächst vom Pentagon abgelehnt, 1965 wurde die Idee wieder aufge- griffen und bis 1969 realisiert. Anfangs waren nur vier Forschungseinrichtungen miteinander verbunden: die University of California mit ihren zwei Sitzen in Santa Barbara und Los Angeles, die University of Utah sowie das Stanford Research Institute.33

Eine populäre jedoch falsche Legende besagt, dass das ARPANET von vorneherein dezentral, also ohne zentralen Server, strukturiert wurde, um einen Atomkrieg zu überstehen. Diese Behauptung stammt aus einer Studie34 des Forschers Paul Baran bei der Nonprofit-Organisation „Research and Developement“ (RAND), die sich mit der Sicherheit von Kommunikationsnetzen im Falle eines Atomkrieges befasste. RAND war von US-Behörden gefragt worden, wie nach einem nuklearen Angriff kommuni- ziert werden könne. Baran beantwortete diese Frage in seiner Studie: Um ein gegen einen Atomschlag geschütztes Kommunikationsnetz aufzubauen, müsse dieses redundant und digital sein.35 Damit beschrieb Baran das damals noch nicht entstandene Internet und die Legende war geboren. Gegen die Atomkriegs-Hypothese spricht zudem, dass das ARPANET hauptsächlich für zivile Forschungszwecke eingesetzt wurde.

Besonders populär wurde das ARPANET durch seinen 1965 erfundenen Dienst E-Mail. Nachdem weitere Universitäten und Forschungsstätten in den USA und anderen Ländern an das ARPANET angeschlossen worden waren, explodierte das Datenvolumen. Bereits 1971 machte E-Mail einen der größten Teile des über das ARPANET abgewickelten Datenaufkommens aus.36 Bereits 1975 verfügte das ARPANET über 65 Knotenpunkte. 1978 wurde das von der US-Regierung gestützte ARPANET-Projekt aufgrund der Entwicklung des TCP/IP- Protokolls beendet, das Netzwerk jedoch weiterhin von den Universitäten unterhalten. Erstmals tauchte der Begriff „Internet“ im Sprachgebrauch auf, gleichzeitig kamen die ersten erschwinglichen Heim-Computer auf den Markt, mit denen auch von zu Hause aus per Modem auf die Inhalte des Internets zugegriffen werden konnte.

In den späten 1970er und vor allem in den 1980er-Jahre wurden zahlreiche der heute noch wichtigen Dienste und Standards für das Internet entwickelt, darunter das Usenet (1979), Bulletin-Boards (1983), Internet-Relay-Chat (1988), die Adressvergabe in Form von User@host.domain sowie der Länder-Domains durch die IANA (1988) oder die Entstehung der ersten Online-Dienste wie AOL oder Compuserve gegen Mitte der 1980er Jahre. Gleichzeitig wurden die bereits in anderen Ländern vorhandenen, vom ARPANET unabhängigen Netzwerke wie das europäische EUNet oder das japanische JUNet an das Internet angeschlossen.

Der Wendepunkt lässt sich zu Beginn der 1990er Jahre ausmachen: 1990 beschloss die US-Regierung die endgültige Abschaltung des ARPANET. Der Erhalt und Ausbau der Netzinfrastruktur wurde ab diesem Moment in die Hände kommerzieller Anbieter, der so genannten Internet Service Provider gelegt. Die bisher hauptsächlich in der Schaffung des Internets aktiven Universitäten stellten die Infrastruktur nicht mehr selbst zur Verfügung, sondern kauften sie von den ISPs ein.

Das World Wide Web, das die Inhalte durch Hypertext verknüpfte, entstand in den frühen 1990er-Jahren auf Initiative des Schweizer CERN-Institut. Seinen Siegeszug trat es ab 1993 mit dem Webbrowser Mosaic sowie der Dokumentsprache HTML an: Erstmals war es möglich, nach der Einwahl bei einem Internet Service Provider direkt Text- und Grafikinformationen von jedem Computer aus zu betrachten, ohne sich mit kryptischen Terminal-Befehlen herumzuschlagen. Stattdessen wurde die heute noch gebräuchliche Browser-Navigation über Mausklicks populär. Diese wesentliche Vereinfachung des Zugriffs auf Inhalte sorgte für ein explosionsartiges Wachstum des World Wide Webs. Ebenfalls 1993 kamen die ersten Suchmaschinen auf, die das Auffinden von Informationen im Web massiv vereinfachten. Bereits 1993 waren die Grundlagen des heutigen WWW oder des synonym

verwendeten Internets gelegt. Bis heute wurden die damals bereits vorhandenen Standards weiterentwickelt und erweitert und neue Dienste hinzugefügt. Es folgten Skriptsprachen wie Java-Skript oder PHP, mit deren Hilfe sich auch dynamische

Inhalte realisieren lassen, genau wie neue Netzwerke, die im Internet integriert wurden, darunter verschiedene Chat-Protokolle oder Filesharing-Netzwerke. Cascading Style Sheets und Datenbanken erlauben die Trennung von Darstellung, Daten und Inhalt einer Website. Verschiedene Streaming-Protokolle erlauben die Wiedergabe von Audio- und Video-Inhalten.

Diverse nichtkommerzielle Organisationen, z.B. IANA, ICANN oder das W3C sorgen heute dafür, dass Standards des Internets eingehalten werden.37

3.3. Die Server-Hierarchie

Die Verwaltung eines komplexen Multinetzwerks wie des Internets ist nur durch eine strenge Server-Hierarchie möglich.

Die ICANN betreibt 13 so genannte „Root-Server“, Domain-Name-Server der Klasse A, die eine Art Landkarte des Internets beinhalten: Auf ihnen sind die Domain-Namen und die zugehörigen IP-Adressen der hierarchisch untergeordneten Domain-Name- Servern gespeichert. Ein Root-Server nimmt eine Webadresse in der Form Thirdlevel- Domain.Secondlevel-Domain.Toplevel-Domain entgegen, z.B. www.google.de.

Die Länder-, bzw. Top-Level-Domain teilt dem Root-Server mit, dass die angefragte Domain sich im Domainraum „.de“, also Deutschland befindet und leitet die Anfrage an den Domain-Name-Server des deutschen Network Information Centers, der DENIC, weiter. Dort wird der Datenbestand erneut abgefragt, diesmal über den Domainnamen „Google“. Ein Domain-Name-Server der Klasse B sucht den Eintrag und leitet die Anfrage an den DNS der Klasse C, diesmal intern bei Google, weiter.

Dieser erkennt anhand der Subdomain „www“, dass der WWW-Dienst von Google angefordert wurde und schickt diesen nun an den Anwender, der die Anfrage gestellt, die Adresse „www.google.de“ also in seinem Browser eingegeben hat. Alternativ lassen sich auch andere Internet-Dienste auf diese Weise abfragen: ftp.google.de verweist auf Googles FTP-Server, „earth.google.de“ auf den Dienst von Google Earth.

Wäre Google nun ein Website-Anbieter, könnte über die Thirdlevel-Domain auch eine Anfrage auf eine Unterseite durchgeführt werden: User.google.de würde z.B. auf die Website des Google-Website-Kunden „User“ verweisen. Die Vergabe dieser Third Level-Domains ist vom Betreiber der Second-Level-Domain abhängig, es gibt jedoch gewisse Standards, so dass FTP immer auf den FTP-Dienst verweist, WWW immer auf den WWW-Dienst.

Bei der Server-Hierarchie findet sich eine ähnliche Baum-Struktur wie bei der Netzwerk-Hierarchie: Die Root-Server sind die Stämme, die DNS der Klasse B die Äste, die DNS der Klasse C die Zweige und Blätter.

Es wird immer wieder Kritik laut, dass die 13 Root-Server allesamt von der ICANN und damit vom US-Handelsministerium kontrolliert würden, zumal durch die USdominierte Entwicklung des Internets lange Zeit alle diese Server auf amerikanischem Territorium zu finden waren.

Inzwischen erlaubt eine neue Technik namens Anycast jedoch die Zusammenfassung zahlreicher weltweit platzierter Server zu einem logischen Server, weshalb die Brisanz der US-Dominanz ein wenig abgenommen hat: Ein Teil der Root-Server besteht inzwischen aus zahlreichen per Anycast verbundenen, weltweit positionierten Servern.

Trotzdem müssen sich die verschiedenen für die Länderdomains verantwortlichen NICs auf die Richtigkeit der Informationen von der ICANN kontrollierten Root-Server genauso verlassen wie die Diensteanbieter auf die Richtigkeit der Informationen auf den Servern der NICs.

Im Umkehrschluss bedeutet eine Kontrolle über die 13 Root-Server der ICANN die volle Kontrolle über das gesamte Internet.

3.4. Die Netzwerk-Hierarchie

Technisch gesehen ist das Internet die Vernetzung verschiedener Netzwerke unterein- ander. Dabei besteht es vor allen Dingen aus einzelnen untereinander vernetzten Computern von Firmennetzwerken, Forschungsnetzwerken zwischen Universitäten sowie Provider-Netzwerken, die hauptäschlich Privatrechner ans Internet anschließen.

Die Netzstruktur ist hierarchisch: Die kleinste Einheit des Internets sind zwei oder mehrere miteinander vernetzte PCs in Form eines „Local Area Networks“, kurz LANs. Mittlere Einheiten, so genannte „Metropolitan Area Networks“, kurz MANs, vernetzen diese LANs breitbandig zu einem größeren Netzwerk innerhalb einer Stadt oder eines größeren Siedlungsraumes. Diese sind ihrerseits durch so genannte WANs, Wide Area Networks, national miteinander verbunden. Erst die größte Einheit, das Global Area Network, kurz GAN, verbindet diese nationalen WAN-Knoten untereinander zum Internet.

Die ganze Struktur kann baumartig beschrieben werden. Sind die 13 Root-Server der ICANN die Wurzeln, bilden die GANs den Stamm, die WANs die Äste, die MANs die Zweige und die LANs die Blätter, die letztlich zu den Clients führen, die als einzelne Zellen des Internets betrachtet werden können. Hieraus erfolgt auch der Hierarchie- Gedanke: Je niedriger Netzwerke in der Hierarchie einzuordnen sind, desto häufiger kommen sie vor. Genau wie der Verlust einiger Zellen, Blätter oder Zweige für den

Baum kaum Folgen hat, kann ein Verlust an der GAN-Struktur oder gar an den Wurzeln große Teile des Systems lahmlegen. Ein Beispiel hierfür konnte während der Terroranschläge des 11. Septembers 2001 beobachtet werden, damals brachen einige wichtige Internet-Knotenpunkte im Bereich des World Trade Centers zusammen:

„ Als ein weiteres Gebäude des World-Trade-Komplexes zusammenbrach,

wurde die Schaltzentrale des Telekommunikationsunternehmens Verizon stark beschädigt, was zum Zusammenbruch von Telefonleitungen und Beeinträch- tigung des Mobilfunksystems in Lower Manhattan führte. Der Zusammenbruch

mehrerer Internet-Schaltzentralen (POPs) im Welthandelszentrum führte nicht nur zu Ausfällen in New York City, Connecticut und Massachusetts, sondern auch weltweit: Etliche translatlantische Schaltkreise waren zusammenge-

brochen, die aus Kostengründenüber New York City führten. In Rumänien gingen Netzwerke vom Netz, das CERN in Genf war betroffen und Südafrika verschwand mit seinen .za-Websites aufgrund einer Störung des Domain-

Name-Services für einige Tage ganz von der Internet-Landkarte. “ 38

Da der Internet-Stamm in Form der GANs wie ein Baum über mehrere Leitungen

verfügt, ließen sich sich die Schwierigkeiten schnell beheben. Die Beschränkung auf wenige GANs macht das internationale Internet jedoch in gewisser Weise angreifbar. Hinzu kommt, dass sich die transkontinentalen GANs auf wenige dicke Leitbahnen stützen, die die Kontinente miteinander verbinden. Fallen diese aus, ist die Verbindung zwischen zwei kontinentalen Netzen erheblich gestört. Im Fall des Einsturzes des World Trade Centers war genau das der Fall, weil in New York die transkontinentale Leitung zwischen Europa und den USA zusammenläuft.

3.5. Hypertext

Hypertext ist eine nichtlineare Form der logischen Textorganisation über Verweise, so genannte Hyperlinks und Knotenpunkte. Während klassische Textpublikationen über eine hierarchische Struktur verfügen, die über ein Inhaltsverzeichnis sowie der redundanten Wiedergabe von Informationen organisiert wird, erlaubt Hypertext die Verlinkung bereits geschriebener Inhalte. Damit wird das mehrfache Vorhandensein von Informationen, ein wichtiges Merkmal linearer Publikation, in einem Text eliminiert. Hypertext ist durch diese Art der Informationsverknüpfung näher an das menschliche Denken angelehnt als lineare Texte: Statt erneuter Zusammenfassungen von Begriffen werden diese zuvor beschriebenen Begriffe einfach verlinkt. Der Leser ist auf diese Weise in der Lage, die Informationen bei Bedarf abzurufen, ohne dass sie unnötig redundant im Textfluss vorhanden ist.

Kritisiert wird am Hypertext-Konzept die Unterbrechung des Leseflusses: Ist ein Bezug im Text nicht weiter erklärt, muss der Leser im Zweifelsfall einem Hyperlink folgen, um dort auf einen weiteren, näher erläuternden Text zu stoßen, der möglicherweise ebenfalls Hyperlinks aufweist. Auf diese Weise kann es vorkommen, dass der Anwender nach dem Folgen diverser Hyperlinks nur noch schwer zum Ausgangspunkt zurückkehren kann. Dort angelangt ist es zudem schwierig, sich erneut in den Text einzulesen, da der Lesefluss massiv unterbrochen wurde. Anwender, die mit diesem Problem zu kämpfen haben, gelten als „Lost in Hyperspace“, in Anlehnung an die US- Science-Fiction-Serie „Lost in Space“, in der eine Familie in den unendlichen Weiten des Weltalls verloren ging.

3.6. Transmission Control Protocol

Bei TCP handelt es sich um ein für das Internet essentielles Netzwerk-Protokoll. Als Anfang der 1980er Jahre das „Transmission Control Protocol“ als Request for Comments mit der Nummer 793 (RFC793) erschien, ahnte niemand, wie wichtig dieses Netzwerkprotokoll eines Tages für das damals noch vergleichsweise winzige ARPANET und seinen Nachfolger, das Internet werden würde. TCP baut einen Kom- munikationskanal zwischen zwei per Netzwerk verbundenen Rechnern im Vollduplex- Verfahren auf, d.h., dass beide Seiten gleichzeitig senden und empfangen können. Dazu ist die Unterteilung der Daten in Pakete nötig. Parallel zur Übertragung prüft TCP die Datenpakete auf Fehler und fordert defekte oder verlorene Pakete gegebenenfalls erneut an. Dadurch ist es wesentlich zuverlässiger als z.B. das parallel entstandene User Datagram Protocol (UDP), doch aufgrund der Fehlerkontrolle auch langsamer.

Trotzdem hat sich TCP als zuverlässiges Protokoll eingebürgert. Der gesamte Internet- Verkehr läuft per TC-Protokoll. Jedem Dienst im Internet ist einer von den mit 16 Bit binär darstellbaren 65535 Ports innerhalb des TCP zugeordnet, wodurch gewährleistet ist, dass es zu keiner Überschneidung der Datenübertragung kommt und Rechner gleichzeitig mit mehreren Diensten arbeiten können. Dabei sind jedoch nur die ersten 1024 Ports als so genannte „Well known Ports“ fest bestimmten Diensten zugeordnet. So läuft der Hypertext-Transfer in Form von HTTP auf Port 80, die Übertragung von Daten mit Hilfe von FTP läuft auf Port 21. Diese Portzuordnung wird von der IANA geregelt.

Weitere Portnummern sind die Ports 1024 bis 49151, die als „Registered Ports“ von Anwendungs-Herstellern bei der IANA registriert werden können. So bedient sich etwa der beliebte Instant-Messenger ICQ von AOL des Ports 5190, während der ComputerFernverwaltungsdienst VNC auf die Ports 5800 und 5900 angewiesen ist.

Die Einhaltung dieser Standards ist nötig, um eine Kommunikation zwischen Computern sicherzustellen. Umgekehrt erlaubt die Blockade bestimmter Ports, ganze Dienste gezielt auszuschalten. So sind in Universitäts-Netzwerken nicht selten die gängigen Ports von Filesharing-Anwendungen wie Kazaa gesperrt, während Arbeitgeber vor allem auf die Sperrung von Chat-Programmen setzen. Ist ein Port gesperrt, ist eine Kommunikation des Dienstes nicht mehr möglich.

Das TCP setzt auf die Klartextübermittlung von Daten im Binärformat. Eine eigene Verschlüsselung existiert nicht, da sie unsinnig wäre und die Kommunikation nur

unnötig blockieren würde, schließlich soll jeder Rechner im Netzwerk mit jedem anderen Rechner kommunizieren können. Eine Verschlüsselung, die jeder kennt, ist jedoch keine Verschlüsselung. Deshalb ist sie nicht implentiert.

Hier sitzt die größte Schwachstelle von TCP: Aufgrund der fehlenden eingebauten Ver- schlüsselung und der hochwertigen Fehlerkorrektur kann jede unverschlüsselte Daten- verbindung grundsätzlich mit zwischengeschalteten Rechnern belauscht, abgefangen oder umgeleitet werden, ohne, dass die Gegenseite etwas davon mitbekommt. Da die Umleitung von Daten im Internet als so genanntes „Routing“ unumgänglich ist, kann eine Überwachung und Manipulation grundsätzlich auf jedem Rechner erfolgen, den die Daten passieren. Der technisch durchschnittlich versierte Anwender kann eine ent- sprechende Manipulation kaum entdecken, sie schlägt sich bestenfalls in einer niedrigeren Verbindungsqualität nieder, die auch von schlechten Routing-Wegen oder minderwertigen Leitungen verursacht sein kann.

Computer-Profis setzen deshalb auf Verschlüsselung der Daten, bevor sie gesendet werden.

4. Wer regiert das Internet?

„ Das gesamte Internet gehört niemandem! Und es gibt auch niemanden, der die Kontrolleüber das ganze Internet hat! Keinen König, keinen Präsidenten, kein Parlament! “ 39

4.1. Die Gesetzgeber des Internets

4.1.1. World Wide Web Consortium (W3C)

Das World Wide Web Consortium, kurz W3C, ist ein Gremium zur Erstellung und Absegnung von Web-Standards. Gegründet wurde es 1994 vom Amerikaner und „Vater des World Wide Web“ Tim Berners-Lee, um „ dem World Wide Web seine vollen Möglichkeiten zu erschließen und damit Protokolle und Richtlinien entwickelt werden, die ein langfristiges Wachstum des Web sichern. “ 40

Das W3C unterstützt dieses langfristige Wachstum durch die Bereitstellung freier Standards, die nicht von kommerziellen Insellösungen behindert werden. So hat sich das W3C freiwillig dazu verpflichtet, ausschließlich Lösungen und Standards zu verwenden, die frei von Patentgebühren und damit für jeden Teilnehmer des Internets kostenlos nutzbar sind. Dazu zählen vor allem Hypertext-Standards wie HTML oder XML.

Allerdings handelt es sich beim W3C nicht um eine zwischenstaatlich anerkannte Organisation, weshalb die W3C-Standards in keiner Weise verbindlich sind, anders als bspw. die Vorgaben des Internationalen Organisation für Normung ISO. Deshalb spricht das W3C auch nicht von festgelegten Standards, sondern von Empfehlungen. Dennoch werden die Empfehlungen i.d.R. zumindest teilweise in anderen Standards und Normen integriert.

Verwaltet wird das Consortium vom Computer Science and Artificial Intelligence Laboratory (CSAIL) des Michigan Institute for Technology, vom European Consortium for Informatics and Mathematics in Frankreich und der Keio Universität in Japan. Zudem verfügt das W3C über 16 auf der ganzen Welt verstreute Filialen, um lokale Nutzergruppen zu betreuen.

An der Entwicklung der W3C-Empfehlungen dürfen Unternehmen, Universitäten, Non- Profit- und Regierungsorganisationen teilnehmen. Die Mitgliedschaft ist mit der Zahlung einer jährlichen Mitgliedsgebühr verknüpft, die abhängig vom Standort und dem Umsatz der Organisation berechnet wird. Diese Gebühr wird erhoben, um einerseits die Arbeit und Organisation des W3C sicherzustellen und andererseits zu gewährleisten, dass auch kleine Unternehmen und Organisationen aus Entwicklungs- ländern an der Erstellung der Web-Standards teilnehmen dürfen. Bei der Klassifi- zierung eines Landes werden die Empfehlungen der Weltbank im Bezug auf das jährliche Pro-Kopf-Einkommen berücksichtigt, ob es sich um ein Entwicklungsland, ein Schwellenland oder ein Industrieland handelt. Entsprechend hoch oder niedrig sind die Gebühren für die Organisationen gehalten.

Trotz der Mitglieds-Gebühr dominieren Organisationen und Unternehmen aus den Vereinigten Staaten das W3C: Mehr als ein Drittel aller W3C-Mitglieder kommt aus den USA, nur knapp 11 Prozent der Mitglieder stammen aus Staaten, die nicht zu den westlich orientierten Industrienationen gerechnet werden können.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Herkunftsländer der Mitglieder des W3C

4.1.2. Internet Assigned Numbers Authority (IANA)

Die IANA wurde bereits 1972, in den Zeiten des ARPANETs, als technische Referenz im Auftrag der Advanced Research Project Agency des amerikanischen Verteidigungs- ministeriums ins Leben gerufen. Diese technische Dokumentation sollte einen Überblick über die Standards und Adressen sowie die Ports und Rufnummern des ARPANETs schaffen, die vom amerikanischen Information Sciences Institute aufgestellt wurden. Ursprünglich als Dokumentation von Standards erdacht, bildete die IANA durch ihre Funktion zur Wahrung der Netz-Standards eine Art Verfassung des ARPANETs.

Als Organisation wurde die IANA 1988 im Rahmen eines Vertrags zwischen dem USVerteidigungsministerium und dem Information Sciences Institute gegründet. Damit übernahm die IANA nicht nur die Standardisierung, sondern auch die Verwaltung der Domain-Namen, IP-Adressen, Dienste und Ports im Netz.

Der Vertrag zwischen dem Verteidigunsministerium und dem Information Sciences Institute sollte bis 1997 laufen, wurde jedoch verlängert, um die Funktionen des seinerzeit explodierenden Internets zu gewährleisten. Zeitweise war nur ein einzelner Mann, Jon Postel, ein Informatik-Professor des Information Sciences Institute, für die Festsetzung der IANA-Standards verantwortlich.

Am 1. Januar 1999 wurden die IANA-Funktionen von der ICANN übernommen.

4.1.3. Internet Corporation for Assigned Names and Numbers (ICANN)

Mit der zunehmenden Komplexität und Internationalität des Webs wurde eine Neuordnung des Internets und die Schaffung einer Verwaltung des Netzes nötig. Die IANA konnte dieser komplexen Aufgabe nicht mehr gerecht werden, weshalb die US- Regierung, damals noch unter Präsident Bill Clinton, den Vorschlag machte, die Verwaltung des Internets, die bis dato in Form der IANA in den Händen der US- Regierung lag, in die Hände einer privatwirtschaftlichen Organisation zu legen.

Deshalb veröffentlichte die National Telecommunications and Informations Admini- stration (NTIA), eine Unterabteilung des US-Wirtschaftsministeriums, am 30. Januar 1998 einen Kommentar zur Neuordnung des Webs mit dem sperrigen Titel „A Proposal to Improve the Technical Management of Internet Names and Addresses.“41

Wenig später wurde ein entsprechender Entwurf veröffentlicht, der die Reorganisation des Internets im Sinne privatwirtschaftlicher und internationaler Hinsicht vorschlug. Statt der US-Regierung und dem Information Sciences Institute sollte künftig eine internationale, privatwirtschaftliche Non-Profit-Organisation die technischen Aufgaben der IANA sowie weitere Aspekte der Internetverwaltung übernehmen, um eine schnellere und effizientere, weil privatwirtschaftliche Entwicklung des Internets zu gewährleisten. Kontrolliert werden sollte diese durch ein internationales Gremium, einem repräsentativen „Board of Directors“.

Die ICANN, eine privatrechtliche Non-Profit-Organisation nach amerikanischem Recht mit Sitz in Kalifornien, wurde am 18. September 1998 gegründet. Sie übernahm haupt- sächlich - weiterhin unter der Aufsicht des US-Wirtschaftsministeriums - die Funktionen der IANA, wie die Verwaltung der Top-Level-Domains oder die Einbindung von Domain-Namen auf den Root-Servern. Desweiteren steuert sie den politischen Kurs des Internets.

Die fünfzehn Mitglieder des Board of Directors, die die Oberaufsicht über ICANN haben, stammen von sechs Kontinenten und nur zwei von ihnen - einer davon allerdings der CEO - stammen aus den Vereinigten Staaten.

Obwohl die ICANN keine nach internationalem Recht anerkannte Stelle ist und sowohl durch den Sitz in Kalifornien, als auch durch die Bindung an das US-Wirtschaftminis- terium und damit der US-Regierung US-dominiert ist, wird die ICANN in vielen Quellen als „Weltregierung des Internets“ bezeichnet.

Kritiker sähen die ICANN lieber unter tatsächlicher internationaler Kontrolle, d.h. ohne den dominierenden Einfluss der US-Regierung. Dieser Kritik leistete die US-Regierung Vorschub, indem sie noch im Juni 2005 erklärte, an der Kontrolle der ICANN festhalten zu wollen, um „die Sicherheit und Stabilität des Internets sicherzustellen.“42 Im Frühjahr 2006 hingegen lockerte die US-Regierung ihren Kurs und sprach sich für

4.1.4. Network Information Center (NIC)

Die Network Information Center sind für die Domainvergabe innerhalb des ihnen auferlegten Bereichs von Top-Level-Domains verantwortlich. IP-Adressen in der Form 012.345.678.901 werden mit den für den Anwender leichter zu merkenden InternetAdressen in Form von z.B. google.de verknüpft. Dazu betreiben die NICs eigene RootServer in Form von Domain-Name-Servern, die mit hohen Bandbreiten mit den RootServern der ICANN verbunden sind.

Im deutschen Domainraum „.de“ ist die in Frankfurt am Main ansässige DENIC e.G. für die Adressvergabe zuständig. Andere Länder-Domains, die so genannten Country Code Top Level Domains (ccTLDs) wie .es für Spanien oder .uk für Großbritannien werden von jeweils anderen zuständigen NICs vergeben. Für die Vergabe der internationalen Domains, der so genannten Generic Top Level Domains (gTLDs) wie .com oder .net ist unter anderem die INTERNIC zuständig.

Die NICs agieren unabhängig voneinander und haben jeweils eigene Kriterien und Bedingungen zur Domainvergabe. Gemeinsam haben sie jedoch, dass sie genossen schaftlich durch einen Zusammenschluss verschiedener Wirtschaftsunternehmen, i.d.R. Internet-Provider44, kontrolliert werden. Durch die genossenschaftliche Organisation fließen Gewinne nicht an die Mitglieder zurück, sondern werden in den Ausbau der DENIC gesteckt.

Bei der Domain-Registrierung in Deutschland gibt es verschiedene Kriterien, die die Freiheit des Registrierenden einschränken. Zwar gilt bei Domainnamen grundsätzlich die Regel „wer zuerst kommt, mahlt zuerst.“ Jedoch sind Namens- und Markenrechte in Deutschland auch bei der Domainvergabe in besonderer Weise durch das Marken- und Wettbewerbsrecht geschützt. Bei Gattungsbegriffen hingegen ist der Einzelfall maßgeblich. Zeichnen sich rechtliche Konflikte ab, kann die DENIC eine Domainregi- strierung als „dispute“ kennzeichnen. Der vermeintlich verletzte Rechtsinhaber erhält damit das Recht, eine Domain zu übernehmen, sobald diese abgegeben wird. Sollte er nicht so lange warten wollen, muss er den Rechtsweg gehen - bei Domainnamen, die Marken-, Namens- oder Personenrechte verletzen, entscheiden deutsche Gerichte i.d.R. für den Kläger.

Die DENIC hauptsächlich ausführendes Organ, wie die Domainbedingungen der DENIC belegen:45

„ (2) DENIC prüft zu keinem Zeitpunkt, ob die Registrierung der Domain für oder ihre Nutzung durch den Domaininhaber Rechte Dritter verletzt.

(3) DENIC kann eine Domain mit einem Dispute-Eintrag versehen, wenn ein Dritter glaubhaft macht, dass ihm ein Recht an der Domain zukommen mag, und erklärt, dieses gegenüber dem Domaininhaber geltend zu machen. Der Dispute-Eintrag hat Wirkung für ein Jahr. DENIC verlängert auf Antrag den Dispute-Eintrag, wenn dessen Inhaber nachweist, dass die Auseinander- setzung noch nicht abgeschlossen ist. Eine Domain, die mit einem Dispute- Eintrag versehen ist, kann vom Domaininhaber weiter genutzt, jedoch nicht auf einen Drittenübertragen werden. “

Die Möglichkeit des Dispute-Eintrages und des Rechtsweges erlaubt eine effiziente Vorgehensweise gegen „Domaingrabber“46, die sich Marken-Domains unter den Nagel reißen, um sie später an die Rechtsinhaber zu verkaufen.

4.1.5. Inhaltsanbieter und Provider

Das Internet mag keinen König oder Präsidenten haben, trotzdem wird es durch verschiedene Organisationen kontrolliert. Während das W3C, die ICANN und die NICs sich hauptsächlich mit der Schaffung technischer Standards und deren Verwaltung auseinander setzen, sind die Inhalts- und Diensteanbieter für die Inhalte des Webs verantwortlich. Sie publizieren Text, Audio und Video auf ihren Servern und ermöglichen so erst eine sinnvolle Nutzung des Netzes.

[...]


1. John Gilmore‘s Website: www.toad.com/gnu/

2. Meyers Großes Konversationslexikon, Bd. 7, 6. Auflage 1905

3. In Anlehnung an Wikipedia.de „Goldene Regel“, de.wikipedia.org/wiki/Goldene_Regel , Stand: 04 .09.2006

4. „Die Freiheit besteht darin, alles tun zu dürfen, was einem anderen nicht schadet: Die Ausübung der natürlichen Rechte eines jeden Menschen hat also nur die Grenzen, die den anderen Mitgliedern der Gesellschaft den Genuß eben dieser Rechte sichern. Diese Grenzen können nur durch das Gesetz bestimmt werden.“ Déclaration des Droits de l'Homme et du Citoyen, Artikel 11, Originalfassung vom 26. August 1789, von Ludwig XVI. angenommen am 05. Oktober 1789, Übersetzung von Elysee.fr, www.elysee.fr/elysee/ allemand/die_institutionen/die_grundtexte/erklarung_der_menschen_und_burgerrechte/ erklarung_der_menschen_und_burgerrechte.20609.html, Stand: 09.08.2006

5. Grundgesetz der Bundesrepublik Deutschland, Artikel 2

6. Wikipedia.de „Meinungsfreiheit“, de.wikipedia.org/wiki/Meinungsfreiheit, Stand: 09.08.2006 10 .08.2006

7. UN, „Universal Declaration of Human Rights“, deutsche Version: „Die allgemeine Erklärung der Menschenrechte“, UN-Resulotion 217 A (III) vom 10.12.1948

8. Grundgesetz der Bundesrepublik Deutschland, Artikel 5

9. The Bill of Rights, Amendments 1-10 of the Constitution, Amendment I

10. Déclaration des Droits de l'Homme et du Citoyen, Artikel 11, Originalfassung vom 26. August 1789 , von Ludwig XVI. angenommen am 05. Oktober 1789

11. Grundgesetz der Bundesrepublik Deutschland, Artikel 5, Absatz 2

12. Grundgesetz der Bundesrepublik Deutschland, Artikel 1, Absatz 1: „Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt.“

13. Europäische „Konvention zum Schutze der Menschenrechte und Grundfreiheiten“, Artikel 10 „Freiheit der Meinungsäußerung“, Fassung 11. Protokolls, in Kraft getreten am 1. November 1998

14. Déclaration des Droits de l'Homme et du Citoyen, Artikel 2, Originalfassung vom 26. August 1789, von Ludwig XVI. angenommen am 05. Oktober 1789, Übersetzung von Elysse.fr, http:/ /www.elysee.fr/elysee/allemand/die_institutionen/die_grundtexte/erkla rung_der_menschen_und_burgerrechte/erklarung_der_menschen_und_burgerrechte.20609.html, Stand: 09.08.2006, ähnlich in der europäischen „Konvention zum Schutze der Menschenrechte und Grundfreiheiten“, Artikel 5

15. Dr. Benda Dr. Simon Dr.Hesse u.a.: BVerfGE 65, 1 - Volkszählung: Urteil des Ersten Senats vom 15. Dezember 1983 auf die mündliche Verhandlung vom 18. und 19. Oktober 1983 - 1 BvR 209, 269, 362, 420, 440, 484/83 in den Verfahren über die Verfassungsbeschwerden

16. Dr. Benda Dr. Simon Dr.Hesse u.a.: BVerfGE 65, 1 - Volkszählung: Urteil des Ersten Senats vom 15. Dezember 1983 auf die mündliche Verhandlung vom 18. und 19. Oktober 1983 - 1 BvR 209, 269, 362, 420, 440, 484/83 in den Verfahren über die Verfassungsbeschwerden

17. Dr. Benda Dr. Simon Dr.Hesse u.a.: BVerfGE 65, 1 - Volkszählung: Urteil des Ersten Senats vom 15. Dezember 1983 auf die mündliche Verhandlung vom 18. und 19. Oktober 1983 - 1 BvR 209, 269, 362, 420, 440, 484/83 in den Verfahren über die Verfassungsbeschwerden

18. Wikipedia.de „Pressefreiheit“, de.wikipedia.org/wiki/Pressefreiheit, Stand: 02.09.2006

19. Grundgesetz der Bundesrepublik Deutschland, Artikel 5, Absatz 1

20. Reporter ohne Grenzen, „Pressefreiheit=Demokratie“, Reporter-ohne-Grenzen.de, www.reporter- ohne-grenzen.de/ueber-uns/pressefreiheit-warum.html, Stand: 18.07.2006

21. Reporter ohne Grenzen, „Pressefreiheit=Demokratie“, Reporter-ohne-Grenzen.de, www.reporter- ohne-grenzen.de/ueber-uns/pressefreiheit-warum.html, Stand: 18.07.2006

22. Reporter ohne Grenzen, „Pressefreiheit=Demokratie“, Reporter-ohne-Grenzen.de, www.reporter- ohne-grenzen.de/ueber-uns/pressefreiheit-warum.html, Stand: 18.07.2006

23. Reporter ohne Grenzen, „Pressefreiheit=Demokratie“, Reporter-ohne-Grenzen.de, www.reporter ohne-grenzen.de/ueber-uns/pressefreiheit-warum.html, Stand: 18.07.2006

24. Grundgesetz der Bundesrepublik Deutschland, Artikel 5, Absatz 2

25. Betriebsverfassungsgesetz der Bundesrepublik Deutschland, Artikel 118: „Geltung für Tendenz betriebe und Religionsgemeinschaften.

26. Deutsche Bank Research, „Auswirkung der BSE-Problematik auf ausgewählte Branchen“, Aktu elle Themen Nr. 198, 14.02.2001

27. Walter Krämer, Gerald Mackenthun: „Die Panik-Macher“, S. 172 - 175

28. Frank Zeller, „Embedded Journalism -- neue Form der Kriegsberichterstattung“, Heise.de, 22 03.2003, www.heise.de/newsticker/meldung/35575, Stand: 18.09.2006

29. „Gesetz über Urheberrecht und verwandte Schutzrechte“ (Urheberrechtsgesetz), 9. September 1965 in der Fassung vom 13. September 2003

30. „Berner Übereinkunft zum Schutz von Werken der Literatur und Kunst“ revidiert in Stockholm am 14. Juli 1967 mit Stand 06. Juni 2006

31. Oliver M. Köppen, „Das Grundrecht auf Informationsfreiheit unter besonderer Berücksichtigung der neuen Medien“, S. 15-16

32. Wikipedia.de „Internet“, de.wikipedia.org/wiki/Internet, Stand 03.08.2006

33. Wikipedia.de „ARPANET“, de.wikipedia.org/wiki/ARPANET, Stand 03.08.2006

34. Paul Baran, „On distributed Communications“, 1964

35. „Paul Baran and the Origins of the Internet“, RAND.org, www.rand.org/about/history/baran.html, Stand: 05.09.2006

36. Wikipedia.de, „E-Mail“, de.wikipedia.org/wiki/E-Mail, Stand 03.08.2006

37. Siehe Kapitel 4 „Wer regiert das Internet?“

38. Christiane Schulzki-Haddouti, „Sicherheit im Netz heute - nach den Anschlägen des 11. Septem bers“, Gipfelthemen.de, 03.11.2004, www.gipfelthemen.de/virtuellesicherheit/piraten_terroristen/ ex_11.9.shtml, Stand: 15.08.2006

39. Kidsville.de „Wem gehört das Internet?“, www.kidsville.de/internaut/01internetspur01.htm, Stand: 12.09.2006

40. W3C.org

41. National Telecommunications and Informations Administration: „A proposal to improve technical management of internet names and adresses“, Diskussionsvorschlag 30.01.1998, http:/ /www.ntia.doc.gov/ntiahome/domainname/dnsdrft.htm, Stand: 30.07.2006

42. ORF Futurezone, „USA erwägen ICANN-Privatisierung“28.07.2006, futurezone.orf.at/it/stories/ 125642 /, Stand 27.07.2006 die Privatisierung und Internationalisierung der ICANN aus, ohne jedoch die Oberaufsicht über die Root-Server abgeben zu wollen.43

43. Monika Emmert, „USA bestehen auf Oberaufsicht über DNS-Rootzone“, Heise Online, 27 .07.2006, www.heise.de/newsticker/meldung/76017, Stand 04.08.2006

44. Vgl. www.denic.de/de/denic/mitgliedschaft/mitgliederliste/index.jsp

45. DENIC, Domainbedingungen, §2, Absatz 2 und 3, www.denic.de/de/bedingungen.html, Stand:

46. Von englisch Domain und to grab = grabschen, also „Domain-Grabscher“

Details

Seiten
157
Jahr
2006
ISBN (eBook)
9783638562010
ISBN (Buch)
9783640527434
Dateigröße
6.2 MB
Sprache
Deutsch
Katalognummer
v63078
Institution / Hochschule
Fachhochschule Bonn-Rhein-Sieg in Rheinbach
Note
1,7
Schlagworte
Meinungsaäußerung Internet Probleme Informationskontrolle Zensur Massenmedium Zensieren Computer Technik Autor Christian Rentrop Windows USA Korea Nordkorea Internetzensur Kuba Great Firewall China Wall Sicherheit Google Computersicherheit Meinungsfreiheit Buch Zusammenfassung Schwarmwissen Wikipedia Mac PC Web Social Media Thema Meinungsfreiheit

Autor

Teilen

Zurück

Titel: Die freie Meinungsäußerung im Internet. Probleme der Informationskontrolle und Zensur im neuen Massenmedium