Video-Streaming in Internet-Talkshows


Magisterarbeit, 2003

145 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

1 Einleitung
1.1 Struktur, Problemstellung und Vorgehensweise

2 Technische Bedingungen von Streaming im WWW
2.1 Die Entstehung des Internet und seiner Dienste
2.1.1 Die Verknüpfung von World Wide Web und Multimedia
2.1.2 Kommunikation und Interaktivität im Chat
2.2 Entwicklungspotential des Internet
2.3 Verarbeitung von Bewegtbild an Computer- und TV-Bildschirmen
2.4 Digitale Aufbereitung von Video
2.5 Technische Grundlagen des Streaming
2.5.1 Die Erstellung eines Video-Streams
2.5.2 Datenkompression
2.6 Übertragungsarten: Multicasting und Unicasting
2.7 Streaming Media Anwendungen und Dateiformate
2.8 Mögliche Zugangsbarrieren für Streaming

3 Talkshows - Entwicklung eines Fernseh-Genres
3.1 Technische Entwicklung des Massenmediums Fernsehen
3.2 Programmstrukturen des Fernsehens und deren Rezeption
3.3 Die Talkshow als Fernsehgenre

4 Talkshows im Internet
4.1 AOL Live! Centerstage .
4.1.1 Beschreibung der Website
4.1.2 Ablauf der Sendung
4.1.3 Technische Voraussetzungen
4.1.4 Einbettung der Sendung in das Unternehmen .
4.2 Tomorrow TV live .
4.2.1 Beschreibung der Website
4.2.2 Aufbau und Ablauf der Sendung
4.2.3 Technische Umsetzung
4.2.4 Einbettung der Sendung in das Unternehmen
4.2.5 Weiterverwendung der Show
4.3 Formaler Vergleich beider InternetTalkshows
4.4 Fernsehrezeption vs. Internetnutzung

5 Rückkanal I : Wie wirkt das Fernsehen auf das Internet?
5.1 Studio und Kamera
5.2 Moderation und Gesprächsführung
5.3 Vom Zuschauer zum User

6 Rückkanal II : Wie wirkt das Internet auf das Fernsehen?
6.1 Interaktivität und Individualisierbarkeit
6.2 Mit dem Internet verknüpfte Fernseh-Konzepte
6.3 Stilisierung / Parallelisierung / Fragmentierung
6.4 Zukunftsentwürfe: Telematik, Mediamatik, Konvergenz
6.5 Szenario 2010: Digital TV ermöglicht interaktives TV

7 Fazit
7.1 Von "one-to-one" zu "one-to-many" : von "one-to-many" zu "one-to-one"?
7.2 Hat Streaming Media in Internet-Talkshows eine Zukunft?

8 Erweitertes Abkürzungsverzeichnis / Glossar

9 Literaturverzeichnis

10 Anhang

1 Einleitung

Abbildung in dieser Leseprobe nicht enthalten

1.1 Struktur, Problemstellung und Vorgehensweise

David Letterman : Vor ein paar Monaten gab es einen Riesenrummel, dass das Internet ein Baseball-Spiel übertragen hat: Man könne am Computer ein Baseball-Spiel hören. Und ich dachte: Haben die schon mal was von Radio gehört?

Bill Gates : Es gibt einen Unterschied. [...] Sie können das Baseball-Spiel hören, wann immer Sie wollen.

David Letterman : Aha, ich verstehe. Es ist gespeichert in einem Ihrer Memory-Dinger?

Bill Gates : Genau.

David Letterman : Jaja. Haben Sie schon mal was vom Tonband gehört?

(zit. nach Baumann / Schwender 2000: 13)

Dieser Disput von 1995 zwischen dem US-Showmaster David Letterman und Microsoft-Chef Bill Gates, berührt ein Phänomen, das seit der Einführung von Streaming Media besteht: die Frage nach dem Sinn. Prinzipiell, diese Meinung vertritt hier David Letterman stellvertretend für Kritiker, kann Streaming Media – sei es in Form von Video oder Audio – nichts, wessen andere Medien wie Radio, Fernsehen und Aufnahmegerät nicht auch fähig wären: Signale in Echtzeit übertragen bzw. speichern und in visueller oder auditiver Form ausgeben.

Der Mensch des Computerzeitalters ist jedoch nicht nur metaphorisch, sondern ganz buchstäblich mit den komplexen digitalen Rechenprozessen vernetzt. Ralf Schnell spricht von einer "technisierten Kultur", welche sich mit der Entwicklung des Computers entwickelt hat. (Schnell 2000: 256) Aus diesem Grunde sollte man sich, so Gates' Meinung im oben angeführten Zitat, der Frage nach der Integration von Funktionen eines Mediums in ein neues nicht verschließen. Dabei kann man einen Gedanken getrost außen vor lassen: den der Selektion im Sinne eines Darwin'schen Ausschlussverfahrens.

Es stellte sich, angesichts dem Ende der "Gutenberg-Galaxis" (Vgl. McLuhan 1968) zunächst die Frage, ob das sich exponentiell vergrößernde Medium Internet andere Medien – seien es Buch, Radio oder Fernsehen – verdränge. Sie konnte verneint werden, und es gilt als kommunikationshistorisch gesichert, dass noch niemals ein neues Medium ein älteres verdrängt hat. (Lerg 1990:110)

Horst Stipp konstatiert, dass jedem neuen Medium grundsätzlich zwei Entwicklungsszenarien zugeschrieben werden. These eins: Niemand wird es erwerben; These zwei: Es wird die alten Medien verdrängen. (Stipp 1998: 76)

Es ist empirisch erwiesen, dass die Nutzung des Internet in den vergangenen Jahren lediglich eine geringe Abnahme der Fernsehnutzung verursachte. (van Eimeren / Gerhard / Frees 2002: 358) Zudem steht fest, "daß die überwiegende Mehrheit selbst der größten Computerfans und begeistertsten Internetsurfer immer noch Zeitung liest und weder den Fernseher noch das Radio aus der Wohnung geworfen hat": (Stipp 1998: a.a.O.)

Beide Thesen treffen also weder auf das Medium Computer mit seinen Anwendungsmöglichkeiten des Internet noch auf den Fernseher zu.

Wohl aber verändern neue Medien jeweils Formen und Funktionen älterer Medien. Insofern ist nicht von Verdrängung, sondern von Konvergenz die Rede.

Es soll deshalb im Laufe der vorliegenden Arbeit versucht werden, einen dritten Weg einzuschlagen und geprüft werden, ob und inwiefern, angesichts einer Koexistenz beider Medien im alltäglichen privaten Nutzungsgefüge, inhaltliche, ästhetische und strukturelle Aspekte ausgetauscht und / oder aufeinander bezogen werden können.

Die Frage soll nicht lauten, wie sich die Konkurrenz von Internet und Computer auf die Durchsetzung der Medien selbst auswirkt.

Die Frage lautet vielmehr: Wie wirkt sich Konvergenz auf die Inhalte, Rezeptions- und Darstellungsformen beider Medien aus? Hickethier weist 1994 darauf hin, dass das Fernsehen "einem breiten Publikum zum ersten Mal die Teilhabe an einem weltweit interessierenden Ereignis" ermöglichte. (Hickethier 1994: 258) Die Gleichzeitigkeit der Übertragung sowie das subjektive Gefühl des Zuschauers, er sei unmittelbar beim Geschehen dabei, machten das Fernsehen zu einem medialen Erlebnis. (Hickethier 1994: 258) Mit der Streaming-Technik hielt das bewegte, live gesendete Bild Einzug in das Internet.

Andererseits hat das Internet mit verschiedenen Diensten, wie z.B. E-Mail und World Wide Web, Einzug in die Braunsche Röhre des TV-Bildschirms gefunden.

Es steht fest, dass einzelne Anwendungen aus dem Medium Fernsehen integrierbar sind in das Medium Internet – so z.B. die Übertragung von bewegtem Bild in Echtzeit, das Streaming. Auf technischer Ebene scheint Konvergenz keine technisch unlösbaren Probleme aufzuwerfen – auch wenn sie, wie in Kapitel 2 ersichtlich werden wird, in vielerlei Hinsicht noch Entwicklungsbedarf hat. Aber kann eine Konvergenz auch bezüglich des Nutzerverhaltens durchgesetzt werden? Es scheint offensichtlich, dass die Integration unterschiedlicher Funktionalitäten in unterschiedliche Medien unterschiedliche Aktionspotentiale von ihren Nutzern verlangen. Man muss an dieser Stelle darüber nachdenken, ob eine Integration – unabhängig von Interessen der Unterhaltungs- und Elektronik-Industrie, sinnvoll ist.

Diese Überprüfung soll anhand dem TV-Genre der Talkshow stattfinden, dessen grundlegendes Konzept, unter technischer Abwandlung als Kombination aus Stream und Chat, in das Internet transportiert wurde.

Zu betrachten ist, welche Charakteristika der Talkshow im Fernsehen übernommen wurden für Internet-Talkshows, und ob rückbezüglich Internet-Charakteristika Auswirkungen auf die Fernseh-Gestaltung haben.

Ausgegangen wird zunächst von einer grundsätzlichen Unterschiedlichkeit beider Medientypen. Das Internet ist, in seiner Ausgangsform, ein bidirektionales "one-to-one"-Medium und am ehesten mit dem Telefon vergleichbar, während das Fernsehen seit jeher ein unidirektionales "one-to-many"-Medium ist.

Zudem ist das Internet ein von den Gründungsansätzen her freies Medium, wohingegen das Fernsehen seit Gründung institutionellen Strukturen und Richtlinien unterliegt. Hier wird auch die Frage nach dem Rückkanal relevant. Laut Georg Ruhrmann und Jörg-Uwe Nieland beeinflussen nicht nur die Publikumsakzeptanz, sondern auch politische und rechtliche Konstellationen die Entwicklung der Kommunikationstechnologie, auf welcher der Rückkanal basiert, entscheidendem Maße. (Ruhrmann / Nieland 1997: 50)

Streaming Media soll auf drei Ebenen untersucht werden. Erstens auf medientheoretischer Hinsicht, die nicht nur eine Definition und Einschätzung des Mediums Internet und des Mediums Fernsehen, sondern auch Rückkopplungen untereinander beinhaltet. Die Theorien von Werner Faulstich, Knuth Hickethier und Ralf Schnell sind Hauptbezugspunkte einer medialen Begriffsklärung.

Zweitens auf technischer Ebene, wo vor allem die Funktions- und Einsatzweise von Streaming thematisiert wird. An dieser Stelle stehen Datentransfer und Nutzung von Breitbandleitungen im Vordergrund, um die Chancen und Probleme, die sich beim Streaming ergeben, herauszuarbeiten. Die technische Thematik wird vor allem unter Berufung auf Veröffentlichungen von Tobias Künkel, Detlef Randerath und Christian Neumann sowie Andreas Holzinger behandelt.

Drittens erfolgt die Überprüfung der technischen Grundlagen in ihrer praktischen Dimension anhand der beiden ersten Anbieter von Internet-Talkshows im deutschsprachigen Internet. Dies sind das Medienunternehmen Tomorrow Focus AG mit der Sendung "Tomorrow TV live" ( www.tomorrow-tv.de ) und der Internet-Provider AOL Deutschland mit "AOL Live! Centerstage" ( www.aollive.de ). Die Ausführungen zum Sendeformat "Tomorrow TV live" basieren größtenteils auf persönlichen Erfahrungen, da ich von Februar 2001 bis Dezember 2002 selbst in Produktion und Ausstrahlung involviert war. Aus diesem Grund standen mir auch betriebsinterne Daten zur Verfügung, was bei AOL Deutschland nicht der Fall war.

Die Media Player, die in Kapitel 2.7 beschrieben werden, und die beiden bereits genannten Internet-Talkshows sind auf einer CD-ROM im Anhang in Form von Screenshots und / oder Video on-Demand sowie Chat-Protokollen dokumentiert. Die Dateien sind für Mac (bis Mac OS 9) und PC-Betriebssysteme verfügbar. Sofern nicht vorhanden, installieren Sie bitte zur Ansicht der Video-Streams den QuickTime Player 6.3. Er befindet sich im Ordner "Downloads" auf der CD-ROM.

2 Technische Bedingungen von Streaming im WWW

Abbildung in dieser Leseprobe nicht enthalten

2.1 Die Entstehung des Internet und seiner Dienste

Die Vernetzung des Computers, einer vormals "programmgesteuerten, elektronischen Rechenanlage" (Dastyari 1998: 151) führte zu zahlreichen Veränderungen seiner Nutzungspotenziale. Aus der "universellen programmierbaren Maschine" (Coy 1994: 19), deren einschneidende Neuheit in ihrer programmierbaren Zweckbestimmung liegt, wurde ein Medium, das neben dem Speichern und Übertragen von Daten auch kommunikative Funktionen erfüllt.

Nach Schnell ist das Internet

"... eine Verknüpfung von Rechnern in globalem Maßstab, eine Agglomeration von Computern, die sich zu einer gigantischen Datenbank mit vielfältigen Nutzungsmöglichkeiten erweitert hat. [...] Die Einbindung des PC ins Internet multipliziert seine Ressourcen und Potenzen, erweitert die Qualitäten einer perfekten Gedächtnis- und Schreibmaschine in eine völlig neue Dimension von Speicherung, Kommunikation und Informationstransfer, schnell, offen und vielfältig".[1]

(Schnell 2000: 257)

Somit erhöht das Internet das kommunikative und administrative Nutzungspotenzial des Computers durch die Bereitstellung diverser Dienste, etwa die grafische Benutzeroberfläche des World Wide Web (WWW), die elektronische Post (E-Mail), Datei-Übertragung (ftp), Newsgroups und Internet Relay Chat (IRC, kurz Chat genannt).[2] Das WWW dient als Medium für Internet-Talkshows. Seine Entstehung und dessen Bedeutung für das Internet werden aus diesem Grunde im Folgenden erläutert.

Als weltweiter Verbund einzelner heterogener Netzwerke wird das Internet gemeinhin auch als das "Netz der Netze" bezeichnet.[3] (Berners-Lee 1994: 37)

Die ersten Rechnernetze wurden 1969 für das US-Verteidigungsministerium DoD (Department of Defense) aufgebaut, um große Rechenleistungen gemeinsam zu nutzen. Das ARPANet (Advanced Research Projects Agency - Net), verband vier Computer miteinander. Mit der Kommunikation zwischen jeweils einem Sender und einem Empfänger arbeitete das DoD erstmals mit der technischen Grundlage für alle künftigen Datennetzwerke, auf welcher auch das Internet beruht.

1972 wurde ARPANet öffentlich präsentiert und zahlreiche amerikanische Universitäten sowie Forschungseinrichtungen schlossen sich an. Das Übertragungsprotokoll TCP/IP (Transmission Control Protocol / Internet Protocol), in dieser zweiten Generation von Netzwerken entwickelt, standardisiert seither den technischen Austausch von Daten zwischen einzelnen Rechnern. (Holzinger 2000: 208) Damit ist das Internet nicht nur ein Speicher-, sondern auch ein Übertragungsmedium.

Das kommunikative Potenzial des Computers erfährt eine Ausweitung durch die ersten Mailinglisten auf dem ARPANet 1976 bzw. USENET 1979 und den daraus resultierenden Diensten der elektronischen Post (E-Mail). Das ARPANet wurde 1985 in seiner Trägerfunktion durch das von der amerikanischen National Science Foundation finanzierte leistungsfähigere NSFNet abgelöst und 1989 geschlossen - das Militär zog sich in sein eigenes Netz zurück. (Vgl. Winter 1998: 281 ff.) Anfang der Neunziger Jahre entwickelte schließlich Tim Berners-Lee am Europäischen Labor für Teilchenphysik CERN (Conseil Européen pour la Recherche Nucléaire) in Genf das World Wide Web. (Vgl. Berners-Lee 1999)

2.1.1 Die Verknüpfung von World Wide Web und Multimedia

Das WWW ermöglichte erstmals die Nutzung der Internet-Ressourcen über eine einheitliche Benutzeroberfläche. Es gehört heute zu den am häufigsten genutzten Diensten des Internet und ist durch ständige technische, inhaltliche und nutzungs-spezifische Veränderungen geprägt.[4]

Für die Entwicklung des WWW verknüpfte Tim Berners-Lee zwei bereits vorhandene Schlüsseltechniken: Computernetzwerke und Hypertext. Bereits 1945 präsentierte Vannevar Bush die Vision einer fotoelektronischen Maschine namens Memex. Sie konnte mittels binärer Kodierung von Fotozellen und Sofortbildern Verknüpfungen zwischen Mikrofilmdokumenten herstellen und diese verfolgen und sollte somit als Erweiterung des menschlichen Geistes fungieren:

"Presumly man's spirit should be elevated if he can better review his shady past and analyze more completely and objectively his present problems. He has built a civilization so complex that he needs to mechanize his record more fully if he is to push his experiment to its logical conclusion."

(Bush 1987: 101 ff.)

Auch Computervisionär Ted Nelson entwarf 1965 das gedankliche Konstrukt "Literarische Maschinen": Diese würden, so seine Vision, alle jemals geschriebenen literarischen Texte beinhalten und durch ihre Verknüpfung eine nicht-lineare Form des Lesens ermöglichen. Die verwendete Textart bezeichnet Nelson erstmals als "Hypertext", die Integration von Hypertext in andere Medien "Hypermedia". (Nelson 1974: 45) Er stellt sich als Speichermedium für Hypertext ein Projekt namens Xanadu vor, eine Informationsdatenbank von unbegrenzter Größe. Sie soll als universeller Wissenspool fungieren und den strukturierten, gleichberechtigten Zugriff aller Nutzer auf alle Informationen ermöglichen:

"Das auch heute noch utopisch anmutende Endziel ist dabei die Verwaltung des gesamten Weltwissens über ein riesiges, computerunterstütztes Begriffsnetz, das den Zugriff auf die entsprechenden informationellen Einheiten gestattet."

(Kuhlen 1991: 217)[5]

Der Realisierung der Vision einer globalen verknüpften Wissensdatenbank ist man mit dem Internet und dem Computer als sein erstes Peripheriegerät näher gekommen, und sie wird ständig erweitert.[6]

Das WWW ist gekennzeichnet durch Interaktivität (unter Zuhilfenahme verschiedener Dienste des Internet), Hypertextualität und Transversalität. Diese drei Schlagworte werden im Folgenden besonders auf Ihre Relevanz für den Einsatz von Talk-Shows im Internet dargestellt.

Ralf Schnell sieht, unter Berufung auf Friedrich Kittler, in der Entwicklung grafischer User-Interfaces, insbesondere der Entwicklung von Icons als Symbole für den binär gebildeten Code des Computers, eine treibende Kraft für die Popularisierung des Mediums Internet: "Mit den Icons ist eine graphische Benutzeroberfläche entstanden, die auch Computeranalphabeten den Zugang in die digitale Welt eröffnet hat". (Schnell 2000: 245)[7]

Das WWW bietet erstmals Raum für eine Benutzeroberfläche, die mittels HTML (Hypertext Markup Language) nicht nur Icons, sondern auch Textedition, das Setzen von Hyperlinks innerhalb eines Dokuments und auf externe Dokumente sowie das Einbinden von unterschiedlichen Medien ermöglicht. Durch die voranschreitende technische und grafische Entwicklung setzten sich nach und nach Standards für Internetseiten durch. Dazu gehören zum Beispiel seit Freigabe des Browsers Netscape 2.0 der Einsatz von Frames, von Cascading Style Sheets (seit Netscape 4.0) oder das Programmieren gesamter Internet-Seite mit Hilfe der Programmiersprachen Java und Flash. Diese dienen im Idealfall nicht nur dem Layout einer Website, sondern vor allem der Funktionalität im Sinne der Benutzerfreundlichkeit für den User. (Siegel 1999: 8, Nielsen 2000: 11)

Anstelle des Begriffes Hypermedia, der im wissenschaftlichen Kontext anzuordnen ist, setzte sich im alltäglichen Sprachgebrauch der Begriff Multimedia durch.[8]

Auf technischer Ebene kann Multimedia verstanden werden als die Kombination diskreter (zeitunabhängiger) Medien, z. B. Text oder Bild, und digitaler kontinuierlicher (zeitabhängiger) Medien, z. B. Video oder Ton. (Lehner 2001: 58) Wolfgang Coy geht in seiner Definition des Multimedia-Begriffes insofern noch einen Schritt weiter, als er die universelle Kombinierbarkeit differierender Medientypen postuliert:

"Alle schriftlichen, optischen und elektrischen Medien können mit Mikroelektronik und Computertechnik letztlich zu einem allgemeinen digitalen Medium verschmelzen. [...] Damit wird jedes digitale Medium um die Eigenschaften der anderen digitalen Medien erweiterbar - der Vielfalt des Medienmixes sind keine technischen Grenzen mehr gesetzt."

(Coy zit. nach Bolz 1995: 53)

Den Computer wird unter diesen Voraussetzungen zu einer "medienintegrierenden Maschine", die seiner Ansicht nach in den neuen programmierenden Hypermedien verschwinden wird. (Coy zit. nach Bolz 1995: 53) Nicholas Negroponte, Gründungsrektor des Media Lab am Massachusetts Institute of Technology, grenzt in diesem Zusammenhang die atomare Welt ab von der digitalen. Unter Berufung auf die Digitalisierung von Daten und deren Verknüpfung bezeichnet er Multimedia als "gemischte Bits".[9] (Negroponte 1995: 27) Audio, Video und Daten könnten so immer wieder aufs Neue, auch unabhängig von Raum und Zeit, zusammengestellt werden. Dies ist eine entscheidende Voraussetzung für die Durchführung interaktiver Talkshows im WWW: Die gleichzeitige Verbreitung von Ton, Bewegtbild und Schrift in Echtzeit.

Auf kommunikativer Ebene erfährt das WWW durch den Einsatz und die interaktive Nutzung von Multimedia eine entscheidende Erweiterung. Die Option des Users zu einem aktiven Gebrauch des WWW in Form von Dialog und Response wird in vielfacher Hinsicht erforscht. (Vgl. Faulstich 1998: 279).

Sinnvoll erscheint eine Unterscheidung der Interaktivität nach Maßgabe der Beteiligten in zwei Begriffe: "Mensch-Computer-Kommunikation" und "computergestützter Mensch-Mensch-Kommunikation". Die Interaktivität zwischen Nutzer und Medium ist folgendermaßen vorstellbar: Während der User auf der Benutzeroberfläche navigiert, gibt er seine Daten im Interface ein und das WWW reagiert entsprechend, etwa mit dem Aufrufen einer neuen Website. Auf diese Reaktion reagiert der Nutzer wiederum, woraufhin das WWW erneut reagiert und so fort. (Loosen / Weischenberg 1999; Online-Zugriff: 25.07.2003) Man muss festhalten, dass Interaktivität hier nur nach Maßgabe der Auswahlmöglichkeiten, die das WWW zur Verfügung stellt, realisiert werden kann.

Außerdem konzipiert das WWW einen Rahmen für Interaktivität zwischen verschiedenen Usern. Obwohl die physische Unmittelbarkeit zwischen Kommunikator und Rezipient im WWW nicht mehr gegeben ist, entsteht durch den Einsatz von Multimedia ein technisches und soziales System, in dem Kommunikation abläuft. (Riehm / Wingert 1995: 67) Beim Chat, wie er bei Internet-Talkshows durchgeführt wird, findet computergestützte Kommunikation von Mensch zu Mensch statt: Stellt der User seine Fragen an den Talkgast, findet diese durch den versprachlicht. Andererseits ist es auch möglich, dass die getippte Frage Anlass zur Kommunikation innerhalb des Chats gibt. Wie in Kapitel 2.1.2 erläutert, bestimmen die Medien Internet und Computer dabei die Kommunikation erheblich.

Medienphilosophisch und soziologisch betrachtet erhält der Begriff Interaktivität durch die Tatsache Relevanz, dass Interaktion von Mensch zu Mensch unabhängig von einer realen Anwesenheit des Nutzers in einem reziproken Kommunikationsverhältnis möglich ist.

Der flexible Übergang von einer Sender- in die Empfängerposition, wie sie dem Nutzer von Kommunikationsmedien schon durch das Telefon bekannt ist, vollzieht sich im Internet multidirektional und vor allem unabhängig von der physischen Präsenz seiner Nutzer. Man kann sagen, dass die Nicht-Anwesenheit des Nutzers ersetzt wird durch eine digitale Präsenz. Die plurale Verfassung von User-Identitäten wird so offensichtlich: "Meine Webpage ist eine Doublette meiner selbst, in machen Fällen sogar eine kreative Erfindung eines neuen Selbst, einer neuen Identität." (Sandbothe in Münker / Roesler 1997: 67)

Als WWW-Clients, den interaktiven Potenzialen des Internet eine grafische Oberfläche verleihen, setzen sich nach der Entwicklung des ersten Browser "Mosaic" 1993 anfangs der "Netscape Navigator"[10], später der "Microsoft Internet Explorer" durch. Diese benutzerfreundlichen Browseroberflächen sind ein entscheidender Grund für den weltweiten "bit bang", der das WWW zu einem Massenphänomen mit nahezu "biologischem Wachstum" gemacht hat. (Sandbothe in Münker /Roesler 1997: 60.) Im Juli 2003 nutzte mit 85,3 Prozent aller User die Mehrheit "Internet Explorer". Weitere verwendete Browser sind bzw. waren Netscape (10,6 Prozent), Mozilla (2,1 Prozent) und Opera (1 Prozent). (Web-Hits: Web-Barometer; Link im Literaturverzeichnis)

Nach der Einstellung des "Netscape Navigator" im Juli 2003 (Vgl. Fußnote 10) sind die meisten Websites optimiert für die Darstellung im "Internet Explorer", meist bei einer Bildschirmauflösung von 1.024 x 768 Pixeln. Damit ist der Trend zu einer größer werdenden Standardisierung der Zugangsbedingungen zum WWW zu erkennen, die auch für den vermehrten Einsatz von Streaming bedeutend ist.[11]

Das Internet realisiert heute die Möglichkeiten eines großflächigen – nicht globalen - Wissensaustausches und Datentransfers. Zwei verschiedene Tendenzen machen sich diesbezüglich bemerkbar: Zum einen scheint die Netzgemeinde durch die Überwindung räumlicher und zeitlicher Entfernungen zusammen zu wachsen, kulturelle Unterschiede scheinen sich anzugleichen. Zum anderen bilden sich im Internet soziale Gruppen in Form von Communities, die gemeinsame politische, ethische oder private Interessen haben. Wie bereits erwähnt, bündeln sich diese Communities meist über Websites kommerzieller oder nicht-kommerzieller Art.[12] Dass besonders dem Live-Talk von AOL die Bindung seiner User innerhalb seiner Community zuträglich ist, wird in Kapitel 4.1.4 tiefergehend erläutert.

2.1.2 Kommunikation und Interaktivität im Chat

Das Gewebe des Internet lässt sich als "geschriebene Rede" bezeichnen, da dieses aus dem freien Austausch von Informationen und der Diskussion von Ansichten entstand. Mailinglisten, Newsgroups und später E-Mail sowie Chats spielen zum Austausch von Information eine entscheidende Rolle: das Internet schuf durch sein grafisches Interface die Bedingungen der Möglichkeit zur Kommunikation unter veränderten medialen Bedingungen. (Mandel / Van der Leun 1995: 246).

Unter Chat ("plaudern") wird die "zwar organisierte, jedoch inhaltlich nicht fixierte oder lediglich durch thematische Vorgaben eingegrenzte Live-Kommunikation unter Computernutzern" verstanden. (Plake 1999: 163) Die Popularität der Online-Kommunikation beruht nach Sassen auf der Tatsache, dass man "rund um Uhr und Globus miteinander Kontakt aufnehmen" kann. Somit ist der Chat nicht nur auf freundschaftlicher, informeller Ebene von Belang, sondern erhält ebenfalls seine Berechtigung als Medium für schnelle Nachrichtenübermittlung. (Sassen 2000: 92).

Kennzeichnend für den Chat ist die Unabhängigkeit von Raum und Zeit durch das Bereitstellen eines digitalen Ortes, der bewirkt, dass soziale Beschränkungen natürlicher menschlicher Kommunikationsfähigkeiten erweitert werden.

Die räumliche Gebundenheit zwischen den Kommunizierenden wird aufgelöst, indem der Chat einen virtuellen sozialen Raum bietet, welcher unabhängig von der Entfernung der Kommunizierenden von jedem Punkt der Erde mit Internetzugang nutzbar ist. (Stegbauer 2000: 20)

Dadurch, dass die Kommunikation vom Körper der Kommunizierenden entkoppelt ist; werden Mimik und Gestik als gesprächsdeterminierende Symbole so gut wie obsolet, können höchstens durch so genannte "Emoticons" angedeutet werden. In diesem Zusammenhang stellt sich die Frage nach Authentizität und Identität der Kommunizierenden. Bezüglich der Internet-Talkshows stellte dies eine nicht zu unterschätzende Zugangsbarriere der Sendung dar. Der User hatte keine Möglichkeit zu sehen, dass er tatsächlich mit einem Prominenten chattet. So musste ihm letztlich die Marke des Unternehmens (in diesem Falle AOL) als Indikator für die Vertrauenswürdigkeit genügen.

Der Chat ist generell zeitunabhängig nutzbar, allerdings gilt dies nicht uneingeschränkt. Im Gegensatz zu Mailingslisten und Newsgroups läuft der Chat synchron ab. So müssen sich die Kommunizierenden zu einem vereinbarten Zeitpunkt im Chatroom treffen, wenn der Chat z. B. mit einer Live-Übertragung verknüpft ist. Für Chatter, welche die Präsenz anderer Kommunikationspartner dem Zufall überlassen wollen, entfällt diese Zeitgebundenheit.

Hinsichtlich dieser Unmittelbarkeit ist der Chat mit der Kommunikation per Telefon vergleichbar. (Stegbauer 2000: 20) Bei räumlicher Distanz ist der User im sozialen Kommunikationsraum Chat telepräsent und kann trotzdem anonym bleiben. Dies gibt ihm die Gelegenheit, mittels selbst gewählter Pseudonyme (Nicknames) eine eigene Identität aufzubauen, die er nur beim Chatten nutzt. Anders als in anderen Kommunikationssystemen wählt der Chatter seinen Nickname selbst. Er kann dadurch eine unverwechselbare Netzidentität aufbauen und Interesse bzw. Desinteresse erzeugen: "Jemand, der den Namen »Cybergirl« wählt, möchte - unabhängig davon, ob er tatsächlich ein girl ist - als solches wahrgenommen werden." (Wirth in Münker / Roesler 1997: 218) Der Nickname, der für das Chatten notwendig ist, erfüllt somit nicht nur die Funktion einer Zugangsbedingung für den Chat, sondern fungiert als Name mit Identitätsbezug. Er dient der Selbstdarstellung und verleiht dem Chatter eine Identität, auf die sich andere Teilnehmer beziehen können. Wie sich in den Live-Talks gezeigt hat, drückt der Nickname auch oft einen Bezug zum Gast der Sendung aus. Nicknames wie "der_Foen" oder "MrBojangles" sind Beispiele hierfür.[13]

Zudem wird die Beschränkung der Menge der Kommunikationsteilnehmer nicht in dem Maße beschränkt, wie dies in einem realen Raum der Fall wäre: Im Gegensatz zur face-to-face-Kommunikation können im Chat mehrere Menschen gleichzeitig zueinander in derselben Lautstärke[14] sprechen. (Stegbauer 2000: 21)

Da im Regelfall der Chat von Menschen genutzt wird, die sich nicht kennen, kann in ihm ein sozialer kommunikativer digitaler Raum gesehen werden, in dem sich kommunikative Gruppen auf Grund von thematischen Interessen bilden. Eine Vielzahl der Chats sind deshalb von vornherein auf ein Thema begrenzt.[15] Dabei bestimmen Sprach-bzw. Schreibniveau und "Netiquette" die Qualität der Kommunikation und sind letztlich ein entscheidender Faktor zur Bindung des Users an den Chat. (Vgl. Kap. 5.3)

Ob der Chat tatsächlich einen sozialen Kommunikationsraum darstellt, ist strittig. So spricht Klaus Plake Chattern soziale Bindungen untereinander ab: "Die User haben kein soziales Verhältnis zueinander, nicht einmal der oberflächlichen Art, wie es für die Bevölkerung eines definierbaren Territoriums zutrifft." (Plake 1999: 165.) Aus diesem Grunde bliebe das Internet als Diskussionsforum folgenlos. Kommunikationspotenzial sieht der Autor lediglich für User, die "auch sonst miteinander zu tun haben", beispielsweise Mitarbeiter einer weltweit operierenden Firma, die Intra- und Internet als zusätzliche Medien neben Telefon und face-to-face-Kommunikation nutzen. Träfen sich allerdings Fremde im Internet lediglich um der Kommunikation willen, bewirke dies nichts: "Das Internet läßt keine sozialen Bewegungen entstehen, es schafft keine Trends und Strömungen, die sich in kollektiven Handlungen artikulieren. Vielmehr verliert sich die Kommunikation im Dunkel des Cyberspace." (Plake 1999: 165.)

Dass sich in den vergangenen Jahren verstärkt Menschen in Selbstmordforen kennen lernen und ihren virtuellen Diskussionen reale Taten folgen lassen, ist sicherlich eines der drastischsten Beispiele, die gegen Plakes These sprechen.[16] Im Folgenden der vorliegenden Arbeit wird deshalb davon ausgegangen, dass durch Chats soziale Bindungen entstehen, die durchaus Relevanz für das reale Leben haben können.

2.2 Entwicklungspotenziale des Internet

Das Internet fungiert heute als "globaler Marktplatz und Gerüchteküche, Börsenzentrum und Spielwiese, Bibliothekszugang und Schmuddelecke, Wissenschaftsforum und Filmarchiv, Video- und Musikbasar und ein Experimentierfeld für Kreativitätspotentiale aller Art." (Schnell 2000: 258)

Aus seiner zunächst militärisch und wissenschaftlich geprägten Phase heraus befindet sich das gesamte Internet nun in seiner dritten, kommerziellen Phase. Die kommerzielle Nutzung hatte Umwälzungen zur Folge, die sich vor allem in den folgenden Bereichen manifestierten: Im Kommunikationsverhalten, beispielsweise durch die Nutzung von E-Mail und Chat, im wissenschaftlichen Arbeiten von der Recherche bis hin zur Publikation, in der Entwicklung und Wartung technischer Systeme, im Freizeitverhalten und nicht zuletzt im Zahlungsverkehr und Wertpapierhandel, sowohl privat als auch professionell.

Nicholas Negroponte geht 1996 von einer positiven Entwicklung des Internet aus:

"Ich glaube, das Internet verkraftet seine Ausdehnung sehr gut. Aufgrund seiner Konzeption glaube ich nicht, dass es in die Knie gehen wird und abstürzt. Ich empfinde es als sehr organisch in der Art seiner Fähigkeit, zu leben und sich zu reproduzieren."[17]

(Negroponte 1996: 31)

Diese Ansicht ist vertretbar, wenn man bedenkt, dass das Internet seit seiner Entstehung 1961 nahezu exponentiell wuchs. Die Anwenderzahl des Internet stieg, so Negroponte weiter, Mitte der Neunziger Jahre um etwa 10 Prozent pro Monat, und "wenn diese Wachstumsrate konstant bliebe (was so gut wie unmöglich ist), würde im Jahre 2003 die Zahl der Internet-Benutzer die Zahl der Weltbevölkerung übertreffen." (Negroponte 1995: 12)

Allerdings gilt es zu bedenken, dass gemeinhin nur kleine Systeme in der Lage sind, exponentiell zu wachsen – bis sie einen gewissen Sättigungsgrad erreicht haben. Im Gegensatz zu Negropontes Prognose ist in den vergangenen Jahren zu bemerken, dass sich das Wachstum der Anzahl von Internetnutzern, und damit auch das wirtschaftliche Wachstum des Internet, deutlich verlangsamen. Noch vor wenigen Jahren waren die Erwartungen hinsichtlich des wirtschaftlichen Wachstums nahezu unbegrenzt hoch, während die Zunahme an privaten Internet-Anschlüssen eher gemäßigt eingeschätzt wurde. Das Gegenteil ist eingetreten:

"Die Interneteuphorie der 90er Jahre schlug in Tristesse um, "dot.coms" wurden zu "dead.coms". [...] Konsumenten zeigen sich weiterhin äußerst zurückhaltend beim Online-Shopping. Bei Werbetreibenden hat sich die Erkenntnis durchgesetzt, dass Werbeformen wie Bannerwerbung nicht zur Refinanzierung teurer Internetauftritte tauglich sind."

(van Eimeren / Gerhard / Frees 2002: 346)

Eine Folge dieser Entwicklung ist, dass immer mehr Online-Anbieter dazu übergehen, vormals kostenfreie Inhalte kostenpflichtig anzubieten. (Vgl. Kap. 7.2) Damit treten sie in erneute Konkurrenz zu anderen Medien und müssen gegen die niedrige Zahlungs-Bereitschaft ihrer potenziellen Kunden antreten.

Trotz der Verlangsamung des Wachstums hat das Internet den Einzug in das mediale alltägliche Leben vollzogen. Im Februar 2003 hatten weltweit 580 Millionen Nutzer Zugang zum Internet. Den größten Anteil daran haben die USA mit 168 Millionen Internet-Teilnehmern, es folgen Europa (135 Millionen Nutzer), Asien und Pazifik (76 Millionen Nutzer) und mit deutlichem Abstand Lateinamerika (14 Millionen Nutzer).[18] (Heise Online, Link im Literaturverzeichnis) So zeigt sich, dass sich die Ausbreitung des viel beschworenen "global village" Internet nicht gleichmäßig weltweit, sondern vor allem in den Industrieländern vollzieht.

Im Juni 2003 hatten mit 33,3 Millionen Deutschen ab 14 Jahren 52,7 Prozent der Bundesbürger einen Internetzugang. Die Tagesreichweite des Internet beträgt 29 Prozent; damit ist jeden Tag fast ein Drittel der deutschen Bevölkerung online. Die Tendenz ist nach Aussagen der Studie @facts steigend: Über fünf Millionen Menschen, die das Internet bisher nicht nutzen, planen in den kommenden sechs Monaten online zu gehen. (Website @facts: Studie 06/2003; Link im Literaturverzeichnis)[19]

Das Internet bestimmt nicht nur berufliche Arbeitswelt, sondern auch den privaten Medienalltag in Deutschland. Die Zuwachsraten des Internet gingen laut Media Perspektiven in den vergangenen Jahren fast ausschließlich auf den privaten Nachfragesektor zurück. Besonders Jugendliche und junge Erwachsene nutzen das Netz hauptsächlich zum Verschicken von E-Mails. Platz zwei der typischen Onlineanwendungen belegt bemerkenswerter Weise das ziellose Surfen im Internet, gefolgt von der zielgerichteten Suche nach Informationen, dem Download von Dateien und der Teilnahme an Gesprächsforen, Newsgroups oder Chats. (Ridder 2002: 126) Ein überdurchschnittlich hoher Anteil der jüngeren Internet-Nutzer zwischen 14 und 19 Jahren hat außerdem einen ausgeprägten Wunsch nach Unterhaltungsangeboten. Diese Tatsache stellt einen Anknüpfungspunkt für die Durchführung von Internet-Talkshows dar, weil in dieser Altersklasse die Zielgruppe für die Shows angesetzt ist.

Die Frage nach dem Grund für die überdimensionale Ausbreitung des Internet zumindest in den Industrieländern liegt demnach in dessen kommunikativen und informativen Potenzial und kann folgendermaßen beantwortet werden:

"Sein Siegeszug beruht darauf, dass es den Austausch von Informationen innerhalb eines faktisch unbegrenzten Datenraums erlaubt, in dem Platz für beliebig viele Informationen ist und der sich kaum reglementieren lässt."

(Schnell 2000: 264/265)

Bei näherer Betrachtung fällt neben dem positiv einzuschätzendem Daten- und Wissenstransfer auch der Aspekt der fehlenden Kontrolle ins Auge. Er liegt begründet in der dezentralen Struktur des Internet. Es gibt keinen zentralen Netzbetreiber, sondern lediglich internationale Vereinigungen wie z. B. die Internet Society (ISOC) oder die Internet Corporation for Assigned Names and Numbers (ICANN), welche Probleme wie Datensicherheit thematisieren, vergebene IP-Adressen offen legen und ethische freiwillige Richtlinien festlegen. Mit der steigenden Zahl der Internet-Nutzer stellt sich somit auch die Frage von staatlicher Regulierung und Datensicherheit. Mit steigenden Datenübertragungsraten sind auch rechtliche Probleme beim Download von Filmen und Musik relevant.[20] Dieser Aspekt wird in Abschnitt 2.8 erneut relevant.

2.3 Verarbeitung von Bewegtbild an Computer- und TV-Bildschirmen

Die technischen Bedingungen von digitalem Video und Streaming, Standards und ihre Probleme werden im Folgenden als Grundlage für Rezeption und Nutzung von interaktiven Talk-Shows im WWW aufgezeigt. Dabei sind nicht nur die Digitalisierung von Video im Gegensatz zum analogen Bewegtbild, sondern auch ihre Distribution über das Internet in einem konstanten Datenstrom relevant.

Auf den ersten Blick haben die Videoausgabe am Computerbildschirm und die am TV-Bildschirm vieles gemein. Nicht nur die Größe ist ähnlich, auch die elektronische Bildproduktion beruht auf denselben Grundlagen. In beiden Endgeräten wird mit Rastern und Zeilenauflösung gearbeitet. Bei beiden Medien wird das technische Bild reproduziert auf einer Bildröhre, die durch eine Phosphorbeschichtung auf der Innenseite per Elektronenstrahl zeilenweise aufleuchtet. (Schönfelder 1996: 4) Allerdings unterscheiden sich der Computermonitor und ein Farbfernseher in ihrer technischen Verwertung der Bildinformation erheblich voneinander.

Computerbildschirme wurden ursprünglich zur Wiedergabe stehender, detailreicher Bilder (Texte, Grafiken, Tabellen) konzipiert. Aus diesem Grund werden hier immer Vollbilder dargestellt. Die übliche Bildwiederholungsfrequenz liegt über 75 Hz, so dass Flimmereffekte nicht auftreten. Dieses Verfahren heißt non-interlace oder progressiv. Durch diese Abtastung lassen sich auch kleine Schriften und waagerechte Linien darstellen, was am Fernseh-Bildschirm nicht möglich ist. Eine hohe Auflösung sorgt zudem für ein scharfes Bild und meist naturgetreue Farben im RGB-Modus. Bei diesem Rot-Grün-Blau-Modell werden die einzelnen Lichtkomponenten addiert, wodurch allerdings nicht alle sichtbaren Farben dargestellt werden können. Die übliche Auflösung eines Computerbildschirmes beträgt mindestens 800 x 600 Pixel, meistens jedoch 1.024 x 768 Pixel, also insgesamt 786.432 Bildpunkte.

Für eine traditionelle Fernsehübertragung wird ein Bild in ein Raster zerlegt, dessen Feinheit vom Auflösungsvermögen des menschlichen Auges bestimmt wird. Seit 1952 gilt hierfür in Mitteleuropa die 625-Zeilen-CCIR-Norm, nach der 625 Zeilen vertikal, 833 Bildpunkte horizontal und 50 Frames per second (fps) dargestellt werden. (Holzinger 2000: 184) Die Auflösung des TV-Bildes ist damit geringer als die eines Computerbildschirmes.

Für die kommenden Jahre ist zu bemerken, dass verstärkt Fernseh-Bildschirme ohne Kathodenstrahlröhre, dafür mit der in der Computertechnik bereits verwendeten LCD-Technologie (Liquid Crystal Display; Flüssigkristallbildschirm) gebaut werden. LCD-Farbprojektoren für den Heimgebrauch gibt es seit der Internationalen Funkausstellung 1995, es folgten die ersten Fernseher im 16:9-Format mit einer ebenen Bildröhre (HDTV-Systeme; High Definition Television) un deiner Abtastung mit 1.250 Bildzeilen. Hierbei wurde z.B. durch die Verdopplung der Abtastzeilen die Bildqualität deutlich verbessert. Die Darstellung der Bilder auf diesen Geräten entspricht dem Verhältnis von Höhe zur Breite, wie sie auf der Kinoleinwand benutzt wird. Da dies dem Erfassungswinkel des menschlichen Auges mehr entspricht, wirken die Bilder plastischer. (Breunig 1997: 24 / Lehner 2001: 73)

Die neue Bildröhrentechnik wirft allerdings grundsätzliche technische Probleme auf: Der Elektronenstrahl, der die Bilder Zeile für Zeile auf die Mattscheibe zeichnet, trifft an den Rändern der Bildfläche in einem anderen Winkel an der Bildröhrenfront auf als in der Mitte. Theoretisch führt das dazu, dass die einzelnen Bildpunkte am Rand nicht mehr scharf und rund, sondern eher flau und oval abgebildet werden. International existieren unterschiedliche HDTV-Systeme in Europa (HD-MAC), in den USA (NTSC) und Japan (MUSE). An dieser Stelle bleiben weitere technische Entwicklungen und / oder Angleichungen der Standards abzuwarten. (Schönfelder 1996: 188)

Neben den Unterschieden in Bezug auf Auflösung, Frequenz und Farbmodus sowie Voll- und Halbbildtechnik sind als weitere Unterschiede Kontrast, Konvergenz und geometrische Bildentzerrung zu nennen. Sie sind bei den Computermonitoren im Vergleich zu Fernsehgeräten wesentlich optimiert und führen letztlich zu einer besseren Bildqualität.

Diese technischen Merkmale beeinflussen die habituellen Nutzungspotenziale beider Medien erheblich. Der Computermonitor unterscheidet sich in seiner Benutzbarkeit von der eines TV-Bildschirms. Während der Nutzer eines Computers meist nicht weiter als einen Meter vom Monitor entfernt ist ("lean forward"), ist der Abstand zwischen dem Fernsehschauer und dem Gerät meistens um ein Vielfaches größer ("lean back"). (Zimmer 2000: 110) Dies hängt nicht nur mit der besseren Bildschirmqualität der Monitore zusammen, sondern vor allem mit der Nutzungsintention des Anwenders: Während der PC meist in einem klassischen Arbeitsumfeld (Schreibtisch, Stuhl) steht, befindet sich der Fernseher gemeinhin in einer freizeitlich geprägten Umgebung. Die unterschiedlichen Rezeptionsmuster von Computer- und Fernsehen werden in Kapitel 4.4 wieder aufgegriffen. Es soll dann vor allem verglichen werden, inwiefern eine Übernahme der Handlungsmuster vom Fernsehen auf die Internet-Nutzung stattgefunden hat und ob bzw. inwiefern eine Integration der Online-Nutzung für das Fernsehen festgestellt werden kann.

Hürden, die der Computer – und damit auch Streaming Media - in der Nutzerfreundlichkeit überwinden muss, sind demnach die, verglichen mit dem Fernseh-Konsum, unbequeme Sitzhaltung, die mangelnde Bildschirmgröße und die daraus resultierende mangelnde Gruppendynamik. Des weiteren haben die verschiedenen technischen Standards die Folge, dass nicht jeder User dasselbe qualitative Ergebnis bekommt. (Vgl. Kapitel 2.4)

Es ist zu vermuten, dass die Hürden nicht nur technischer, sondern auch inhaltlicher Art sind. Damit sich Streaming Media für Internet-Talkshows für die alltägliche Nutzung durchsetzt, muss es Angebote geben, die das Interesse der User fesseln. Insofern sind die Live-Talks der Tomorrow Focus AG und AOL besonders hinsichtlich ihrer Programmgestaltung und User-Ansprache zu untersuchen. Einen zentralen Punkt soll deshalb in Kapitel 4 die Frage darstellen, mit welchen Mitteln die Anbieter jeweils User-Interesse erzeugen und inwiefern sie dann in der Lage sind, dieses auch während der Sendung zu halten.

2.4 Digitale Aufbereitung von Video

Unter Video wird gemeinhin eine Folge von bewegten Bildern natürlichen oder künstlichen Ursprungs verstanden. Das Verfahren beruht ursprünglich auf der analogen Technik der Fotografie mit einer optisch-chemischen Aufzeichnungstechnik. Der Begriff "analog" ist technisch abzugrenzen vom für das Streaming ausschlaggebenden Begriff "digital": Digitalisierung beruht hier auf der Abtastung von Bildpunkten und deren Rasterung in einem System abstrakter Zahlensymbole.

Wie bereits erwähnt, werden diese Bildinformationen in kleinste Informationseinheiten, Bits, zerlegt:

"Ein Bit beschreibt einen Zustand: an oder aus, richtig oder falsch, unten oder oben, innen oder außen, schwarz oder weiß. Aus praktischen Gründen betrachten wir diesen Zustand als 1 oder 0." (Negroponte 1995: 22)

Bei der digitalen Darstellung ist nicht mehr der materielle Träger (wie vorher z. B. das Foto), sondern der numerische Code ausschlaggebend für die bildliche Darstellung. Das qualitativ Neue des computergenerierten Bildes gegenüber dem photographischen bzw. filmischen Bild liegt in der Loslösung des technischen Bildes von seiner Abbildung. Während die optische Repräsentation durch Fotografie auf Ähnlichkeiten beruhte, arbeitet die digitale Kodierung mit Abstraktionen und Auslassungen – sie speichert die Unterschiede eines Bildpunktes in Relation zu einem anderen Bildpunkt.

Dies birgt den Vorteil, dass Daten universell verändert, komprimiert, gespeichert und sehr schnell digital transportiert werden können. Aus der vormals mechanischen Bildinformation, die auf einer chemischen Prägung von materiellen Foto-Oberflächen beruhte, wurden einzelne Pixel (Picture Elements), die rechnerisch nahezu unbegrenzt manipulierbar sind. Das bewegte technische Bild wird somit von einem abbildenden Medium zu einem "bildenden" Medium, das in sich synthetisch konstruierbar und animierbar ist. (Vgl. Hoberg 1999: 27)

Digitale Bildbearbeitung und Computergrafik beeinflussen die Herstellung und Präsentation und Speicherung von digitalem Bild- und Videomaterial. Pixel sind innerhalb ihrer mathematischen Grenzen frei und beliebig veränderbar. Die Virtualisierung und Entmaterialisierung grafischer Information macht das (bewegte) Bild zu einem, "das so oder auch anders sein könnte". (Hoberg 1999: 28) Es werden Effekte möglich, die vorher nicht erreicht werden konnten: Körper ändern Farbe, Form, Beschaffenheit, Teile des Bildes können komplett gelöscht und ersetzt werden. Dies wirkt sich beispielsweise in der Filmindustrie aus, wo der Computer größtenteils in der Postproduktion zur Anwendung kommt: beim digitalen Schnitt (Hoberg 1999: 55), oder zur Korrektur des Filmmaterials. Bei der Synchronisation erleichtert sie die Anpassung des Gesprochenen an die Mundbewegungen. Zu nennen ist weiterhin die Entwicklung völlig neuer Animationseffekte wie z.B. Wrapping, Morphing, Partikelanimation oder Airbrushing und deren Einsatz und Weiterentwicklung in computertechnisch höchst aufwändigen Filmen wie den Trilogien "Herr der Ringe" und "Matrix". (Hoberg 1999: 31)

Es ist weiterhin abzusehen, dass nicht nur Dreh und Postproduktion digital, sondern auch die Distribution von Filmen in Zukunft über Satellit erfolgen könnte. Die würde laut "Spiegel"-Redakteur Marco Evers eine neue Kino-Ära einläuten, die "keinen Filmvorführer mehr, keine Filmrollen und keinen Bedarf an teuren Filmkopien" mehr kennt:

"In der zelluloidlosen Kinowelt schießen Satelliten Spielfilme als Computerdateien auf riesige Festplatten in die Kinos. Von dort fließen die Bildinformationen in die Mikroprozessoren der Kinoprojektoren. Die Prozessoren steuern dann grelles Xenon-Licht durch Millionen von mikroskopisch kleinen Spiegeln – und auf der Leinwand formt sich dieses Licht auf magische Weise zum Lächeln von Cameron Diaz und zur "Titanic" im Abwärtssog."

(Evers 2003: 70)

Das Hauptproblem besteht momentan darin, dass diese Technik für Kinobetreiber mit sehr hohen Anschaffungskosten verbunden ist. Deshalb befindet sie sich momentan noch in der Testphase und es bleibt abzuwarten, ob sie sich durchsetz wird.

Durch digitale Speicherung ist die Bild-Information universell und – unter Erfüllung der technischen Bedingungen zur Lesbarkeit der Information – vielfältig einsetzbar. Eine der Grundvoraussetzungen von Streaming, nämlich die digitale Übermittlung von Videodaten on-Demand an einen abrufenden Client, wird so technisch erst möglich. (Vgl. Kapitel 2.5)

Aus der Verarbeitung von bewegten Bildern durch das menschliche Auge und das Gehirn lassen sich substanzielle Voraussetzungen für digitales Video ableiten. Bedingt durch die Trägheit des menschlichen Auges ist seine Bewegtbildauflösung begrenzt: 16 Einzelbilder (Frames) pro Sekunde in Folge werden als kontinuierliches Video wahrgenommen. Ab etwa 25 Frames pro Sekunde erscheint ein Video ohne Störungen in den Bildfolgen. Bei einer Bildfrequenz, die unter 50 Hz liegt, erkennt das Auge außerdem eine periodische Helligkeitsschwankung, den so genannten Flimmereffekt. Bei Fernsehnormen wie PAL (europäischer Standard; 50 Halbbilder / sec bei 625 Zeilen pro Vollbild) oder NTSC (amerikanischer Standard; 60 Halbbilder / sec bei 525 Zeilen), die diesen Wert mit ca. 30 Hz unterschreiten, wird der Flimmereffekt unter Verwendung des Halbzeilenverfahrens kompensiert. Bei dieser als Interlacing bezeichneten Technik werden, statt 25 Frames pro Sekunde, 50 Halbbilder (Fields) dargestellt. (Lehner 2001: 72)

Auch Pixel werden vom menschlichen Auge nur bis zu einer gewissen Größe bzw. einem gewissen Abstand erkannt. Schnelle Bewegungen und hohe Frequenzen setzen dieses Auflösungsvermögen zusätzlich herab. Im Allgemeinen begnügt man sich bei der Auflösung mit 320 x 240 Pixel pro Frame, aber es sind auch Vollbild-Darstellungen möglich. Sprach man früher im Bezug auf Videodarstellung auf dem PC-Bildschirm vom "Briefmarkenkino", (Hansen / Möcke 2001: 136) setzt sich der Full-Screen-Modus zunehmend durch. Dabei ist allerdings zu bedenken, dass dieser mit derselben Auflösung arbeitet wie eine Standard-Ansicht von 320 x 240 Pixel. Darunter leidet die Bildqualität entsprechend.

Bei der technischen Verarbeitung von Video wird ebenfalls der Tatsache Rechnung getragen, dass das menschliche Auge wesentlicher sensibler auf Helligkeitsänderungen reagiert als auf Änderungen in der Farbtiefe. Die Luminanzinformation ist wichtiger als die Chrominanzinformation, weshalb erstere beispielsweise im MPEG-Format gegenüber der Chrominanz eine höhere Speicherkapazität in Anspruch nimmt.

Zur Darstellung eines Fernsehbildes werden 13 Millionen Pixel (25 x 625 x 833) benötigt, zu deren Übermittlung man mit einer Bildbreite von etwa 5 MHz auskommt.

Ein Vollbild mit voller Farbtiefe benötigt ca. 1,2 MByte. Um eine realistische Bewegtbildfolge zu erhalten, ist die Darstellung von 25 bis 30 Bildern (Frames) pro Sekunde (fps) nötig, und das würde zu einer Datenrate von 30-36 MByte/s führen, was zumindest bei älteren Rechnern ein unlösbares Problem darstellt. Des Weiteren würde ein 60 Sekunden langes Video einen Speicherplatz von mindestens 1,8 GByte belegen. Aus diesem Grund greift man bei der Übertragung von Videobildern für das Internet auf verschiedene Kompressionsstandards zurück, welche die Datengrößen verkleinern, aber die qualitative Beschaffenheit des digitalen Bildes erhalten. Hierin ist eines der Hauptprobleme von Streaming zu sehen: Während ein digitales Bild über einen Fernsehkanal schnell und kostengünstig übertragen werden kann, leidet bei der Übertragung über den Kabelanschluss eines Computers die Bildqualität in der Auslieferung beim Client stark gegenüber dem Ausgangsmaterial beim Server.

2.5 Technische Grundlagen des Streaming

Grundsätzlich lassen sich alle Medien mittels Streaming übertragen, so z. B. Text im Newsticker oder progressive JPEG-Bilder. Mit dem kürzlich entwickelten technischen Standard 3GPP ist Video-Streaming nicht nur für das Internet, sondern auch für mobile Endgeräte wie Handys und PDAs möglich. Dieser Standard wird vom QuickTime Player ab der Version 6.3 unterstützt. (Vgl. Website zum Standard 3GPP; Link im Literaturverzeichnis)

In der vorliegenden Arbeit ist jedoch die Übertragung von Video- und / oder Audio-Daten über das Internet Thema.

Drei Methoden, um Videodaten über das Internet auf einen PC zu übertragen, sind grundsätzlich zu unterscheiden: Neben dem klassischen Download, bei dem die gesamte Datei auf die Festplatte des Clients heruntergeladen werden muss, bevor sie abgespielt werden kann, gibt es das progressive oder Streaming on-Demand. Hierbei sind die auf einem Mediaserver gespeicherten Daten jederzeit abrufbar; der Videoplayer des Clients spielt die Datei bereits während der Übertragung ab.

Hiervon ist der Live-Stream abzugrenzen, bei dem das Videobild nur verfügbar ist, wenn im selben Moment ein Signal vom Encoder gesendet wird. Im Gegensatz zum Streaming on-Demand ist beim Live-Streaming kein Vor- oder Rückspulen möglich. Diese Technik ist mit der Übertragungsart des Fernsehprogramms vergleichbar und kommt bei den Live-Talkshows im Internet zum Einsatz. (Randerath / Neumann 2001: 367)

Die technische Grundlage von Streaming ist die Paketübermittlung. Zur Übertragung von Daten innerhalb eines Rechnernetzes werden diese in Pakete zerteilt, welche eine Ausgangs- und einer Eingangsadresse erhalten. Die Versendung von Daten in Paketen erleichtert zum einen die Koordination der Übertragung. Zum anderen gewährleistet die Zerlegung in Pakete allen Rechnern, welche auf eine gemeinsam genutzte Ressource zugreifen, gleiche Zugriffsrechte. Konzeptionell transportiert ein Netzwerk Datenpakete von mehreren Quellen über einen gemeinsamen Übertragungskanal, wobei die Quellen abwechselnd senden. Auf diese Weise kann keine Quelle den Kanal über Gebühr belegen, und die Datenpakete können im Internet unterschiedliche Wege nehmen, um am Bestimmungsort wieder zusammengesetzt zu werden.

Zentrales Problem ist deshalb der so genannte Package Loss. Diese Lücken treten auf, wenn ein Server Daten nicht rechtzeitig sendet oder einzelne Pakete aufgrund von überlasteten Übertragungsleitungen nicht den abrufenden Client erreichen. Fehlende Bild- und Tonelemente bzw. die Asynchronität von Bild und Ton im Stream können die Folgen sein und stellen hohe Anforderungen an die Übertragungstechnik. "Streaming Media Technologien müssen aus diesem Grund in der Lage sein, flexibel mit dem Verlust kleinerer Teile der wiederzugebenden Informationen umzugehen." (Künkel 2001: 13)

Abgefragt werden Streaming-Dateien über die dem Internet zu Grunde liegende Client-Server-Architektur. Diese besagt, dass der User von einer Arbeitsstation (Client) Dienste beim dafür konzipierten Rechner (Server) anfordert. Ist im einfachsten Fall ein Client mit einem Server verbunden, sind in der Regel mehrere Clients an einen Server angeschlossen und werden gleichzeitig von diesem bedient.[21] Beim Client-Server-Prinzip bleiben die ressourcenintensiven Aufgaben (Datenverwaltung, Drucken, E-Mail) auf den Server beschränkt, weshalb dieser über ein hohes Maß an Prozessorleistung, Hauptspeicher- und Festplattenkapazität verfügen muss. (Holzinger 2000: 219)

Die Bereitstellung der Streaming-Daten erfolgt aus diesem Grund entweder über einen normalen Datenserver oder über einen speziellen Streaming-Server. Letzterer erfüllt vor allem dann sinnvolle Aufgaben, wenn die Zugriffe von Seiten der User ansteigt. Da ein Webserver auf die Übertragung von HTML-Dateien und Grafiken via http-Protokoll spezialisiert ist, kann ein zu hohes Abfrage-Aufkommen diesen überlasten oder zum Absturz bringen.

Ein dezidierter Videoserver bietet dem gegenüber zahlreiche Vorteile: Er kann eine größere Anzahl von Clients gleichzeitig bedienen, und bietet durch den Einsatz des leistungsfähigeren Übertragungsprotokolls RTP (Realtime Transport Protocol) eine bessere Videoqualität. Zudem sendet er die Streams in Abstimmung auf die Netzwerkbandbreiten der zugreifenden Clients ab und sorgt damit für eine gezielte Steuerung des Datenstroms. (Kunze 1997: 142)

Das so genannte SureStream bzw. Mulitbit, entwickelt von RealNetworks bzw. Microsoft, das z.B. bei der Internet-Talkshow "Tomorrow TV live" verwendet wurde, stellt mehrere Qualitätsstufen von Audio- und Videodateien zur Verfügung, welche dann vom Webserver der Bandbreite des abrufenden Clients entsprechend zur Verfügung gestellt werden. Selbst wenn sich die Bandbreite während der Übertragung ändert, kann der Server dies erkennen und flexibel in die nächst höhere oder niedrigere Qualität wechseln. Der Stream kommt immer in optimaler Auflösung beim User an, die Übertragung reißt nicht ab. (Künkel 2001: 17)

Beim Live-Streaming werden die Pakete im Idealfall in geordneter Reihenfolge über das Internet in einem konstanten Datenstrom auf den Computer des Users übertragen. Die Zeit, welche zum Übertragen der Daten nötig ist, wird bereits für die Wiedergabe der bereits übertragenen Teile genutzt. So wird der Videostream unmittelbar nach dem Eintreffen der ersten Bildsequenzen betrachtet. Der Stream wird dabei nicht komplett heruntergeladen, sondern zwischengespeichert (Buffering).

Für Produktion und Wiedergabe der Daten werden zwei Programme benötigt: Die Kompressions-Software (RealProducer, Microsoft Media Encoder) auf Seiten des Anbieters verwendet verschiedene Codecs zur Kompression von Daten. Die Decoding-Software ist dem Client auch als Player-Software bekannt (RealOne Player, Windows Media Player, Quicktime Player)[22]. Diese erkennen die Dateien anhand der verwendeten Codecs, dekomprimieren die Daten und geben diese wieder. Hierbei ist zu beachten, dass die verschiedenen Hersteller eigene Codecs anwenden und bestrebt sind, diese als marktführenden Standard einzusetzen. (Vgl. Kapitel 2.7 und 2.8)

Streaming Media, besonders unter der Berücksichtigung der Übertragung von Audio und Video, definiert sich zusammenfassend als

"eine Technik für die Videoübertragung im Internet, die es erlaubt, Musik und Sprache (Streaming Audio) und Video (Streaming Video) in Echtzeit und akzeptabler Qualität aus dem Internet zu empfangen. Man überträgt dabei nicht die ganz Datei in einem Stück [...], sondern zeigt während der Übertragung das an, was gerade gesendet wird, idealerweise qualitativ an die Übertragungsrate angepaßt."

(Rau / Renner 1997: 70)

2.5.1 Die Erstellung eines Video-Streams

Bei den interaktiven Live-Talkshows im Internet schließt sich nach dem Live-Stream ein Stream on-Demand an. Die User können meist wenige Tage nach dem Talk eine Zusammenfassung der Sendung auf dem jeweiligen Portal anschauen. Deshalb wird im Folgenden nicht nur das Live-Streaming, sondern auch der technische Umwandlungsprozess von einer digitalen Video-Vorlage zum Streaming File dargestellt. Die Arbeitsschritte für die Bereitstellung eines Streams auf einem MediaServer gliedern sich wie folgt.

Am Beginn der Streaming-Technologie steht auf Seiten des Anbieters die Produktion der multimedialen Inhalte. In diesem Fall handelt es sich um die Durchführung des Live-Talks in einem speziellen Studio. Beim Live-Streaming liegt keine vollständige Datei zum Abruf auf dem distribuierenden Mediaserver. Vielmehr werden die Audio- und Videosignale vom Encoder in Echtzeit digitalisiert, encodiert und an den Server gesendet. Der Server nimmt die Datenpakete entgegen und leitet sie an jeden gerade abrufenden Client weiter.

Gleichzeitig wird die gesamte Sendung mit einer digitalen Kamera auf Mini-DV-Kassetten aufgezeichnet, wodurch sie verlustfrei auf den PC übertragen werden kann. Die digitale Aufnahme gewährleistet gleichfalls einen direkten Zugriff auf einzelne Bilder der Produktion und das wiederholte Bearbeiten (z. B. Schneiden) und Aussenden des Videomaterials ohne Qualitätsverlust.[23]

Soll ein Stream über das Internet übertragen werden, ist bei der Aufnahme besonders auf eine ruhige Kameraführung zu achten. Die Erfahrung zeigt, dass schnelle Kameraschwenks und –zooms zu einem erhöhten Datenaufkommen führen und dass die Übertragung dann zu "ruckeln" beginnt oder das Bild unscharf dargestellt wird. Zudem sind detailreiche Kamera-Einstellungen, wie z. B. die Totale, nicht sinnvoll, wenn man bedenkt, dass der Stream auch von Nutzern mit Modemanschluss bei einer Videobild-Größe von 192 x 144 Pixel entschlüsselbar sein muss. (Künkel 2001: 44) Totalen sind höchstens als Zwischenbilder zur Vermittlung der Atmosphäre empfehlenswert und finden z.B. in der Internet-Talkshow von AOL Verwendung.[24]

Ähnlich wie in einem professionellen TV-Studio sind gleichmäßige Ausleuchtung und neutraler Hintergrund Grundbedingungen für ein hochwertiges Kamerabild. Hierbei ist die Qualität des gefilmten Ausgangsmaterials die Basis für die spätere Qualität des Streams.

Nach der Aufnahme folgt das Capturing, das Einlesen und die Digitalisierung des Videoclips auf eine Festplatte. Man benötigt hierzu sowohl Hardware in Form einer Steckkarte für den PC oder Mac, als auch Capture-fähige Video-Editor-Software. Hierbei existiert ein breites Leistungsspektrum, wobei wieder die verwendeten Kompressionsgrößen eine Rolle spielen: Die Verarbeitung mit geringer oder keiner Kompression stellt offensichtlich eine höhere Anforderung an die verarbeitende Hard- und Software als hohe Kompressionen. Im vorliegenden Fall wird typischerweise mit einer verlustbehafteten Kompression gearbeitet, da die Videodaten bereits in der Kamera komprimiert aufgezeichnet werden. Bei der bereits genannten Datenrate von 3,6 Mbit/s kann die Sendung schnell über FireWire übertragen werden.

Das Editieren bezieht sich im Wesentlichen auf den Videoschnitt. Typische Software hierfür ist Adobes Premiere oder Apples Final Cut Pro. Dabei werden die einzelnen Filmbilder auf einer Zeitlinie aneinander gesetzt und anschließend mit Filmeffekten wie Überblendungen einzelner Bilder bearbeitet; am Anfang des Clips kann ein Trailer eingeblendet werden, der den User wie zu Beginn einer Talkshow im Fernsehen auf die Sendung einstimmt. Zudem können Tonspuren einzeln entfernt, hinzugefügt und verändert werden. Generell hat sich eine maximale Videoclip-Länge von ca. drei Minuten durchgesetzt, bei einer Mindestlänge von drei bis fünf Sekunden pro Einstellung.

Es folgt das Komprimieren der Clips, das auch Encoding genannt wird und je nach Komprimierungsart sehr zeitaufwändig ist. Es vollzieht sich im Allgemeinen in den folgenden Arbeitsschritten: Verkleinerung der Auflösung, Verkleinerung der Bildfrequenz, Vergrößerung der Bildkompression, Verringern der Auflösung des Tons und schließlich Vergrößerung der Kompression des Tons. Beim Streaming wird das so genannte Live-Encoding angewendet. Das von einer Videokamera in einen PC eingespeiste Videobild wird dabei ist Echtzeit komprimiert und zusätzlich über eine Internetverbindung zu einem Streaming-Server übertragen.

Um z. B. eine Stunde Video als Streaming Video für 56 Kbit/s Modemgeschwindigkeit anbieten zu können, muss die PAL-DV Filmdatei von 13 GByte, die bei Aufnahme bereits um den Faktor zehn vorkomprimiert wurde, auf etwa 20 MByte komprimiert werden. Dies entspricht einem Kompressionsfaktor von etwa 650. Die Entwicklung von Codecs zur Datenkompression wird im folgenden Abschnitt behandelt.

2.5.2 Datenkompression

Im Zusammenhang mit der Datenübertragung im WWW wird in der behandelten Literatur immer wieder auf die Unzulänglichkeit von vorhandenen Übertragungswegen und, verbunden damit, ungenügenden Kompressionsverfahren hingewiesen. So drehte sich noch vor wenigen Jahren bei der Videokompression "noch alles darum, Pressekonferenzen, Live-Events oder Musik-Videos in Briefmarkengröße durch schmale Modemleitungen zu quetschen." (Zota 2003: 146)

Heute dagegen existieren kompakte Videodateien in einer vergleichsweise hervorragenden Bildqualität. Verschiedene Kompressions-Technologien und SureStream[25] sollen die rationelle Nutzung verfügbarer Bandbreiten entschärfen. Bei der Qualitätsentwicklung in Sachen Datenkompression spielen neu entwickelte Codecs (Compressor, Decompressor) eine entscheidende Rolle.

Dabei handelt es sich meist um Software-basierte Algorithmen, welche die Komprimierung auf Seiten der Anbieter vornehmen und auf Seiten der Clients die Inhalte wieder dekomprimieren. Diese Algorithmen regulieren zudem den Datenaustausch zwischen Media Server und Media Player oder dem entsprechenden Browser Plug-In als Client. (Randerath / Neumann 2001: 116)

Reine Videoinformationen werden mit speziellen Video-Codecs, Audio-Inhalte hingegen mit Audio-Codecs bearbeitet. Die verwendeten Codecs der einzelnen Anbieter regeln den Datenaustausch zwischen Media-Server und Client. Damit die Daten sukzessive zur Verfügung gestellt werden können, muss am sendenden Server die entsprechende Software und am empfangenden Client ein Plug-in installiert sein. Aus diesem Grund sind die einzelnen Software-Anbieter stets darauf bedacht, eigene Codecs anzubieten und diese als Standard zu etablieren.[26]

Das Ziel einer Datenkomprimierung ist eine Anpassung der zu streamenden Dateigröße an die zur Verfügung stehende Bandbreite der Übertragung bei bestmöglicher Erhaltung der Bild- und Tonqualität. Das Konzept der menschlichen Wahrnehmung wird für das Encoding genutzt:

"In jeder Sekunde werden wir von den visuellen, akustischen und taktilen Informationen buchstäblich überschwemmt. Unser Nervensystem ist jedoch perfekt dafür ausgelegt, diese Informationsflut aufgrund von bereits vorliegenden Informationen (Erfahrungen) zu filtern." (Künkel 2001: 32)

Aus diesem Grund muss nur ein Bruchteil der eingehenden Signale neu verarbeitet werden, um die darin enthaltene Information aufzunehmen.

Es ist zwischen verlustloser und verlustbehafteter Kompression zu unterscheiden. Erstere Methode ermöglicht die Wiederherstellung des komprimierten Ausgangsmaterials ohne Unterschied zum Original. Der wesentliche Ansatz ist hierbei die Entfernung von Informationen, die mehrfach vorhanden sind (Redundanz). Nachteilig daran ist, dass die Kompression zwar Informationsverluste ausschließt, aber die Datenmenge der Dateien immer noch zu hoch ist.

[...]


[1] Der Vollständigkeit halber sei angemerkt, dass auch die "perfekte Gedächtnis- und Schreibmaschine" Computer Schwachstellen bezüglich Speicherung und Datenübertragung aufweist. So sind zum Beispiel Systemfehler möglich, die Computerabstürze und das Löschen oder die Beschädigung der auf dem jeweiligen Rechner befindlichen Daten durch Viren verursachen.

[2] Spezifische Kennzeichen von Chat und dessen nutzungsspezifische Relevanz für Live-Talkshows finden in Kapitel 2.1.2 Betrachtung.

[3] Als heterogene Netzwerke sind solche Netzwerke zu betrachten, die bei der Datenkommunikation, verschiedene Protokolle einsetzen und auf unterschiedliche Betriebssysteme zugreifen.

[4] 1994 gründete Berners-Lee das World Wide Web Consortium (W3C) am MIT in Massachusetts, dessen Direktor er seitdem ist. Das W3C koordiniert die Entwicklung neuer Internet-Standards. Gegenwärtig arbeitet das Team am Übergang zum sogenannten Semantischen Web, in dem mittels Metadaten der Kontext von Informationen kodiert werden könnte, so "dass sie für effektivere Such-, Automatisierungs- und Integrationsprozesse genutzt und über mehrere Anwendungen hinweg wieder verwendet werden können."

(Vgl. Berners-Lee 2003, Link im Literaturverzeichnis)

[5] Ted Nelson sieht an dieser Stelle besonders Potenziale für die Möglichkeiten dersimultanen und kollektiven Bearbeitung eines Dokuments, der Aufhebung des Gegensatzes zwischen Autor und Leser sowie die Verwaltung zwischen einzelnen Hypertexteinheiten. Durch das Rückverfolgen der Entstehungshistorie eines Dokuments soll, so Nelson, auch der Schutz von Urheber-, Nutzungs- und Vervielfältigungsrechten unterstützt werden. (Kuhlen: 217)

[6] Das Projekt Xanadu wird bis heute von Ted Nelson realisiert und ist unvollendet.

Vgl. Website von Xanadu, Link im Literaturverzeichnis

[7] Friedrich Kittler definiert als Computeranalphabetismus die Unterlegenheit des Nutzers (z. B. Programmierers) gegenüber dem digitalen Code. Der Computeranalphabet "unterliegt dem digitalen Code genauso massiv und undurchschaubar wie etwa seinem genetischen Code." Dieser Umstand resultiere aus dem fälschlicherweise unternommenen Versuch, "alles das, was gemeinhin als denken und Rechnen läuft, auf Fähigkeiten und Unfähigkeiten einer digitalen Maschine abzubilden", (Kittler 1996: 241) so dass den Stil von Computerprogrammen "folglich keine Menschen mehr, sondern die Maschinen selbst" bestimmen. (a.a.O.: 244)

[8] Im Jahre 1995 war Multimedia das Wort des Jahres. (Müller / Steinhauer 1996: 1 ff.)

[9] Als Grundlage von Digitalisierung ist ein Bit definiert als kleinster Bestandteil von Informationsträgern. Ein Bit beschreibt einen Zustand, der 0 oder 1 sein kann. Diese so genannte binäre Kodierung ermöglicht es dem Computer, digitale Daten zu verarbeiten. (Negroponte 1995: 22 / Schnell 2000: 240.)

[10] Zum 15. Juli 2003 wurde der Netscape-Browser eingestellt. Nach eigenen Angaben will der Mutterkonzern AOL seine Ressourcen stattdessen verstärkt in Sachen Internet Explorer einsetzen, nachdem er feststellen musste, dass die User vorrangig diesen Browser nutzen. Die letzte Version des Netscape 7.1 ist technisch fast baugleich mit dem Open-Source-Browser Mosaic 1.4, initiiert und in Besitz von AOL. Die weitere Entwicklung dieses unkommerziellen Projekts bleibt abzuwarten.

(Patalong 2003, Online-Zugriff: 17.07.03)

[11] Eine weitere Einschätzung zu Standardisierung, Entwicklungspotenzialen und Zugangsbarrieren zum Internet finden sich in Kap. 2.2 und 2.8.

[12] Von dieser Tendenz sind die Entwicklungsländer größtenteils auszuschließen. E-Commerce ist z. B. praktisch auf Südafrika beschränkt; wohin gegen weite Teile Afrikas keinen Anschluss an das Internet haben.

[13] Vgl. Chat-Protokolle auf der beiligenden CD-ROM.

[14] Diese Aussage missachtet die Tatsache, dass gemeinhin im Chat versal Geschriebenes als LAUTE Äußerung empfunden wird.

[15] Das WWW-Portal chat.de z. B. bietet Chats je nach Interessensgebiet registrierter User nach Themen; darunter "Star-Trek-Fans", "Erotik", "Business und Wirtschaft", "Haus und Garten". (Vgl. Website Chat.de; Link im Literaturverzeichnis)

[16] Besonders deutlich wird dies am Beispiel Japans: Bei seit Jahren stetig wachsender Selbstmordrate (im Jahr 2001 rund 24 Suizide auf 100.000 Einwohner gegenüber 15 in Deutschland) werden verstärkt "Internet-Selbstmorde" registriert. Dabei verabreden sich Menschen in Suizid-Chats und -Foren zum kollektiven virtuellen und realen Freitod. (Schneppen 2003, Link im Literaturverzeichnis)

[17] Auf den Aspekt der Reproduktion und die daraus resultierende Redundanz wird in Kap. 3.2 noch bezüglich des Mediums Fernsehen, in Kap. 4.1 bezüglich des Mediums Internet zurückzukommen sein.

[18] 189 Millionen Menschen haben laut dieser Umfrage in den "restlichen Ländern" Zugang zum Internet. Die Zahlen wurden durch Erhebungen im Oktober 2002 in Australien, Brasilien, Frankreich, Deutschland, Großbritannien, Hongkong, Italien, Niederlande, Spanien, Schweden, USA, Japan und der Schweiz ermittelt.

[19] Dies ergab die Internetstudie @facts des forsa-Instituts im Auftrag der Medien-Unternehmen SevenOne Interactive, IP New Media und Lycos Europe. Das Marktforschungsinstitut befragt seit Dezember 1998 jeden Tag telefonisch etwa 500 Personen ab 14 Jahren in Deutschland.

Die oben genannte Zahl wird bestätigt durch eine weitere Studie des Statistischen Bundesamtes Deutschland: Im zweiten Quartal 2003 hatten demnach 55 Prozent der erwachsenen Bundesbürger einen Internetzugang. Telefonisch befragt wurden insgesamt 3.844 Personen zwischen dem 07.04. und 26.06.2003. Die Ergebnisse sind repräsentativ für die deutsche Bevölkerung ab 18 Jahren. (Studie der Forschungsgruppe Wahlen Online: Internet-Strukturdaten – II. Quartal 2003; Link im Literaturverzeichnis)

[20] Vgl. Websites der Organisationen, Links im Literaturverzeichnis

[21] Zur Erhöhung der Kapazität oder zum Anbieten verschiedener Serverprozesse ist es auch möglich, mehrere Server zu einem Netzwerk zu verbinden. In diesem Netzwerk kann jeder Client auf die Dienste mehrerer Server zugreifen. Dieses Verfahren ist abzugrenzen von einem Peer-to-Peer-Netz, in dem durch eine Punkt-zu-Punkt-Verbindung jeder Computer auf die Ressourcen anderer Ressourcen zugreifen kann und umgekehrt seine Ressourcen den anderen Computern im Netz zur Verfügung stellt. Im Gegensatz zur Client-Server-Architektur zeichnet sich die Punkt-zu-Punkt-Verbindung durch die Gleichrangigkeit aller angeschlossenen Arbeitsstationen aus.

[22] Alle drei Player sind auf der beiligenden CD-ROM verfügbar.

[23] Mini-DVs werden z.B. von den Firmen Panasonic, Philipps, Ikegami und Hitachi zur Verfügung gestellt. Sie speichern Video-Signale bei einer 5:1 Intraframe-Kompression bei einer Videodatenrate von 25 Mbit/s. Die Audio-Datenrate beträgt zusätzlich 16 Mbit/s. Typische Mini-DV-Kassetten haben eine Laufzeit von 60 Minuten – was der Länge einer typischen Internet-Talkshow entspricht.

[24] Wie auf der beiligenden CD-ROM zu sehen, gilt dieses Prinzip auch für die Live-Talks von AOL und TOMORROW TV.

[25] Vgl. Kapitel 2.5

[26] Codecs im Zusammenhang mit spezifischer Player-Software werden in Kap. 2.7 thematisiert.

Ende der Leseprobe aus 145 Seiten

Details

Titel
Video-Streaming in Internet-Talkshows
Hochschule
Universität Lüneburg
Note
1,3
Autor
Jahr
2003
Seiten
145
Katalognummer
V28293
ISBN (eBook)
9783638301169
Dateigröße
1065 KB
Sprache
Deutsch
Schlagworte
Video-Streaming, Internet-Talkshows
Arbeit zitieren
Bianca Ulrich (Autor:in), 2003, Video-Streaming in Internet-Talkshows, München, GRIN Verlag, https://www.grin.com/document/28293

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Video-Streaming in Internet-Talkshows



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden