Web 2.0 in der Unternehmenskommunikation. Grundlagen, Anwendungen, Fallbeispiele


Diplomarbeit, 2008

93 Seiten, Note: 1,7


Leseprobe


Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1. Einleitung
1.1 Situation
1.2 Problemstellung
1.3 Vorgehensweise

2. Terminologische und konzeptionelle Grundlagen des Web 2.0
2.1 Ursprung des Web 2.0
2.1.1 Geschichte des Internets
2.1.2 Technologie des Internets
2.2 Abgrenzung und Definition des Web 2.0
2.2.1 Abgrenzung zum Web 1.0
2.2.2 Abgrenzung zu Social Software
2.2.3 Definition des Web 2.0
2.3 Wesentliche Instrumente des Web 2.0
2.3.1 Blogs
2.3.2 Podcasts
2.3.3 Wikis
2.3.4 Social Tagging
2.3.5 Social Networking Software
2.3.6 Instant Messaging und Präsenz Awareness

3. Web 2.0-Anwendungen in der Unternehmenskommunikation
3.1 Grundlagen der Unternehmenskommunikation
3.1.1 Entwicklung und Einordnungen der Unternehmenskommunikation
3.1.2 Teilgebiete der Unternehmenskommunikation
3.1.3 Integrierte Unternehmenskommunikation
3.2 Theorieansätze für den Einsatz von Web 2.0-Anwendungen
3.2.1 Theorie der Online-Kommunikation
3.2.2 Ökonomische Theorien
3.3 Anwendungsfelder des Web 2.0 in der Unternehmenskommunikation
3.3.1 Interne Kommunikation
3.3.2 Marktkommunikation
3.3.3 Öffentlichkeitsarbeit und Public Relations
3.4 Chancen und Risiken beim Einsatz von Web 2.0-Anwendungen in der Unternehmenskommunikation
3.4.1 Chancen
3.4.2 Risiken

4. Ausgewählte Beispiele aus der Praxis
4.1 Blogs
4.2 Wikis
4.3 Podcasts
4.4 Web 2.0

5. Fazit
5.1 Zusammenfassung
5.2 Kritische Würdigung

Literaturverzeichnis

Glossar

Abbildungsverzeichnis

Abbildung 1: Internetnutzung in Deutschland in den Jahren 2001 – 2007

Abbildung 2: Mind Map des Web 2.0.

Abbildung 3: „Das Social Software Dreieck“

Abbildung 4: Tag Cloud des Social-Bookmarking-Dienstes delicious.com

Abbildung 5: Unternehmenskommunikation und ihre Teilbereiche

Abbildung 6: Klassifikation von Kommunikationsinstrumenten und -mitteln

Abbildung 7: Formen der integrierten Kommunikation im Überblick

Abbildung 8: Das Media-Richness-Modell

Abbildung 9: Einsatzmöglichkeiten von Weblogs in Wirtschaft und Politik

Tabellenverzeichnis

Tabelle 1: Internetzugang in den Jahren 1997 - 2008 in %

Tabelle 2: Übersicht über Internet-Dienste nach dem ISO-OSI-Modell

Tabelle 3: Gegenüberstellung von Web 1.0 zu Web 2.0

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

1.1 Situation

Web 2.0 hat sich vom Modewort zum festen Begriff entwickelt, wenn es darum geht, die Entwicklungen, die das Internet erfahren hat, zu beschreiben. Web 2.0 steht für eine Reihe von neuen Anwendungen wie Blogs, Wikis, Podcasts und Social Software. Sie verändern gesellschaftliche Kommunikations- und Interaktionsstrukturen und schaffen neue Öffentlichkeiten im „vormedialen Raum“ (vgl. Pleil/Zerfaß 2007, S. 511). Insbesondere Blogs sind in diesem Zusammenhang hervorzuheben, da sie durch ihre einfachen Verknüpfungsmöglichkeiten interaktive Kommunikation fördern.

Wurde das Internet bislang vornehmlich dazu eingesetzt, die Unternehmenskommunikation zu unterstützen, so ist mittlerweile ein Wandel geschehen, durch den sich neue Möglichkeiten der Partizipation und Interaktion ergeben haben. Zudem sieht sich Unternehmenskommunikation heute mit zunehmend gesättigten Märkten und einem daraus resultierenden Kommunikationswettbewerb konfrontiert.

1.2 Problemstellung

Vor dem Hintergrund des steigenden Wettbewerbs stehen Unternehmen vor der Aufgabe, Kosten zu senken. Ein wachsenden Medienangebot und eine damit einhergehende Zunahme einsetzbarer Kommunikationsinstrumente und -mittel erschweren zudem die Gestaltung der Unternehmenskommunikation. Bei der Vielzahl an Möglichkeiten stellt sich für Unternehmen die Frage, wie der Kunde am besten erreicht werden kann. Die Möglichkeiten der Unternehmenskommunikation haben sich durch die Angebote des Web 2.0 zusätzlich erhöht, so dass auch hier gefragt werden kann, wie diese Anwendungen für die Kommunikationsarbeit genutzt werden können.

1.3 Vorgehensweise

Um diese Fragen zu beantworten wird zunächst der Begriff Web 2.0 geklärt. Dazu wird auf die Entwicklung des Internets eingegangen und Web 2.0 von seinem „Vorgänger“ abgegrenzt, um eine Definition zu erhalten. Im Folgenden werden mit Blogs, Podcasts, Wikis und Social Software die wichtigsten Instrumente des Web 2.0 dargestellt und erläutert. Kapitel 3 beginnt mit der Entwicklung der Unternehmenskommunikation im zeitlichen Verlauf und ordnet diese dann in den Marketingmix ein. Hier werden die Teilbereiche der Unternehmenskommunikation beschrieben sowie auf die Notwendigkeit einer integrierten Betrachtung eingegangen. Es folgen Theorie-Ansätze, die einen Einsatz von Web 2.0 in der Unternehmenskommunikation begründen. Dabei wird zunächst auf spezifische Eigenschaften der Online-Kommunikation eingegangen. Im Rahmen der Darstellung ökonomischer Theorien werden Transaktionskostentheorie und Informationsökonomie beschrieben. Anschließend werden mögliche Anwendungsfelder des Web 2.0 in der Unternehmenskommunikation gezeigt. Dabei wird das Hauptaugenmerk auf Blogs gelegt, da diese sich besonders gut in allen drei Teilbereichen der Unternehmenskommunikation einsetzen lassen. Die dabei bestehenden Chancen und Risiken werden im darauf folgenden Kapitel erörtert. Die möglichen Anwendungsmöglichkeiten werden in Kapitel 4 anhand von konkreten Beispielen erläutert. Letztlich schließt die Betrachtung mit einer kurzen Zusammenfassung, einer kritischen Würdigung und einem Ausblick.

2. Terminologische und konzeptionelle Grundlagen des Web 2.0

In diesem Kapitel werden die theoretischen Grundlagen des Web 2.0 dargestellt. Dazu werden zunächst Geschichte und Technologie des Internets beschrieben, um den Ursprung des Web 2.0 zu verstehen. Darauf aufbauend werden Social Software, Web 1.0 und Web 2.0 voneinander abgegrenzt und eine Definition des Web 2.0 für die weitere Arbeit gegeben. Zuletzt werden die wichtigsten Instrumente des Web 2.0 erläutert.

2.1 Ursprung des Web 2.0

Zur Einführung wird auf die Entwicklung von Internet und World Wide Web in den vergangenen 40 Jahren, sowie die dahinter stehende Technologie eingegangen.

2.1.1 Geschichte des Internets

Das Internet hat seinen Ursprung in den sechziger Jahren des 20. Jahrhunderts. Lokale Netzwerke („Local Area Network“), bei denen mehrere Computer über kurze Distanzen miteinander verbunden sind, bildeten den Anfang dieser Technologie (vgl. Osterrieder 2006, S. 16). Das US-Verteidigungsministerium forschte an einer dezentralen Netzwerktechnologie, die den einfachen, schnellen und sicheren Datenaustausch ermöglichen sollte (vgl. Fischer 2006, S. 56). Das sog. ARPANET entstand 1969 und diente dem Austausch digitaler Daten über eine längere Distanz („Wide Area Network“). Später wurde es auch von wissenschaftlichen Institutionen genutzt. 1972 wurde Email eingeführt, welche Mailinglisten ermöglichte. 1979 entstand das Usenet, in dessen Newsgroups verschiedene Themen diskutiert wurden. Bereits in den 70er Jahren wurde das Transmission Control Protocoll / Internet Protocoll (TCP/IP) benutzt, doch erst mit Beginn des Jahres 1983 wurde TCP/IP als einheitlich verbindliches Protokoll für alle Plattformen festgelegt. 1990 entwickelten Tim Berners-Lee und Robert Cailliau[1] in Genf das World Wide Web, für das 1993 mit MOSAIC die erste grafische Webbrowser-Oberfläche entstand (vgl. Osterrieder 2006, S. 16-17). Im Oktober 1994 gründete Berners-Lee das World Wide Web Consortium (W3C), welches seither die Aufgabe verfolgt, dem World Wide Web zur vollen Ausnutzung seines Potenzials zu verhelfen, indem es Protokolle und Richtlinien entwickelt, die ein langfristiges Wachstum des Web sicherstellen (vgl. Jacobs 2008). Ende der 90er Jahre des 20. Jahrhunderts erlebte das World Wide Web einen regelrechten „Boom“ mit hohen Zuwachsraten bei der Internetverbreitung von jährlich mehr als 60 Prozent (vgl. van Eimeren/Gerhard/Frees 2003, S. 338). Die Zahl der registrierten Webseiten stieg stark an. Viele Unternehmen investierten in die sog. New Economy, wobei die getätigten Zahlungen in keinem Verhältnis zu dem eigentlichen Wert dieser Projekte standen (vgl. Behrendt/Zeppenfeld 2007, S. 7). Es entstand eine „Seifenblase“, die im Jahr 2000 platzte (vgl. Schiller Garcia 2007, S. 1; Alby 2008, S. XIII). Nur wenige Unternehmen überlebten diesen Kollaps[2], der eine Skepsis gegenüber Unternehmen aus der Internet-Branche (Net Economy) entstehen ließ (vgl. Behrendt/Zeppenfeld 2007, S. 8). Dennoch stammen einige der heutigen Marktführer der Net-Economy aus eben dieser Zeit. Sie heißen eBay, Amazon oder Yahoo und sind mittlerweile milliardenschwere Global Player (vgl. van Eimeren/Frees 2005, S. 362). Gegen Ende des 20. Jahrhunderts verlief der Internetzugang i.d.R. über die Telefonleitung. Die Datenübertragung erfolgte über ein an die Telefondose angeschlossenes Modem, das für den Zeitraum, in dem die Internetverbindung bestand, keine Anrufe zuließ. Gleichzeitiges Telefonieren war nur mittels ISDN-Anschluss und seiner Zwei-Kanal-Technologie möglich. Die Bündelung beider Kanäle erlaubte eine doppelte Übertragungsgeschwindigkeit, wobei wiederum nicht gleichzeitig telefoniert werden konnte. Die Übertragungsgeschwindigkeiten bewegten sich in dieser Zeit zwischen 56 kbit/s (Kilo Bit pro Sekunde[3] ) mit einem Modem und 128 kbit/s mittels ISDN bei Kanalbündelung. Um die Jahrtausendwende gab es erste Breitbandanschlüsse mit einer Übertragungsgeschwindigkeit von zunächst 768 kbit/s. Bald stiegen die Übertragungsgeschwindigkeiten auf 1, 2 und 6 Mbit/s (Mega Bit pro Sekunde) und heute sind bereits Geschwindigkeiten von 16 Mbit/s und mehr verfügbar (vgl. Alby 2008, S.4-5). Ferner sind alternative Wege der Datenübertragung möglich, bspw. über den Kabelanschluss, das Mobilfunknetz (UMTS) oder das Stromnetz (vgl. Schiller Garcia 2007, S. 70-72). Mit sinkenden Preisen stieg die Zahl der Haushalte mit Internetzugang (vgl. Alby 2008, S. 5-10). Durch das Aufkommen von Flatrates, also Pauschaltarifen, bei denen man für einen fixen monatlichen Betrag für unbegrenzte Dauer online (mit dem Internet verbunden) sein konnte, stieg auch die Bereitschaft der Nutzer, mehr Zeit im Internet zu verbringen (vgl. Behrendt/Zeppenfeld 2007, S. 8 ). Die folgenden Abbildungen stellen den Anstieg der Internetnutzung in Deutschland (Abbildung 1), sowie die Art des Internetzugangs (Tabelle 1) im zeitlichen Verlauf dar.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Internetnutzung in Deutschland in den Jahren 2001 – 2007

Quelle: TNS Infratest 2007, S. 10.

Tabelle 1: Internetzugang in den Jahren 1997 - 2008 in %

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Fisch/Gscheidle 2008, S. 346.

Wie aus Abbildung 1 deutlich wird, hat die Internetnutzung in den vergangenen Jahren zugenommen. Waren in 2001 nur 37 % der Deutschen online (bei 52,5 % Offlinern), so hat sich dieser Anteil bis 2007 auf über 60 % erhöht (bei 34,1 % Offlinern) (vgl. TNS Infratest 2007, S. 10). Daneben zeigt Tabelle 1, dass sich der Internetzugang in der Vergangenheit ebenfalls gewandelt hat. Gingen 1997 noch 80 % der deutschen Internetnutzer über ein Modem online, verlagerte sich die Zugangsart zu Gunsten des schnelleren Breitband- bzw. DSL-Anschlusses, so dass in 2008 bereits 70 % der Internetnutzer über eine solche Leitung mit dem Internet verbunden waren (vgl. Fisch/Gscheidle 2008, S. 346). Die Zahl der in Deutschland geschalteten Breitbandanschlüsse lag zum Ende des dritten Quartals 2007 bei rund 18,6 Millionen, wovon rund 95% die DSL-Technologie nutzten. Im Zeitraum Juli 2006 bis Juli 2007 konnte Deutschland im europäischen Vergleich den höchsten Zuwachs bei Breitbandanschlüssen verzeichnen (vgl. Bundesnetzagentur 2007, S. 12-14).

2.1.2 Technologie des Internets

Das Internet ist ein Geflecht aus lokalen Netzwerken auf der ganzen Welt, die mittels Kupfer- oder Glasfaserkabeln, Funk- und Satellitennetzen verbunden sind. Weitere Merkmale sind seine ständige Erreichbarkeit, die große Anzahl von Teilnehmern, ein einfacher Zugang und der mittlerweile kostengünstige Betrieb (vgl. Schiller Garcia 2007, S. 12). Dank der standardisierten TCP/IP-Technologie können die an das Internet angeschlossenen Computer herstellerunabhängig miteinander kommunizieren. Die TCP/IP-Technologie regelt den Austausch der Datenpakete innerhalb eines Netzwerkes. Dabei werden Adressen an Sender und Empfänger vergeben und eine Sequenznummer über das Internet Protocoll versendet, so dass die einzelnen Datenpakete beim Empfänger in die richtige Reihenfolge gebracht werden können. Dies erlaubt eine gegenüber Störungen und Netzausfällen stabile Übertragung der Daten, da die Wahl des Übertragungsmediums je nach Auslastung und Verfügbarkeit getroffen und die Kommunikation zwischen auf unterschiedlicher Hardware basierenden Netzwerken ermöglicht wird (vgl. Fischer 2006, S. 56).

Das Internet ist die Basis für viele Dienste wie z.B. E-Mail, File Transfer (FTP), Newsgroups oder das World Wide Web (siehe Tabelle 2), welches oft als Internet bezeichnet wird (vgl. Schiller Garcia 2007, S. 12).

Tabelle 2 stellt die Internet-Dienste nach dem ISO-OSI-Modell dar. Daraus wird ersichtlich, dass Anwendungen wie File Transfer, Email, World Wide Web oder Domain Name Service nebeneinander im Internet existieren.

Tabelle 2: Übersicht über Internet-Dienste nach dem ISO-OSI-Modell

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Fischer 2006, S. 56.

Die Geschichte des Internets ist länger als die des World Wide Web. Die Zugangsbedingungen zum Internet haben sich in den letzten 10 Jahren stark verändert, was zu einer stärkeren Verbreitung und einer Zunahme seiner Nutzer geführt hat. Grund dafür ist nicht etwa eine neue Technologie, sondern vielmehr die bessere infrastrukturelle Ausstattung.

2.2 Abgrenzung und Definition des Web 2.0

Nachdem die Geschichte von Internet und World Wide Web beschrieben worden sind, wird im Folgenden das Web 2.0 zu seinem Vorgänger abgegrenzt. Dazu werden einige Prinzipien erläutert, die dem Web 2.0 innewohnen und sodann eine Abgrenzung anhand technischer, sozialer und ökonomischer Merkmale, sowie anhand der Nutzungsmöglichkeiten gemacht, um anschließend Web 2.0 zu definieren

2.2.1 Abgrenzung zum Web 1.0

Eine genaue Abgrenzung des Web 2.0 ist nur schwer möglich, da viele Prinzipien, die heute in Web 2.0-Anwendungen zu finden sind, bereits seit langem existieren und somit schon in Web 1.0-Anwendungen implementiert waren. O’Reilly bezeichnet Web 2.0 deshalb als „a set of principles and practices that tie together a veritable solar system of sites that demonstrate some or all of those principles, at a varying distance from that core” (O’Reilly 2005).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Mind Map des Web 2.0.

Quelle: Angermeier 2008.

Die Abbildung 2 stellt eine Mind Map des Web 2.0 dar, welche die Aussage O’Reilly’s veranschaulicht. Um dennoch eine Abgrenzung vornehmen zu können, nennt O’Reilly Beispiele, die er jeweils dem „Web 1.0“ oder „Web 2.0“ zuordnet, wie die folgende Tabelle 3 zeigt (vgl. O’Reilly 2005).

Tabelle 3: Gegenüberstellung von Web 1.0 zu Web 2.0

Abbildung in dieser Leseprobe nicht enthalten

Quelle: eigene Darstellung nach O’Reilly 2005.

Die Tabelle zeigt dem Web 2.0 zugeordnete Anwendungen und stellt diese ihren Web 1.0-Vorgängern gegenüber. Eine solche Auflistung erklärt jedoch den Wandel, den das Web erfahren hatte, nicht ausreichend und so wurde versucht, Prinzipien herauszuarbeiten, „that are demonstrated in one way or another by the success stories of web 1.0 and by the most interesting of the new applications“ (O’Reilly 2005).

Das Web als Plattform lautet eines dieser Prinzipien. Das global vernetzte Web stellt eine Plattform dar, in der Nutzer und Unternehmen wiederverwendbare Daten und Dienste nutzen und zur Lösung ihrer Probleme auf Dienste anderer zurückgreifen. Die Verwendung offener Standards löst dabei das Problem inkompatibler Software (vgl. Kollmann/Häsel 2007, S. 6-7).

Ein weiteres Prinzip, das schon den Erfolg der Internetgiganten des Web 1.0 ausmachte, ist, sich die kollektive Intelligenz des Webs zu Nutze zu machen. Die Entstehung offener Systeme hat das Erstellen sowohl individueller als auch kooperativer Inhalte ermöglicht (user generated content). Bruns (2008, S. 21) spricht in diesem Zusammenhang vom Nutzer als „Produser“, der Produzent und Konsument zugleich ist. Die aktive Teilnahme der Nutzer, die Informationen bereitstellen, kategorisieren und bewerten, ersetzt aus Anbietersicht die Pflege und Kontrolle der Inhalte, da die kollektive Intelligenz der Nutzer die Qualität der Inhalte sicherstellt. Der Wert eines solchen Angebots für den einzelnen Nutzer steigt sogar mit zunehmender Benutzerzahl gemäß dem Metcalfschen Gesetz quadratisch an (vgl. Raabe 2007, S. 22).

Online Wissensplattformen wie Wikipedia stellen hier ein gutes Beispiel dar. Wikipedia lebt von der Partizipation seiner Nutzer. Jeder kann Einträge verfassen, editieren und sogar löschen. Ebay stellt seinen Nutzern lediglich den Rahmen zur Verfügung, in dem sie ihre Transaktionen durchführen können und wächst mit jedem neu eingestellten Artikel. Nach einer abgeschlossenen Transaktion bewerten Käufer und Verkäufer den Verlauf ihrer Geschäftsbeziehung und bauen so Reputation auf. Amazon nutzt eine andere Art der Nutzerbewertung: Die Nutzer selber schreiben Rezensionen über die dort angegeben Produkte und bei der Produktsuche beginnen die Suchergebnisse mit den beliebtesten Produkten. Wird ein Artikel genauer betrachtet, so erscheint die Information „Kunden, die diesen Artikel gekauft haben, kauften auch…“.

Auch Blogs bieten ein gutes Beispiel für die Nutzung kollektiver Intelligenz. Ursprünglich als einfaches Werkzeug zur Publikation gedacht, ist durch den Einsatz von Permalinks und RSS mittlerweile ein dialogorientiertes Gebilde sich überlappender Communities entstanden: die Blogosphäre (vgl. Coates 2003). Mit Permalinks werden Brücken zwischen Blogs gebaut, so dass es möglich ist, direkt auf einen Beitrag einer fremden Seite zu verweisen und eine Diskussion darüber in Gang zu setzen (mehr zu Permalinks, Trackback und RSS in Kapitel 2.2.1). O’Reilly betrachtet deshalb die Nutzung der kollektiven Intelligenz als wichtigen Bestandteil von Web 2.0 (vgl. O’Reilly 2005).

Die Attraktivität von Anwendungen wie Blogs, Wikis und Communities oder Angeboten wie Amazon, ebay und Google geht immer von den Daten aus. Diese sind sogar wichtiger als die Anwendungen oder Plattformen, die sie nutzen (vgl. Kollmann/Häsel 2007, S. 7). Spezialisierte Datenbanken und Datenbankmanagement stellen somit eine Kernkompetenz des Web 2.0 dar (vgl. O’Reilly 2005). Während bei Blogs und Wikis diese Daten durch ihre Nutzer generiert werden (user generated content, vgl. Kapitel 2.2.1), Amazon seine Daten (ISBN-Nummern, Produktbeschreibungen und Fotos von den Herstellern) von anderen Unternehmen bezieht, aber auch die Käuferrezensionen in die Produktbeschreibungen aufgenommen hat und ebay Daten über Produkte und Verkäufer sammelt, haben andere Anbieter ihre Daten aufwendig entwickelt oder kostspielig erworben (vgl. O’Reilly 2005). Der Aufbau einzigartiger Datenbanken kann für Unternehmen in einem Wettbewerbsvorteil münden (vgl. Kollmann/Häsel 2007, S. 7). Diese Kontrolle über Datenquellen mit einem proportional zur Nutzungshäufigkeit steigenden Wert (vgl. O’Reilly 2005) lassen wiederum ein Prinzip des Web 2.0 erkennen.

Das zuvor beschriebene Prinzip des Web als Plattform ermöglicht es, Software nicht mehr auf dem eigenen System betreiben zu müssen, sondern direkt im Web nutzen zu können. Software wird im heutigen Internet-Zeitalter nicht mehr als Produkt, sondern als Service vertrieben (Software as a Service). Dadurch haben sich die Geschäftsmodelle von im Internet agierenden Unternehmen grundlegend geändert: Ein solcher Übergang erfordert ständige Anpassung, um die Software leistungsfähig zu halten (vgl. O’Reilly 2005). An die Stelle von über einen langen Zeitraum entwickelten fertigen Produkten treten ständig optimierte Services (vgl. Kollmann/Häsel 2007, S. 7). Nutzer werden zu Mitentwicklern gemacht, sei es durch aktive Beteiligung gemäß des „Open Source“-Gedankens oder indem ihr Nutzungsverhalten analysiert wird. Viele Softwarefirmen lassen einen Teil ihrer Kunden sog. „Beta-Versionen“ neuer Software testen, um so auf Fehler aufmerksam gemacht zu werden. Manche erstellen neue Softwareprodukte von vornherein „O pen Source“, was bedeutet, dass Quellcodes offen für jedermann sichtbar sind. Auf diese Art werden Nutzer in den Entwicklungsprozess mit eingebunden (Nutzung kollektiver Intelligenz). Die Folge ist, dass sich solche Software permanent in einem Beta-Stadium befindet (Perpetual Beta) und ständig weiterentwickelt wird (vgl. Alby 2008, S. 155). Der reibungslose Verlauf der internen Betriebsabläufe stellt somit zusammen mit der Echtzeit-Beobachtung des Nutzerverhaltens eine weitere Kernkompetenz erfolgreicher im Internet agierender Unternehmen dar (vgl. Kollmann/Häsel 2007, S. 7; O’Reilly 2005).

Neue Webservices können durch die Verknüpfung bereits bestehender Services geschaffen werden. Diese sog. Mashups werden dadurch ermöglicht, dass die Daten vieler Webservices nur lose an ihr System gekoppelt sind und somit auch in anderen Systemen genutzt werden können (vgl. O’Reilly 2005). Um die Informations- und Datendienste verschiedener Anbieter und Quellen einfach auswählen und kombinieren zu können, bedarf es leichtgewichtiger Architekturen. Programmierschnittstellen, die auf leichtgewichtigen Architekturen basieren, ermöglichen es, fremde Dienste einfach zu nutzen, eigene Dienste schnell zu erstellen und beide miteinander zu verbinden. Durch solche Verbindungen oder Kombinationen entstehen Mehrwerte, die innovative Geschäftsideen im Web 2.0 begründen (vgl. Kollmann/Häsel 2007, S. 7-8). So sind z.B. die Daten von Google Maps auf anderen Webseiten eingebunden.

Das Prinzip des „Web als Plattform“ schafft die Grundlage für das nächste zu nennende Prinzip, denn es ermöglicht, Software über Gerätegrenzen hinaus zu nutzen (vgl. O’Reilly 2005). Langfristig werden sich die Web 2.0-Plattformen vom Desktop-PC oder Laptop lösen und auch auf kleineren mobilen Endgeräten wie Mobiltelefonen, Musikabspielgeräten oder Navigationssystemen verfügbar sein (vgl. Kollmann/Häsel 2007, S. 8). Der Benutzer wird dann über einen „Webtop“ (Alby 2008, S. 135) Anwendungen bedienen, welche im Internet ausgeführt werden.

Reichhaltige Benutzeroberflächen stellen wiederum ein Prinzip von Web 2.0-Anwendungen dar. Die Benutzeroberflächen von Web-Applikationen ähneln zunehmend denen von Desktop-Applikationen. Dahinter stehen Technologien wie Java oder AJAX. Sie ermöglichen clientseitige Programmierung und bessere Benutzerführung und dienen der aktiven Darstellung von Inhalten im Browser und sogar vollwertigen Anwendungen (vgl. O’Reilly 2005).

Zusammengefasst lauten die Grundprinzipien des Web 2.0:

- Nutzung des Web als Plattform
- Nutzung kollektiver Intelligenz
- Zugang bzw. Kontrolle über einzigartige Datenquellen
- Software als Service / Perpetual Beta
- leichtgewichtige Architekturen
- Geräteunabhängigkeit
- reichhaltige Benutzeroberflächen

Ergänzend zu den oben beschriebenen Prinzipien werden im Folgenden weitere Merkmale herangezogen, um die Unterschiede zwischen Web 1.0 und Web 2.0 zu verdeutlichen.

Technische Abgrenzung des Web 2.0

Wie in Kapitel 2.1.2 bereits erläutert haben sich die technischen Bedingungen für den Zugang zum Internet in den letzten 10 Jahren verändert. Übertragungsgeschwindigkeiten haben sich deutlich erhöht, so dass Webseiten aufwendiger gestaltet werden konnten. Die Weiterentwicklung im Bereich der Computer-Hardware hat leistungsfähigere Systeme hervorgebracht, wodurch die Aufgaben zwischen Webbrowser und Webserver neu verteilt werden konnten (vgl. Schiller Garcia 2007, S. 6). Im Bereich der Software haben diese Faktoren die Entwicklung von Web-Applikationen ermöglicht, welche in Bezug auf die Anwenderfreundlichkeit Desktop-Anwendungen ähneln (reichhaltige Benutzeroberflächen). Ein weiterer technologischer Faktor ist das Aufkommen von Standards. Standardisierte Programmiersprachen (wie HTML, XML, CSS, JavaScript) erlauben die Entwicklung plattformunabhängiger Applikationen (vgl. Schiller Garcia 2007, S. 7). Durch Standardisierung wird es Unternehmen möglich, Datenaustausch mit beliebig vielen Geschäftspartnern durchzuführen, ohne die Schnittstellen anpassen zu müssen. Die Folge sind Zeit- und damit verbunden Kostenersparnisse im Unternehmen. Weitere wichtige Technologien im Zusammenhang mit Web 2.0 sind Ajax, XML, RSS, Atom, sowie Mashups, auf die im Folgenden näher eingegangen wird (vgl. Koch/Richter 2007, S. 8-11).

- AJAX
AJAX (Abkürzung für Asynchronous JavaScript and XML) verbindet die vorhandenen Standards Java Script und XML miteinander und ermöglicht, Web-Applikationen zu entwickeln, die die Vorteile von Web-Applikationen mit der Anwenderfreundlichkeit von Desktop-Anwendungen kombinieren. Durch AJAX wird das Problem behoben, dass bei jedem Klick bzw. jeder Anfrage eine Webseite neu geladen wird. Die starre Request/Response-Kommunikation zwischen Server und Browser entfällt. Durch AJAX wird eine Zwischenschicht kreiert (AJAX Engine), welche eine asynchrone Interaktion ermöglicht, so dass das Dokument nicht mehr komplett neu geladen werden muss. (vgl. Schiller Garcia 2007, S. 7 u. 21-22). AJAX bildet das Rückgrat vieler Web 2.0-Anwendungen (vgl. Gehrke/Gräßer 2007, S. 15). Mittels AJAX erhalten Web-Applikationen unter der Nutzung von Standards eine stabile und bessere Performance, als bei traditionellen Web- und Desktop-Applikationen (vgl. Schiller Garcia 2007, S. 100-101). Mögliche Probleme ergeben sich jedoch im Hinblick auf die Kompatibilität (unterschiedliche Web-Browser), die Sicherheit (JavaScript und teilweise auch ActiveX müssen im Web-Browser aktiviert sein und XML muss unterstützt werden), die Barrierefreiheit (Personen mit motorischen oder visuellen Einschränkungen kann eine Bedienung nur schwer ermöglicht werden), Latenzen (Zeitverzögerungen beim Versand von Daten über das Internet) und den ungewohnten Umgang (vgl. Schiller Garcia 2007, S. 99-100). Obwohl sich die Seitenbesuche in der Statistik verringern, da nicht immer die ganze Seite geladen werden muss, wird AJAX in immer mehr Anwendungen eingesetzt (vgl. Koch/Richter 2007, S. 8).

- XML
Die XML-Technologie kommt in Blogs zum Einsatz. Mittels XML können Blog-Inhalte verlinkt und mit anderen Blogs vernetzt werden. Dieser normierte Standard wird zur Codierung der Blogseiten und -inhalte benutzt. XML steht für „Extensible Markup Language“ und ist vom World Wide Web Consortium (W3C) entwickelt worden, um strukturierte maschinen- und menschenlesbare Dateien erstellen zu können. XML ist eine Metasprache, die Daten beschreibt und es ermöglicht, diese Daten unabhängig von dem Programm, das die Daten erstellt, zu speichern und zu organisieren, um so Daten und ihre Repräsentation zu trennen (vgl. Fischer 2006, S. 173).

- RSS
RSS dient der Veröffentlichung der Inhalte von Blogs und anderen häufig aktualisierten Webseiten und ist ein XML-basiertes Dateiformat. Die Abkürzung RSS hat mehrere Bedeutungen: Rich Site Summary (RSS 0.9x), RDF Site Summary (RSS 1.0) oder Real Simple Syndication (RSS 2.0) (vgl. Koch/Richter 2007, S. 10). RSS speichert Kurzbeschreibungen von Artikeln auf Webseiten (v.a. Nachrichten) und stellt diese in maschinenlesbarer Form bereit. RSS-Feeds sind XML-Dateien, die kein Layout oder Design beinhalten, sondern nur den Inhalt einer Seite (vgl. Fischer 2006, S. 173-174). So erlaubt es ein RSS-Feed ständig über aktuelle Geschehnisse informiert zu werden (wenn bspw. neue Einträge in einem Blog erscheinen), ohne dass man ständig die Seite manuell aufrufen muss. Um die RSS-Feeds lesen zu können, ist es möglich, auf verschiedene, als „News-Aggregatoren“ bezeichnete, Anwendungen zurückzugreifen. News-Aggregatoren können als Desktop-Lösung (individuell anpassbar), als Online-Aggregator (bedingt individualisierbar), als Public-Aggregator auf einer Webseite geordnet nach Themengebieten (nicht individualisierbar) oder als RSS-Suchmaschine auftreten (vgl. Fischer 2006, S. 174-175). RSS 2.0 ist die meistgenutzte Syndizierungsform. Eine Alternative zu RSS stellt Atom dar. Atom lässt zusätzlich Informationen über die Art der Inhalte zu und versucht die jeweiligen Vorteile der unterschiedlichen Formate zu vereinen (vgl. Koch/Richter 2007, S. 10).

- Mashups
Mashups sind Anwendungen, die die Daten unterschiedlicher Webservices miteinander vermischen (engl.: to mash = vermischen). Ermöglicht wird dies durch offene Programmierschnittstellen (APIs) (vgl. Chow 2008, S. 25). Ein Beispiel für einen Webservice mit offenen APIs ist Google Maps. Dieser Online-Kartographie-Dienst wird einerseits in viele andere Webservices eingebunden, um geographische Daten mit anderen Informationen zu verbinden (bspw. housingmaps.com, ein Dienst, der die Daten von Google Maps einbindet, um Immobilien-Angebote zu vermitteln) und ermöglicht andererseits Nutzern, Fotos sehenswerter Orte hochzuladen oder Informationen zu Orten einzugeben. Auch Amazon macht seine Datenbanken offen für jedermann zugänglich. So können andere Webseiten ein eigenes Shop-Angebot aufbauen, bei dem Amazon die Verkaufsabwicklung übernimmt und dafür Provisionen an die Seitenbetreiber zahlt (vgl. Chow 2008, S. 27). Wichtiger Bestandteil von Mashups ist eine dienstorientierte Architektur (SOA). SOA (Service Oriented Architecture) ist nötig, damit in Mashups oder Benutzungsschnittstellen, die auf AJAX basieren, direkt auf Daten zugegriffen werden kann. Ermöglicht wird dies über Webservices, die programmgesteuert über das Web-Protokoll (HTTP) Anfragen an andere Web-Dienste stellen, um die benötigten Daten zu erhalten (vgl. Koch/Richter 2007, S. 9). Dabei werden nicht alle Daten eines Dienstes heruntergeladen, sondern nur der Zugriff auf den Datendienst hergestellt (vgl. Schiller-Garcia 2007, S. 44).

Soziale Abgrenzung des Web 2.0

Aufgrund gesunkener Zugangskosten konnten immer mehr Nutzer mehr Zeit im Internet verbringen. Dadurch konnte die Kompetenz im Umgang mit dem Medium Internet wachsen. Mit steigenden Übertragungsgeschwindigkeiten konnten Programmierer aufwendigere Applikationen entwickeln, die den Bedienkomfort erhöhen und Nutzungshemmnisse reduzieren. Viele Web 2.0-Anwendungen verdanken ihre Popularität dem Zusammenspiel aus günstiger gewordenen Zugangskosten und einer steigenden Zahl an Breitbandanschlüssen (vgl. Gehrke/Gräßer 2007, S. 16). Konnte der Anwender bislang das Internet nur als Konsument nutzen, gestatten es ihm die neuen Anwendungen Blogs, Podcasts, Wikis und Social Software selber Inhalte zu produzieren. Nutzergenerierte Inhalte erweitern die Attraktivität des Internets dahingehend, dass der Nutzer die Möglichkeit erhält, das Internet aktiv mitzugestalten, ohne eine eigene Homepage besitzen zu müssen (vgl. Schiller Garcia 2007, S. 8). Der Begriff „Mitmach-Web“ wurde geprägt (vgl. Eck 2007, S. 20). Durch solche Angebote steigt die Macht des Individuums wodurch wiederum die Bereitschaft zum Engagement steigt. Web 2.0 hat eine Welle der Individualisierung und Demokratisierung des World Wide Web ausgelöst (vgl. Schiller Garcia 2007, S. 8).

Ökonomische Abgrenzung des Web 2.0

Im Bereich des E-Commerce haben sich durch die gestiegenen Bandbreiten und die gesunkenen Zugangskosten neue Vertriebsmöglichkeiten für immaterielle Güter ergeben. Vor der Jahrtausendwende machte der Verkauf von Musik über das Internet noch wenig Sinn, überstiegen die Übertragungskosten doch den Wert eines einzelnen Musikstücks, so dass kein Anreiz für den Anwender bestand (vgl. Alby, Tom 2008, S. 10). Mittlerweile sind die Kosten der Datenübertragung sowie die der Unterhaltung von Servern mit großen Kapazitäten derartig gesunken, dass solche Transaktionen relativ kostengünstig durchführbar sind. Die Möglichkeit, z.B. Musik in einer Vielfalt und Größenordnung anbieten zu können, die die des klassischen Musikgeschäfts bei weitem übersteigen, schafft weitere Anreize, solche Distributionswege einzuschlagen. Chris Anderson bezeichnet die durch das Internet neu erschlossenen Märkte als den „Long Tail“. Seine These: „The future of business is selling less of more.” Anderson hatte die Verkaufszahlen von großen amerikanischen Musikgeschäften mit denen von Online-Musik-Händlern verglichen und festgestellt, dass die Technologie des Internets einen nahezu grenzenlosen Markt erschließen ließ, auf dem nicht nur die „Hits“ aus dem Radio ein profitables Geschäft darstellten, sondern bspw. die Titel auf den Verkaufsrängen 25.000 bis 100.000 zusammengenommen ein Viertel des Gesamtumsatzes generierten (vgl. Anderson 2007, S. 21-24). Weitere Unternehmen, die den Long Tail nutzen, seien eBay mit dem Angebot von Gebrauchtwaren und Google durch seinen Werbedienst, mit dem auch kleine Werbekunden im Internet effizient werben können (vgl. Anderson 2007, S. 12).

Ausgehend von den Arten der Wertschöpfung (Intermediation und Disintermediation) kann von einer neuen Form von Wertschöpfung gesprochen werden, der Hypermediation. Während bei der Intermediation ein Produkt über einen Händler den Weg zum Kunden geht und bei der Disintermediation dieser Zwischenschritt über den Händler ausgeblendet wird, bezeichnet Hypermediation neue zwischengeschaltete Handelsstufen, die einen „Commerce as Clickstream“ (Carr 2000) ermöglichen. Ein Kunde klickt sich durch mehrere Webseiten, bis er letztlich ein Produkt kauft. Beginnend bei seiner Startseite, gelangt er zu einer Suchmaschine. Diese liefert ihm eine private Homepage mit Rezensionen zum gewünschten Produkt. Gleichzeitig findet er hier einen Link zu einem Online-Händler, der das gewünschte Produkt anbietet und bestellt es dort. Die Wertschöpfung findet hier bereits ab der eingestellten Startseite statt. Die Suchmaschine zahlt einen Betrag pro Klick, die private Homepage zahlt einen Betrag an die Suchmaschine und erhält auf der anderen Seite eine Provision vom Online-Händler, auf den er verlinkt hat (vgl. Schiller Garcia 2007, S. 81).

Das Web 2.0 hat den E-Commerce zum „Social Commerce“ erweitert, an dem immer mehr Menschen beteiligt werden (vgl. Gehrke/Gräßer 2007, S. 29).

2.2.2 Abgrenzung zu Social Software

Nach Przepiorka bezeichnet Social Software Internetdienste, die es mittels Webseiten ermöglichen, soziale Netze zu knüpfen, wobei die Unterstützung menschlicher Kommunikation, Interaktion und Zusammenarbeit im Mittelpunkt steht. Dazu zählt er Kontaktbörsen, Blogs und weitere Werkzeuge der kooperativen Zusammenarbeit, wie Wikis oder Instant Messenger (vgl. Przepiorka 2006, S. 13).

Auch Raabe greift auf die Definition von Przepiorka zurück, unterscheidet jedoch zwischen Social Software im engeren und im weiteren Sinne. Demnach umfasst Social Software im engeren Sinne Blogs, Wikis, Tagging-Systeme, Communities und Netzwerk-Plattformen. Social Software im weiteren Sinne beinhaltet für ihn Kommunikations-Anwendungen wie Email, Groupware, Foren und Instant Messaging, aber auch Telefon (vgl. Raabe 2007, S. 20-21). So wie Raabe betonen auch Zerfaß und Boelter (2005, S. 22) die Selbstorganisation, die bei der Gestaltung solcher Netzwerke vorherrscht. Den Unterschied zwischen Social Software und Groupware sehen sowohl Schiller Garcia als auch Raabe in der Freiwilligkeit. Die Gruppen bilden sich nicht nach übergeordneten Vorgaben, sondern anhand der Gemeinsamkeiten ihrer Mitglieder (Schiller Garcia 2007, S. 51). Bei Groupware ist die Vernetzung meist erzwungen, während sie bei Social Software freiwillig geschieht (Raabe 2007, S. 21).

Coates liefert folgende Definition: „Social Software can be loosely defined as software which supports, extends, or derives added value from, human social behaviour - message-boards, musical taste-sharing, photo-sharing, instant messaging, mailing lists, social networking“ (Coates 2003).

Ausgehend von der Strukturierung der drei Basis-Funktionen nach Schmidt, das den Einsatz von Social Software-Anwendungen in Identitätsmanagement, Beziehungsmanagement und Informationsmanagement unterteilt, entwickeln Koch und Richter eine eigene Definition von Social Software. Nach ihnen bezeichnet Social Software „Anwendungssysteme, die unter Ausnutzung von Netzwerk- und Skaleneffekten, indirekte und direkte zwischenmenschliche Interaktion (Koexistenz, Kommunikation, Koordination und Kooperation) auf breiter Basis ermöglichen und die Identitäten und Beziehungen ihrer Nutzer im Internet abbilden und unterstützen“ (Koch/Richter 2007, S. 12-13).

Darin sind die bereits 2003 (vgl. Schiller Garcia 2007, S. 52) durch Stowe Boyd genannten Eigenschaften von Social Software enthalten. Laut Boyd (2006) muss eine Anwendung, um als Social Software zu gelten, mindestens eine dieser Eigenschaften besitzen:

- Support for conversational interaction between individuals or groups
- Support for social feedback
- Support for social networks

Koch und Richter formulieren die drei Basisfunktionen um in Identitäts- und Netwerkmanagement, Informationsmanagement und Kommunikation und unterscheiden als Anwendungsklassen von Social Software:

- Blogs
- Wikis
- Social Tagging / Social Bookmarking
- Social Networking und
- Instant Messaging und Präsenz-Awareness Anwendungen.

Zur Veranschaulichung entwickeln sie in Anlehnung an Schmidt das „Social Software Dreieck“. In ihm werden die Anwendungsklassen je nach Funktion angeordnet, wie Abbildung 3 zeigt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: „Das Social Software Dreieck“

Quelle: Koch/Richter 2007, S. 14

Eine weitere Möglichkeit, Social Software Anwendungen zu charakterisieren ist, sie nach ihren Nutzungsmöglichkeiten zu unterscheiden. In Anlehnung an das SLATES-Model McAfee’s nennen Koch und Richter (2007, S. 14) als solche:

- Beiträge so leicht wie möglich veröffentlichen und editieren zu können,
- einfach strukturierende Metadaten mittels Tagging schaffen zu können,
- zusätzliche Inhalte und Metadaten einfach durch Annotations- und Verlinkungsmöglichkeiten bereitstellen zu können,
- durch Abonnementfunktion einfach auf aktualisierte Informationen aufmerksam gemacht zu werden,
- beigetragene Inhalte einfach zu finden und
- modular, dienstorientiert und datenzentriert aufgebaute Anwendungen zu nutzen.

Social Software ist eine besondere Form der kollaborativen Webapplikationen. Der Begriff steht für jedwede Applikation oder Anwendung, die unter Nutzung der mit Web 2.0 in Zusammenhang stehenden Technologien menschliche Interaktionen unterstützen. Wikis und Blogs stellen die bekanntesten kollaborativen Webapplikationen dar.

Sie werden als Social Software bezeichnet (vgl. Koch/Richter 2007, S. 13), da auch sie Werkzeuge der kollaborativen Zusammenarbeit sind.

2.2.3 Definition des Web 2.0

Der Name „Web 2.0“ wurde 2004 erstmals genannt (vgl. Schiller Garcia 2007, S. 1). Tim O’Reilly beschreibt in seinem Text „What is Web 2.0?“, den er am 30.09.2005 im Internet veröffentlichte, wie der Begriff „Web 2.0“ bei einer Brainstorming-Konferenz zwischen O'Reilly und MediaLive-International entstand. Dale Dougherty, Vizepräsident von O’Reilly, hatte angemerkt, dass trotz des Platzens der Dotcom-Blase zu Beginn des 21. Jahrhunderts das Internet nicht zusammengebrochen sei, sondern ständig neue Webseiten und Anwendungsmöglichkeiten auftauchen würden. Die zerplatzte Dotcom-Blase habe einen Wendepunkt markiert und so wurden die neuen Anwendungsmöglichkeiten und Webseiten unter dem Oberbegriff „Web 2.0“ versammelt (vgl. O’Reilly 2005). Die „Web 2.0-Konferenz“ war geboren und tagte zum ersten Mal am 05.10.2004 (vgl. Schiller Garcia 2007, S. 1). Heute findet Google bei der Suche nach „Web 2.0“ 424.000.000 Einträge (www.google.de, Zugriff am 12.09.2008) und ständig tauchen neue Internetseiten auf, die sich als Web 2.0-Anwendung begreifen.[4]

[...]


[1] Für eine detaillierte Übersicht über die (personelle) Geschichte des Internets siehe Hellige, Hans Dieter 2003: Die Geschichte des Internet als Lernprozess.

[2] Beispielsweise verlor die Aktie von „Yahoo“, die zeitweise für 200 US Dollar gehandelt wurde, knapp 95% ihres Wertes (vgl. Behrendt / Zeppenfeld 2007, S. 8).

[3] Siehe Glossar

[4] Zum Vergleich: Als O’Reilly den Text 2005 verfasste, ergab die Google-Suche 9,5 Millionen Ergebnisse (vgl. O’Reilly 2005).

Ende der Leseprobe aus 93 Seiten

Details

Titel
Web 2.0 in der Unternehmenskommunikation. Grundlagen, Anwendungen, Fallbeispiele
Hochschule
Universität Bremen  (Institut für Projektmanagement und Innovation)
Note
1,7
Autor
Jahr
2008
Seiten
93
Katalognummer
V133793
ISBN (eBook)
9783640404070
ISBN (Buch)
9783640404476
Dateigröße
1149 KB
Sprache
Deutsch
Schlagworte
Web 2.0, Podcast, Unternehmenskommunikation, Wiki, Public Relations, Social Software, World Wide Web, www, Online-Marketing, Marketing, Online-PR, Corporate Blogs, Social Tagging, Internet, Online-Kommunikation, Web 2.0 Fallbeispiele, web 2.0 Beispiele, Jamba, Klotüren
Arbeit zitieren
Martin Keßler (Autor:in), 2008, Web 2.0 in der Unternehmenskommunikation. Grundlagen, Anwendungen, Fallbeispiele, München, GRIN Verlag, https://www.grin.com/document/133793

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Web 2.0 in der Unternehmenskommunikation. Grundlagen, Anwendungen, Fallbeispiele



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden