Lade Inhalt...

Selektion im Internet. Das Konzept der Selektivität im neuen Medium

Hausarbeit 2000 24 Seiten

Medien / Kommunikation - Multimedia, Internet, neue Technologien

Leseprobe

1 Einleitung

Bei der täglichen Mediennutzung findet Selektion auf allen Ebenen statt. ,,Soll ich eine Tageszeitung abonnieren?", ,,Schaue ich mir den Spielfilm oder lieber die Talkshow an?" oder ,,Lasse ich mir einen ISDN-Anschluß für das Surfen zu Hause legen?" sind Fragen, die uns beim Umgang mit Medien beschäftigen.

Die Aufmerksamkeit innerhalb der Kommunikationswissenschaft, die der Selektivität im Kommunikationsprozeß zuteil wird, hat sich gerade in den letzten Jahren stark erhöht. Wir sprechen von Informationsflut, information-overkill und Selektionsdruck und denken dabei meist an das Internet. Doch auch durch die starke Ausweitung des Rundfunkangebotes gerade im privaten Sektor und der enormen Expansion der Verleger besonders auf dem Zeitschriftenmarkt führte schon vor der Etablierung des weltweiten Datennetzes Internet dazu, daß dem Mediennutzer eine stetig wachsende Fülle an verfügbaren Informationen bereit stand.

Entsprechend fiel das Konzept der Selektion und der Selektivität innerhalb der

Kommunikationswissenschaft durch eine dynamische und vielschichtige Entwicklung auf. So galt Rezipientenselektivität in den Vierziger- und Fünfzigerjahren noch als Schutzschild gegen Beeinflußungsversuche seitens der Massenmedien1, während der Begriff Selektion in den letzten Jahren eher als eine Nutzungsvariable verstanden wurde und besonderes Interesse in der Umschaltforschung fand (vgl. Schweiger & Wirth: 7f.).

Das Internet hat jedoch dazu geführt, daß wir von ganz anderen Dimensionen sprechen, wenn es um Informationsf ü lle geht. Gerade durch die enorme Informationstiefe, die das Internet aufweist, lassen sich kaum noch traditionelle Rezeptionsweisen bei der Internet-Nutzung beobachten. Wir haben es vielmehr mit einem aktiven Navigieren zu tun. Der Nutzer des neuen Mediums Internet ist weitaus mehr gefordert, ständig zu entscheiden und zu selektieren. Der Selektionsdruck ist für viele ins Unermeßliche gestiegen. Gerade der hypertextuale Charakter des Internets scheint völlig neue Formen der Selektion hervorzurufen und tritt gerade in den letzten zwei Jahren ganz besonders in den Fokus der Selektionsforschung als Teilgebiet der Kommunikationsforschung - ganz besonders häufig auch mit kommerziellen Hintergrund, wenn es um die Effektivität der Bannerwerbung im Internet geht.

Eine Forschergruppe um die beiden Kommunikationswissenschaftler Werner Wirth und Wolfgang Schweiger hat 1999 einen Reader zum Thema Selektion im Internet 2 herausgegeben, an dem ich mich in der folgenden Hausarbeit orientieren möchte. Dabei ist die Arbeit in zwei Teile unterteilt. Im ersten Teil werde ich auf die theoretischen Grundlagen des Selektionskonzeptes eingehen und einen kurzen systematischen Überblick über den derzeitigen Forschungsstand geben, um daraufhin den Versuch zu unternehmen, das traditionelle Selektionskonzept auf das Internet zu übertragen.

Im zweiten Teil der Hausarbeit möchte ich mit der Darstellung von empirischen

Forschungsergebnissen konkrete Selektions- und Rezeptionsstrategien untersuchen. So werde ich nach einem kurzen Studienüberblick das Clickstream-Modell und eine Studie zum Thema Suchstrategien im World Wide Web vorstellen.

2 Theoretische Grundlagen

2.1. Das Konzept der Selektivität - ein Forschungsüberblick

Unter Selektivität wird zunächst die Möglichkeit verstanden, die Umwelt durch die Verteilung von Aufmerksamkeit zu strukturieren, um so notwendigerweise die Komplexität zu reduzieren. Die Aufmerksamkeitsverteilung ist dabei das Resultat von Stimulus- und Rezipientenmerkmalen (vgl. Eilders: 24f.).

Für den Selektionsbegriff bietet Donsbach eine relativ breite Definition an, die sowohl Informationsvermeidung als auch Informationssuche und zudem noch unabsichtliches Medienverhalten miteinbezieht: ,,Selektionsverhalten ist ein Prozeß, in dem Individuen aus den ihnen in ihrer Umwelt potentiell zur Verfügung stehenden Signalen mit Bedeutungsgehalt aufgrund von deren physischen oder inhaltlichen Merkmalen bestimmte Signale bewußt oder unbewußt auswählen oder vermeiden" (Donsbach 1991: 28).

2.1.1. Die Theorie der kognitiven Dissonanz

Für die Entstehungsgeschichte der Selektionsforschung konstitutiv ist die Theorie der kognitiven Dissonanz. Seit der Längsschnittuntersuchung The People ´ s Choice zum amerikanischen Präsidentschaftswahlkampf, durchgeführt von Paul Lazarsfeld et al., gilt die Theorie als wichtigster Bestandteil der Untersuchungen zur selektiven Medienzuwendung (vgl. Eilders: 23).

Paul Lazarsfeld et al. versuchten 1944 den Einfluß der Medien auf die Wahlabsicht zu beweisen. Jedoch zeigte sich, daß trotz massiver Wahlkampfkommunikation die Wahlabsichten der Versuchsteilnehmer weitgehend stabil blieben. Begründet wurde dies mit der Selektivität der Mediennutzung: Argumente, die den jeweils präferierten Kandidaten stützten, wurden bevorzugt, während man Argumente der Gegenseite kaum Beachtung schenkte (vgl. ebd.: 23).

Die Erklärung für dieses Verhalten lieferte L. Festinger 1957 in seiner Publikation A Theory of Cognitive Dissonance. Darin beschrieb er die Dissonanzen zwischen verschiedenen Kognitionen (z.B. eigene Überzeugungen und neue Informationen) als unangenehm empfundenen Spannungszustand. Durch die Vermeidung dissonanter oder durch die Suche nach konsistenten Informationen, wird diese Spannung vermieden bzw. wieder abgebaut (vgl. Eilders: 23).

Empirische Befunde zu der Theorie der kognitiven Dissonanz sind jedoch uneindeutig. Für die Selektion von Information kann man nicht ausschließlich auf die Dissonanztheorie zurückgreifen. Für alternative Erklärungen der Informationsselektion wie N ü tzlichkeit, Attraktivit ä t, Neugier oder auch Vertrautheit von Informationen bieten sich alternative Ansätze an (vgl. Eilders: 24).

2.1.2. Alternative Ansätze bei der Informationsnutzung

2.1.2.1. Aufnahme inkonsistenter Informationen und aktive Informationssuche

Der Information-Seeking -Ansatz für den die Namen Donohew und Tipton stehen, geht zwar wie die Theorie der kognitiven Dissonanz davon aus, daß Inkonsistenzen andere Denkstrategien auslösen als konsistente Informationen, jedoch führt dies nicht dazu, daß inkonsistente Informationen gemieden werden - sie sind auch in der Lage, Eingang in das kognitive Rezpientensystem zu finden und Einstellungsveränderungen vorzunehmen (vgl. Eilders: 28).

Informationsverarbeitungstheorien betrachten Selektion aus der Perspektive des Wissenserwerbs und stellen die Frage, welche Informationen von Individuen wie in ihre bestehende Schemata3 integriert werden (vgl. Eilders: 28).

Theorien, die aktive Auswahlentscheidungen im Bereich Information behandeln, sind der Information Utility -Ansatz von Atkin, der als wichtigste Einflußgröße beim Selektionsprozeß die Nützlichkeit für die Bewältigung von Umweltanforderungen postuliert und der Supportive Selection -Ansatz von Ziemke, der die Kosten der Informationsannahme einen großen Einfluß zuordnet. Danach werden Informationen mit geringeren Kosten wahrscheinlicher ausgewählt, wenn diese die eigene Meinung unterstützen (vgl. Eilders: 29).

2.1.2.2. Selektion nach Nachrichtenfaktoren

Die empirische Forschung innerhalb der Nachrichtenwertforschung beschränkte sich lange Zeit auf die journalistische Selektion, obwohl Galtung und Ruge die Nachrichtenwerttheorie ursprünglich als allgemeines Selektionsmodell für die Informationsvermittlung konzeptionalisierten. Demnach endet die Nachrichtenvermittlung nicht erst mit dem Medienimage eines Ereignisses, sondern setzt sich über die Rezpientenwahrnehmung bis zum resultierenden Publikumsimage fort. Nach der an die Nachrichtenfaktorentheorie angelehnten Sichtweise von Selektion, findet in jeder Phase des Kommunikationsprozesses eine an die Nachrichtenfaktoren orientierte Auswahl statt (vgl. Eilders: 29f.).

Bei der Verarbeitung politischer Informationen sind die einflußreichsten Nachrichtenfaktoren nach Eilders, Merten und Ruhrmann Reichweite/Relevanz, Ü berraschung, Personenstatus und Kontroverse/Konflikt ( vgl. Eilder: 30).

2.1.3. Alternative Ansätze im Gesamtprogramm

Für die Seite der Unterhaltungsrezeption finden sich im Vergleich mit der Seite der Informationsrezeption nur sehr wenige Forschungsaktivitäten. Jedoch kann man feststellen, daß das Forscherinteresse bei der Unterhaltungsrezeption eindeutig auf die Publikumsseite fokussiert ist. Auf der Angebotsseite sind Programmstrukturanalysen und die Gewaltforschung als Forschungszweige herausragend, für die Betrachtung von Selektion jedoch nur bedingt relevant (vgl. Eilders: 31).

Im Forschungsfeld Rezeption von Unterhaltungsangeboten hat sich Peter Vorderer einen Namen gemacht. Er unterscheidet zwischen Eskapismustheorien, erregungsphysiologischen bzw. -psychologischen Erklärungen und Einstellungsmodellen (vgl. Eilders: 31). Doch auf der Basis von Einstellungskonzepten ist die Unterhaltungsrezeption nur ungenügend zu betrachten, da selbst bei der Rezeption von dissonanten Unterhaltungsinhalten eigene Überzeugungen und Einstellungen kaum eine Rolle spielen (vgl. Eilders: 31). Für die Betrachtung des gesamten Medienhandelns haben sich funktionalistische Ansätze als ausreichend erwiesen.

2.1.3.1 Funktionalistische Ansätze

Funktionalistische Ansätze beschränken sich nicht nur auf das Informationssegment, sondern beziehen das gesamte Medienhandeln mit ein. Die Medienzuwendung wird dabei mit Bedürfnissen und Motiven des Rezipienten erklärt. Mediennutzung ist demnach ein zweckgerichtetes Verhalten. Es soll der Befriedigung von Bedürfnissen dienen und entspricht aktuellen Rezipientenmotiven. Funktionalistische Ansätze entfernen sich also von der Fokussierung auf inhaltliche Medienmerkmale und konzentrieren sich mehr auf die individuellen Eigenschaften des aktiven Publikums - hier bemerkt man die Nähe der funktionalistischen Ansätze zum uses-and-gratifications -Ansatz. Diese Systematisierung von Rezipientenbedürfnissen ,,erweitern den auf die Informationsfunktion der Medien eingeschränkten Fokus auf andere Nutzungsmotive" (vgl. Eilders: 32). Als Beispiele für funktionalistische Ansätze sind das GS/GO (gratifications sought and obtained)-Modell als spezifische Weiterentwicklung des uses-and-gratifications -Ansatzes, die Neugiertheorie von Berlyne, bei der die Suche nach dem optimalen Aktivationsniveau das allgemeine Selektionskriterium bei der Umweltwahrnehmung ist, die mood-management- Theorie von Zillman, bei denen Individuen schlechte Stimmungen vermeiden, indem sie die Medieninhalte auswählen, die ihre Stimmung verbessern und die schon oben kurz angesprochene Eskapismustheorie von Vorderer, bei der die Selektion vom Bedürfnis nach Flucht aus dem tristen Alltag bestimmt wird (vgl. Eilders: 32 f.).

2.1.4. Selektivitätsperspektiven und Fazit

Die Aktivitäten auf dem Feld der Selektionsforschung lassen sich in sozialstrukturelle und individuelle Ansätze unterscheiden. Sozialstrukturelle Ansätze sind auf soziodemografische Merkmale (Geschlecht, Alter, Familienstand, Bildung, Berufstätigkeit) fokussiert - differenzierte Rezipientencharakteristika bleiben unberücksichtigt. Individuelle Ansätze dagegen lassen in die Untersuchungen Rezipientenmerkmale eingehen, die über die einfachen soziodemografischen Klassifizierungen hinausgehen. Nutzung wird dabei teilweise auch auf inhaltliche Merkmale des Medienangebotes bezogen. Ergebnis sind dabei in erster Linie Zuschauertypologien (vgl. Eilders: 34).

Zusammenfassend läßt sich sagen, daß Selektivität sowohl auf Kommunikator- als auch auf Publikumsseite hinreichend beschrieben wurde, jedoch bislang nur ungenügend erkl ä rt worden ist.

Problematisch ist, daß die unterschiedlichen Forschungstraditionen innerhalb der Selektionsforschung jeweils nur einen oder wenige Aspekte des eigentlich sehr komplexen Selektionskonzepts beleuchten. So trägt die Gratifikationsforschung Erkenntnisse zu Motiven und Bedürfnissen des Publikums bei, klammert jedoch konkrete inhaltliche Selektionskriterien aus. Die Nachrichtenwertforschung hingegen machen Aussagen über journalistische Auswahlkriterien, berücksichtigen aber kaum mögliche politische Intentionen bei der Auswahl von Nachrichten auf Seite des Rezipienten. Beide Forschungszweige stehen also relativ unverbunden nebeneinander und beide haben darüber hinaus einen deutlichen Schwerpunkt auf die Erklärung der Informationsselektion gesetzt - die Selektionsorientierung im Gesamtangebot wurde dagegen bislang nur unzureichend untersucht.

Bevor ich auf die Übertragung des Selektivätskonzepts auf das neue Medium Internet eingehe, ist es sinnvoll, kurz zusammenzufassen, was Selektion ist. Selektion ist also ein Teilprozess des Nutzungs- und Rezeptionsprozesses, bei dem vor dem Hintergrund begrenzter Ressourcen die eingehende bzw. aufgenommene Informationsmenge auf ein erträgliches, nützliches oder angenehmes Maß für die Weiterverwendung reduziert wird.

2.2. Selektion im Internet

Im Reader ,,Selektion im Internet" haben sich Werner Wirth und Wolfgang Schweiger mit der Problematik, Konzepte, Theorien, Modelle und Ergebnisse der herkömmlichen Selektionsforschung auf das Internet zu übertragen, befaßt. Dabei weisen die beiden Autoren darauf hin, daß es sich beim Medium Internet lediglich um ein Medium erster Ordnung handelt - also zunächst die Grundlage für Medien bildet, selber jedoch kein Medium im kommunikationswissenschaftlichen Sinne ist4 (vgl. Wirth & Schweiger 1999: 46). Von einem Medium zweiter Ordnung spricht man erst dann, wenn institutionalisierte Kommunikatoren auftreten, die mit Hilfe technischer Hilfsmittel Inhalte produzieren und distribuieren. Weiterhin braucht es Rezipienten, die diese Inhalte auch nutzen:

,,Techniken bed ü rfen der Vergesellschaftung und werden erst dann zum publizistischen Medium, wenn sie ü ber die Funktion eines technischen Vermittlungssystems hinaus in einen spezifischen institutionalisierten Handlungskontext eingebunden sind" (Neverla 1998: 29f.)

Außerdem weisen Wirth und Schweiger darauf hin, das Internet wie das Fernsehgerät gleichzeitig als Medium anzusehen. Zu häufig wird vergessen, daß sich das Internet in verschiedene Internetmodi aufteilt. Im kommunikationswissenschaftlichen Sinne interessant sind die Modi World Wide Web, Chat-Rooms/Newsgroups und E-Mail. Diese drei Modi unterscheiden sich hinsichtlich ihrer Vermittlungsart. Bei E-Mail spricht man von einer one-to-one -Kommunikation, beim ,,Massenmedium" des Internets, dem World Wide Web vom one-to-many -Medium und in Chat-Rooms und Newsgroups hat man es mit einer many-to-many -Kommunikation zu tun (vgl. ebd.: 46f.).

Außerdem gibt es Unterschiede zwischen den Internetmodi, betrachtet man deren Potentiale für soziale Interaktivität. Während das World Wide Web wie herkömmliche Massenmedien nur beschränkt Interaktivität zuläßt (die meisten Web-Sites sind starre Publikationen oder bieten lediglich kommerzielle Interaktion in Form von Shop-Systemen), sind E-Mail, Chat- Foren und Newsgroups ausschließlich Modi für soziale Interaktivität (vgl. ebd.: 47). Auch bezüglich der Übertragungsrichtung gibt es starke Unterschiede. Während User aus dem World Wide Web und von Newsgroups im Pull-Verfahren aktiv Angebote herunterladen müssen, werden dem Nutzer beim Modus E-Mail die Daten im Push-Verfahren auf Initiative des Senders geliefert (vgl. ebd.: 47).

2.2.1. Die Phasen der Selektion

Die Herausforderung besteht nun darin, die Internetmodi in das Selektionsmodell von Donsbach5 einzufügen. Die Abbildung 1 soll diesen Versuch illustrieren.

In der präkommunikativen Phase wählt der Rezipient ein bestimmtes Medium aus dem Angebot von mindestens zwei substituierbaren Medien. Im zweiten Teil dieser Phase wird ein konkretes Medienprodukt gewählt. Für die Internetmodi bedeutet dies, daß der Webbrowser für das World Wide Web, das Chat-Programm zum Chatten oder das E-Mail-Programm zum E-Mailen gestartet wird, um danach, ähnlich wie bei den herkömmlichen Massenmedien, ein bestimmtes Web-Angebot oder einen bestimmten Chat-Kanal aufzusuchen. Schwierig wird die Bestimmung der Phase 1 beim E-Mail. Da bei der interpersonalen Kommunikation E-Mail ein institutionalisierter Anbieter fehlt, entfällt auch die Phase 1 (vgl. ebd.: 50 ff.).

Die Unterschiede zwischen den traditionellen Medien und dem Internet sind in der kommunikativen Phase und der postkommunikativen Phase nahezu identisch. Genau wie bei TV und Print werden zunächst Fakten und Bewertungen wahrgenommen und verarbeitet und später erinnert (vgl. Wirth & Schweiger 1999: 53f.).

2.2.2. Die Selektionssituation

Um den Charakter der Selektionssituation während des Internet-Surfens herauszuarbeiten, haben Wirth und Schweiger ein Modell zur Beschreibung von Selektionssituationen (siehe Abbildung 2) auf das Internet übertragen.

Abbildung in dieser Leseprobe nicht enthalten

Im Folgende n sollen die Kriterien, die die Selektion ssituation auch im Internet charakterisieren, genauer beschrieben werden.

2.2.2.1. Medienmerkmale

Attribute erleichtern die Evaluation eines Links/einer Option und somit auch die Navigation und Selektion innerhalb der Surf-Session. Ein Link muß so nicht extra angewählt werden, um zu wissen, was einen beim Anklicken erwartet. Leider vermißt man nur zu häufig eine hinreichende Erklärung zu den aufgeführten Links. So hat man es bei der Benutzung von Suchmaschinen häufig nur mit einer zwei- bis vierzeiligen meist unverständlichen Beschreibung des gefundenen Links zu tun (vgl. Wirth & Schweiger 1999: 56). Die Komplexit ä t je Entscheidungssituation wächst mit der Zahl der möglichen Optionen auf einer Web-Site. Die Anzahl der vorhandenen Optionen schwankt. Zur Zeit kann man durchschnittlich elf thematische Links und ein bis zwei Funktionslinks je Web-Site vorfinden (vgl. ebd.: 56).

Eine angemessene Strukturierung kann die Komplexität einer Web-Site verringern. Es muß jedoch individuell für jede Web-Site entschieden werden, welche Art von Strukturierung angemessen ist. (vgl. ebd.: 56f.).

2.2.2.2. Personenmerkmale

Für die Untersuchung der Selektionssituation sind personale Dispositionen der Rezipienten von großer Bedeutung. Beachtet werden sollte dabei, welche Erfahrung mit dem neuen Medium der User mitbringt. So interpretieren erfahrene Nutzer Entscheidungssituationen im Netz effizienter als Anfänger6. Außerdem sollte man berücksichtigen, wie hoch das Involvement und die Motivation der Nutzer ist. Motivierte Nutzer sind in der Bewältigung von Entscheidungsaufgaben weitaus erfolgreicher als wenig motivierte Nutzer (vgl. Wirth & Schweiger 1999: 57).

Für die Selektionssituation entscheidend sind auch die Attribute Habitualisierung (,,Ist die Nutzung des Internets ritualisiert und damit kognitiv entlastend?") und Pers ö nlichkeit/kognitive Stile (Beispiel: ,,´Scannt´ der Nutzer schnell die ganze Seite oder konzentriert er sich auf einzelne Informationen?). (vgl. ebd.: 58).

2.2.2.3. Situation im engeren Sinne

Ganz entscheidend für den Situationscharakter ist die Transparenz der Situation. Von einer transparenten Situation spricht man, wenn dem Rezipienten alle Informationen, die er für eine effiziente Entscheidungsfindung braucht, bekannt sind. Dieser Zusammenhang ist auch eng verknüpft mit dem Begriff homo oeconomicus. Für die Transparenz im Internet förderlich sind beispielsweise Orientierungs- und Strukturierungshilfen in Form von Inhaltsverzeichnissen, visuellen Sitemaps, eindeutig bezeichneten Links oder zusätzlichen Navigationsinstrumenten. In der Realität jedoch weiß der Web-Nutzer meist gar nicht, ob sich hinter einem Link eine wissenschaftliche Rezension, weitere Linksammlungen, PR oder anwendungsorientierte Informationen verbergen (vgl. Wirth & Schweiger 1999: 58f.). Die Selektionssituation im Internet wird auch von einer relativ hohen Situationskontrolle charakterisiert. Der User ist, ähnlich wie beim Lesen, in der Lage, die Verarbeitungsgeschwindigkeit seiner Rezeption selbst zu bestimmen. Als Gegensatz ist hier das Fernsehen zu nennen, bei dem man der Darbietungsgeschwindigkeit ,,ausgeliefert" ist. Darüber hinaus ist der Internet-User weitestgehend in der Lage, Fehler und Fehlentscheidungen wieder rückgängig zu machen (beispielsweise mit der Back-, Home- Taste, der History-Funktion, der Liste der zuletzt besuchten URL-Adressen oder mit Hilfe der Bookmarklisten). Wir haben es also mit einer hohen Reversibilit ä t zu tun (vgl. ebd.: 59). Ständige komplexe Operationen wie Lesen, Vergleichen, Gewichten, Ausschließen und Auswählen führen dazu, daß der kognitive Aufwand bei der Internet-Nutzung vergleichsweise hoch ist. Lediglich der physikalische Verhaltensaufwand beim Surfen (Mausklick) ist, wie bei den herkömmlichen Medien, sehr niedrig (vgl. ebd.: 60).

2.2.2.4. Kontextfaktoren

Zu den Kontextfaktoren gehören die finanziellen Kosten, die immer noch zeitabhängig sind und sich außerhalb der Niedrigkosten-Gruppe (Universitätsangehörige, Studenten, Angestellte) aus Gerätebeschaffung, Internetzugang und Verbindungsgebühren zusammensetzt. Jedoch sind gerade in diesem Punkt in naher Zukunft mit der Einführung der ersten attraktiven Flatrate- Tarife in Deutschland7 Änderungen zu erwarten (vgl. Wirth & Schweiger 1999: 61).

Weiterhin sind in diesem Kontext der Zeitaufwand der Online-Nutzung zu nennen, der steigt, je mehr funktionale Äquivalente bestehen und je mehr Wege zum Ziel einer Internet- Recherche führen. Die L ä nge der Entscheidungswege wächst mit der Länge des erforderlichen Navigationspfades und die Optionsdichte gibt an, wieviele Optionen für jede zu treffende Entscheidung durchschnittlich vorhanden sind (ebd. 61).

In der Gesamtbetrachtung des auf das Internet angewandte Situationsmodell lassen sich folgende Kriterien sicher charakterisieren:

- Die Transparenz ist gering. Zu wenig hinreichende Informationen über weiterführende Links führen zu Unsicherheiten seitens der Nutzer.
- Die Kontrolle über die eigene Selektion ist relativ hoch, da die V erarbeitungsgeschwindigkeit weitestgehend selbst bestimmbar ist und etwaige Fehler sehr schnell reversibel gemacht werden können.
- Der medial bedingte Selektionsdruck ist hoch. Dazu tragen insbesondere lange Entscheidungswege und eine hohe Optionsdichte bei der Internet-Nutzung bei.

2.2.3. Entscheidungsmodell im Web: Der adaptive Nutzer

Um den klassischen Entscheidungstypus für das Internet zu finden, beziehen sich Wirth und Schweiger auf die Entscheidungstypen-Typologie von Svenson und Jungermann et al.8. Demnach unterscheidet man zwischen vier verschiedenen Entscheidungstypen. In der Reihenfolge der aufgeführten Typen steigt auch der jeweils benötigte kognitive Aufwand:

1. Routinisierte Entscheidungen: Die Zahl und Art der Optionen ist in immer wiederkehrenden Situationen stets gleich - zwischen Ihnen wird routinemäßig entschieden. So ist für viele das tägliche Einschalten der Tagesschau oder das Abrufen der E-Mails ein tägliches Ritual.

2. Stereotype Entscheidungen: Obwohl konkrete Situationen und Umstände unterschiedlich sind, wiederholen sich die Optionen und sind dem Nutzer zumindest strukturell vertraut.

Dies ist der Entscheidungstyp dem Wirth und Schweiger den

Entscheidungssituationen im World Wide Web zuschreiben. Zwar befindet sich der Internet-User jedesmal in einer einzigartigen Rezeptions- und Selektionssituation, jedoch wiederholen sich die Optionsmuster ständig - beispielsweise befinden sich auf der linken Seite der meisten Web-Sites die Navigationsleisten.

3. Reflektierte Entscheidungen: Dem Nutzer stehen keine stereotyp abrufbaren Präferenzen zur Verfügung. Er muß über seine Entscheidungen bewußt nachdenken.

Dieser Typus findet sich besonders bei wichtigen und bedeutsamen Recherchen im Internet wieder. Im Gegensatz zum Fernsehen ermöglicht das World Wide Web eine weitreichende Situationskontrolle (s.o.) und somit eine intensive Reflektion.

4. Konstruktive Entscheidungen: Keinerlei Optionen sind bekannt oder vorgegeben. Sie müssen erst durch intensive Suche nach Informationen geschaffen werden. Der kognitive Aufwand ist bei diesem Entscheidungstyp am höchsten. Man befindet sich in derartigen Entscheidungssituationen, wenn man nur vage Vorstellungen hat, was man eigentlich im Internet sucht. Häufig geht es auch Anfängern im Web so, daß sie Entscheidungen selber konstruieren müssen (vgl. Wirth & Schweiger 1999: 65f.).

Stereotype Entscheidungen, so Wirth und Schweiger, sind die klassischen Entscheidungstypen bei der World Wide Web-Nutzung. Da die Ausgangssituation jeweils unterschiedlich ist und sich die Optionen nur strukturell ändern, müssen Verluste an Sicherheit und Genauigkeit bei den Selektionsergebnissen hingenommen werden. Die beiden Autoren vermuten, daß sich der Internet-Nutzer höchstwahrscheinlich adaptiv verhält und einen Kompromiß zwischen Aufwand und Genauigkeit machen muß. Sie zeichnen darauf aufbauend ein Modell des adaptiven Nutzers:

- Er reagiert flexibel auf wahrgenommene situative Anforderungen und Möglichkeiten und wird entsprechend handeln.
- Seine Selektionsstrategien können zwar spontane und zufallsbasierte Elemente enthalten, trotzdem verfügt der adaptive Nutzer über ein Repertoire an Strategien und Heuristiken, die für den Einsatz unter unterschiedlichen Bedingungen geeignet sind.
- Sein adaptives Entscheidungsmodell ist ein komplexes und dynamisches - angereichert mit motivationalen, intentionalen, affektiven und attentionalen Komponenten. · Er wiegt ab: der kognitive Anspruch, den die medialen Situationscharakteristika an ihn stellen, wird er je nach seiner Motivation und seinen Fähigkeiten erfüllen oder er stützt sich auf einige für ihn wesentliche Parameter und kann so mit geringerem kognitiven Aufwand zu einer, wenn auch suboptimaleren, Entscheidung kommen (vgl. ebd. 67f.).

Wie in diesem Theorieteil deutlich geworden, ist der Selektionsbegriff und dessen Anwendung auf das Medium Internet ein komplexes und der steten Entwicklung unterworfenes Themengebiet. Bei der Reorientierung der kommunikationswissenschaftlichen Selektionsforschung müssen besonders die medialen Charakteristika des neuen Mediums/bzw. der neuen Modi mit einbezogen werden.

Bei der Beschäftigung mit dem Selektionsbegriff wird wieder einmal der stark

interdisziplinäre Charakter der Kommunikationswissenschaft deutlich, die Konzepte (hier insbesondere aus der Psychologie) übernimmt und anwendet.

Im zweiten Teil dieser Hausarbeit möchte ich auf einige Ergebnisse von empirischen Studien zum Thema Selektion im Internet eingehen.

3 Studien zur Selektion im Internet

3.1. Forschungsüberblick

Die bisher durchgeführten empirischen Studien zum Thema Selektion im Internet lassen sich in drei verschiedene Untergruppen einordnen (vgl. Wirth & Brecht 1999: 152ff.). Bei den instruktiven Nutzerstudien wird die Nutzungsweise im Versuch instruktiv vorgeben. Es werden innerhalb eines geschlossenen Autorensystems sowohl geschlossene als auch offenen Aufgaben9 gestellt. Faßt man die Ergebnisse der instruktiven Nutzerstudien zusammen, so läßt sich das World Wide Web-spezifische Nutzerverhalten zwischen search browsing (,,das Ziel ist klar"), general purpose browsing (interessante Quellen werden verglichen) und serendipitous browsing (nach Zufall Surfen) einordnen (vgl. ebd.: 152).

Somit wird hier schon deutlich, daß man kaum auf aussagekräftige gemeinsame Ergebnisse zurückgreifen kann. Darüber hinaus sind die im Versuch verwendeten Autorensysteme inhaltlich und strukturell stark begrenzt - ein Wechsel zwischen unterschiedlichen Nutzungssituationen ist nur bedingt realisierbar (vgl. ebd.: 152).

Die Logfile-Analysen zeichnen die Logfile-Protokolle während der gewöhnlichen Nutzungssituation unmerklich im Hintergrund auf. Sie können dadurch nicht-reaktiv Aussagen über die Aktionen bei einer Surf-Session machen. Logfile-Analysen haben ergeben, daß 42% aller Interaktionen zum sogenannten Backtracking - also rückwärtsgerichtete Navigation oder leave as you entered -Strategie - gezählt werden können. Außerdem hat man einen sehr hohe Bedeutung der regressiven Nutzungsweise feststellen können: Die Wahrscheinlichkeit, eine schon besuchte Web-Site wieder aufzurufen liegt bei 58% (vgl. ebd.: 153).

Obwohl die Logfile-Analysen nicht zuletzt aufgrund der geringen Reaktivität bei der Datenerhebung relativ valide sind, muß auf die fehlende Einsicht in die Navigationsintention des Users hingewiesen werden. Für eine ausreichende Interpretation der Selektionshandlungen fehlen bei den Logfile-Analysen die medialen und kontextuellen Daten (vgl. ebd.: 153).

Anders ist dies bei den Beobachtungsstudien. Die Versuchspersonen werden hier durch den Ablauf des Experiments moderiert und werden mit einer technischen Apparatur konfrontiert, die die medialen und kontextuellen Informationen erfassen können. Ein populäres Beispiel für Beobachtungsstudien ist die Eyetracking -Methode, die aus der Werbewirkungsforschung bekannt ist. Die Versuchsperson trägt einen Helm, der die Bewegungen der Augen detailliert festhält. Im Rahmen der Selektionsforschung für das Internet erhält man so Ergebnisse, wie der Rezipient einzelne Web-Seiten kognitiv bearbeitet. So fand man heraus, daß der Nutzer zunächst die Web-Site orientierend scannt und Überschriften und zum Teil die ersten Zeilen anliest. Danach folgt eine Evaluation und damit die Entscheidung für oder gegen einen Artikel. Bei positiver Evaluation wird der Text dann gelesen (vgl. ebd.: 153).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3

Problematisc h ist bei dieser Versuchskonstellation natürlich die sehr starke reaktive Erfassung der Daten. An den bisher durchgeführten Beobachtungsstudien läßt sich zudem kritisieren, daß sie meist nur bestimmte Aspekte oder bestimmte Pages untersuchen und somit keine externe Validität gewährleistet ist (vgl. ebd.: 154).

Einen Überblick über die drei Studiengruppen soll Abbildung 3 geben.

Faßt man die Ergebnisse aller bisher durchgeführten Web-Nutzungsstudien zusammen, so kann man die Navigation im Internet zwischen den folgenden fünf Polen lokalisieren:

a) Suche (Recherche, Scannen, Suchen) vs. Rezeption (rezeptive Aufnahme)
b) zielgerichtete Nutzung (Verfolgung eines zuvor festgelegten Ziels) vs. explorierende Nutzung (zweckfrei)
c) Zuwendung (positive Bewertung von Inhalten) vs. Vermeidung (Ablehnung von Inhalten)
d) Aktivität (der ,,aktive" WWW-Nutzer) vs. Passivität (,,Desktop-Potatoe")
e) Rationalität (vollständige Verarbeitung aller Informationen bevor Entscheidungen getroffen werden) vs. Spontaneität (affektive, spontane, heuristische Verhaltensweisen)

Die Selektion und Rezeption im Internet bewegt sich also zwischen den beiden grundlegenden Paradigmen Rational Choice und dem heuristischen Paradigma. In den üblichen Web-Studien dominiert aber deutlich noch das Rational Choice -Paradigma (ebd.: 154f.).

3.2. Das Clickstream-Modell

Das Clickstream-Modell ist ein Versuch, Selektionshandlungen im Internet zu untersuchen, ohne eine der beiden grundsätzlichen Selektionsentscheidungen (Rational Choice oder heuristisches Paradigma) a priori durch Modellvorstellungen auszugrenzen (vgl. Wirth & Brecht 1999.: 155).

Als Hauptkomponenten des entsprechenden Versuchs treten das Selektionsinteresse (Welche Ziele werden verfolgt?), die Selektionsorientierung (An welchen Merkmalen orientiert sich der Nutzer?), die Selektionshandlung (Welche beobachtbare de facto Selektion wird ausgeführt?) und die Evaluation (Wie und nach welchen Kriterien wird evaluiert und bewertet?) in den Fokus (vgl. ebd.: 156).

In drei 15-minütigen Surf-Phasen sollten nicht nur die offensichtlichen Ergebnisse der Selektion festgehalten werden, sondern auch mittels der Methode des Lauten Denkens10 Einblicke in die Informationsaufnahme- und verarbeitung bei einzelnen Selektionsentscheidungen erlaubt werden. In der ersten Surf-Phase bekamen die Versuchspersonen keine Aufgabe gestellt, es sollte lediglich gesurft werden. In der zweiten Phase mußte eine offenen Recherche-Aufgabe erfüllt werden, während in der dritten Phase die Versuchspersonen eine geschlossene Retrieval-Aufgabe lösen mußten. In einer Vorherund Nachherbefragung sollten Erfahrungen mit dem Medium World Wide Web und soziodemographische Daten der Probanden abgefragte werden. Darüber hinaus wurden die besuchten Web-Sites inhaltlich analysiert (vgl. ebd.: 157f.).

Neben den Ergebnis, daß pro Minute 4,6 Selektionen ausgeführt werden (also wird alle 13 Sekunde eine Aktion ausgeführt), werteten Werner Wirth und Michael Brecht die Ergebnisse nach fünf Dimensionen aus: dem Orientierungstyp (Wird eher rezipiert, also eher textlastige Webseiten aufgerufen oder wird eher navigiert, also Portal-Sites oder Link-Sites intensiv angesteuert?), dem Explorationsgrad (Wird durch Eingabe von Suchbegriffen oder Verfolgung von Themen-Links ,,neues Terrain" explorativ erkundet oder ist die Navigation eher regressiv, ohne explizites Ziel und eher negativ evaluiert?), dem Evaluationsgrad (Werden Selektionshandlungen evaluiert oder werden Evaluation und Reflexion für nicht erforderlich gehalten?), dem Grad der Zielkonsistenz (Wird durch breite Reflexion das Ziel ständig neu festgelegt oder wird ein Ziel in Zwischenstufen immer weiter verfolgt?) und der Rationalit ä t/Spontaneit ä t -Bipolarität (Findet ständige Evaluierung und Reflexion statt oder werden auch unreflektierte ad-hoc-Selektionen durchgeführt?) (vgl. ebd.: 168ff.). Die Ergebnisse lassen sich anschaulich in einem Spinnweb-Diagramm visualisieren (Abbildung 4). Demnach sind die dominierenden Dimensionen eindeutig Rezeption, Rationalit ä t und Zielverfolgung. Eher seltener treten bei der Internet-Nutzung Verhaltensmuster wie Navigation, Exploration und Zielfestlegung auf. Betrachtet man die Ergebnisse für die einzelnen Surf-Phasen, so fällt auf, daß in der freien ersten Surf-Phase die Dimensionen Navigation und Rezeption dominierten, während in den aufgabengebundenen Phasen Ziele verfolgt wurden und die Navigationsart stark regressiv war, somit das trial-and- error- Prinzip überwiegte (ebd.: 174).

Zusammengefaßt läßt sich sagen, daß sich beim Clickstream-Modell deutlich mehr Informationen über das Selektions- und Navigationssverhalten im World Wide Web generieren lassen als es beispielsweise bei einfachen Logfile-Analysen möglich ist. Auffallend ist, daß sich für die internetspezifische Selektionsforschung ein ähnlich großes Spektrum an Selektionsmustern auftut, wie schon bei herkömmlichen Medien dies der Fall ist. Wieder kann weder das Rational Choice -Modell noch das heuristische Entscheidungsmodell bestätigt werden. Die Internet-Nutzer reagieren da spontan und wenig reflektiert, wo für sie wenig auf dem Spiel steht. Somit ist das Modell des adaptiven Nutzers bestätigt. Auch die Versuchspersonen in dieser Studie setzten wie der adaptive Nutzer einen hohen kognitiven Aufwand immer dann ein, wenn es ihnen erforderlich schien, ansonsten ließen sich auch wenig reflektierte ad-hoc-Entscheidungen beobachten (vgl. ebd.: 175 ff.).

3.3. Suchstrategien im World Wide Web

Der wohl gravierendste Unterschied beim Suchprozeß im Word Wide Web im Vergleich zum Suchprozeß in herkömmlichen Medien ist der, daß nicht spezifisch gesucht wird, sondern daß vielmehr ein mehrdimensionaler Informationsraum mittels einer explorativen Suchstrategie ,,durchstöbert" wird. Dieser Vorgang ist häufig abhängig vom Vorwissen das Anwenders. Fehlt das Vorwissen, so fühlt sich der WWW-User meist überfordert.

Bevor ich eine Studie vorstelle, die die unterschiedlichen Web-Suchstrategien von Laien und Experten untersucht, möchte ich in einem kurzen Exkurs die Unterschiede und Vor- und Nachteile der einzelnen Suchhilfen im World Wide Web beleuchten.

Exkurs Suchhilfen im World Wide Web

Browsingdienste

Zu den wohl populärsten Browsingdienst im World Wide Web gehört sicherlich Yahoo!.

Zentrales Merkmal von Browsingdiensten ist die redaktionelle Aufarbeitung der Daten. Hinter einem Browsingdienst stehen also Menschen in Redaktionen. Browsingdienste arbeiten verzeichnisorientiert; die Daten sind in hierarchischen Strukturen organisiert, zum Beispiel nach Inhalten, Geographie oder Chronologie (,,What´s New?"). Der Nutzer kann dem Zielbereich anhand von Subkategorien schrittweise näher kommen (vgl. Winkler 1996) Browsingdienste haben den Vorteil, daß nur Texte, die die Redaktion für relevant und qualitativ ausreichend befindet, in den Katalog aufgenommen werden. So befinden sich in der Ergebnismenge kaum Suchtreffer, bei denen das Suchwort eher zufällig vorkommt. Darüber hinaus bieten die meisten Browsingdienste eine kurze Zusammenfassung der Dokumente an (vgl. ebd.).

Die redaktionelle und subjektive Vorselektion ist natürlich auch von negativer Natur.

Außerdem kann ein Browsingdienst nur einen geringen Teil der verfügbaren Web-Ressourcen abbilden. Da sich die Adressen der Web-Angebote ständig ändern, ist eine regelmäßige Überprüfung durch die Redaktion erforderlich. Da dies nur mit starker Zeitverzögerung möglich ist, ist die Aktualität der Suchergebnisse stark eingeschränkt (vgl. ebd.). Suchdienste Suchdienste, zu denen beispielsweise AltaVista, Lycos oder HotBot gehören, sind von Computern erstellte Datenbanken. Mittels Software-Robotern (sogenannten Softbots), werden die abgelegten Dokumente dem World Wide Web entnommen. Die Suchmaschine besteht demnach aus dem Informationssammler (Robot, Spider oder Crawler), der Indizierungssoftware und der Schnittstelle für Suchanfragen (vgl. Winkler 1996).

Abbildung in dieser Leseprobe nicht enthalten

Herausr agend ist die hohe Vollstä ndigkei t und Aktuali tät der erfaßte n Dokum ente.

Sogenannte tote Links werden beseitigt im Rahmen der Aktualisierungsintervalle der Datenbestände. Problematisch ist jedoch die sehr hohe Netzbelastung, die beim Betrieb der Softbots bei jeder Abfrage entsteht. Außerdem findet kein Datenaustausch zwischen den Suchrobotern statt, so daß Dokumente, in denen das Suchwort eher peripher vorkommt, neben hoch relevanten Dokumenten bei der Ergebnisauflistung gleichberechtigt vorkommen (vgl. ebd.).

Trotzdem setzen sich die Suchdienste weiter durch, da nur diese Suchart dem exponentiellen Wachstum der Informationen im World Wide Web Rechnung trägt.

Meta-Suchdienste

Meta-Suchdienste wie MetaCrawler, MetaGer, CUCI oder MetaSearch führen selber keinen Suchauftrag aus, sondern reichen diesen parallel an mehrere Suchdienste (s.o.) weiter. Die Suchergebnisse der einzelnen Dienste werden zurückgemeldet, teilweise aufbereitet und dem Anwender präsentiert (vgl. Winkler 1996).

Meta-Suchdienste sind gut geeignet für die Suche nach seltenen und speziellen Begriffen. Der Anwender muß so nicht jeden einzelnen Suchdienst abfragen und kann sehr viel Zeit sparen. Probleme bereiten Meta-Suchdienste ihren Nutzern jedoch mit der geringen Qualität der Suche. Meistens sind keine erweiterten Suchabfragen (Sucheinschränkungen, Optionen etc.) möglich. Weiterhin dauert eine Suchabfrage sehr viel länger als eine Suche mittels Browsingdienst, da sich die Netzbelastung mit der Menge der vom Meta-Suchdienst beauftragten Suchdienste erhöht (vgl. ebd.).

3.3.1. Die Studie

Ziel der von Christian Weber und Rudolf Groner durchgeführten Studie war es, herauszufinden, welche unterschiedlichen Suchstrategien Experten und Laien im World Wide Web anwenden. Die Suchbedingungen sollten zu diesem Zwecke möglichst realistisch und standardisiert gestaltet werden (vgl. Weber & Groner 1999: 186).

Vier Experten und vier Laien, die sich in ihrem Wissen über Suchmöglichkeiten im World Wide Web und über die Nutzungshäufigkeit und -art unterschieden11, sollten vorgegebene Aufgaben lösen. Die richtige Beantwortung der drei geschlossenen und drei offenen Fragen war dabei nicht ausschlaggebend. Die einzelnen Arbeitsschritte sollten laut kommentiert werden (Methode des Lauten Denkens) (vgl. ebd.: 186f.).

Zu den wichtigsten Ergebnisse gehört die Tatsache, daß häufig Suchprozesse mit den Worten ,,Ich versuche mal..." eingeleitet wurden. Man bereitet sich also auf eine längere Suche vor. Weiterhin kann man festhalten, daß sich die Suche nach Information im Web als ein Problemlösungsprozeß der Form TOTE (Test - Operate - Test) entpuppt. Man testet Suchwege so lange, bis das Endresultat befriedigend ist (vgl. ebd.: 189). Bemerkenswert war die Tatsache, daß Experten zu kaum besseren Resultaten kamen als die Laien. Jedoch wirkte die Suche der Experten professioneller. So wurden in dieser Versuchsgruppe häufiger Webadressen direkt eingetippt; die Experten verfügten über ein breiteres Wissensspektrum über Web-Angebote und trauten sich mehr zu. Zudem manipulieren Experten ihre Suche mittels Operators (AND, OR, NOT etc.) (vgl. ebd.: 188f.).

Auffallend war, daß Experten ihre Suche komplizierter gestalten. Anschaulich macht dies der Vergleich der Suchverläufe der Experten verglichen mit den Suchverläufen der Laien bei der ,,Snowboard"-Frage. Die Probanden mußten folgende Aufgabe lösen:

,,Du willst Dir ein Snowboard kaufen und wei ß t folgendes: es soll f ü r einen Anf ä nger geeignet sein, Du willst es vor allem im Tiefschnee einsetzen, Du bist 70kg schwer und ´ single scoop ´ . Welche Modelle kommen in Frage?"

Abbildung in dieser Leseprobe nicht enthalten

Wie in Abbildung 8 ersichtlich, nutzen Experten verschiedene Sucharten, öffnen in diesem Beispiel zwei Navigatoren-Fenster und haben unterschiedliche Suchstrategien. Sie sind weniger in die ,,rigideren" Suchmuster der Laien ,,gefangen".

Es stellt sich die Frage, ob es einen Aufgabentyp gibt, bei welchem viel Wissen um die Suchvorgänge eher hinderlich ist.

Abbildung 9 stellt die Suchverläufe der ,,Brasilien-Frage" gegenüber. Es wurde gefragt:

,,Finde die Fl ä che und Einwohnerzahl von Brasilien heraus!"

Abbildung in dieser Leseprobe nicht enthalten

Zwar läßt sich nicht konstatieren, daß Expertenwissen über Suchvorgänge hinderlich ist, jedoch fällt auf, daß das unvoreingenommene, ohne Suchoptionen durchgeführte LaienSuchschema in einer kürzeren Zeit zum gleichen Erfolg führt.

Zusammengefaßt läßt sich sagen, daß es bei der Suche im World Wide Web nur geringe Leistungsunterschiede gibt und daß sowohl Experten als auch Laien durch den Einsatz von den mittlerweile einfach zu bedienenden Suchmaschinen in fast allen Fällen erfolgreich sind. Beide Gruppen können aber voneinander lernen: Laien können sich das Wissen über die komplexen Vorgehensweisen bei der WWW-Suche ,,abgucken" und Experten können von der Voreingenommenheit der Laien lernen (vgl ebd.: 194).

4 Ausblick

Das neue Medium Internet stellt eine große Herausforderung an die Kommunikationswissenschaft dar. Theorien, die sich in der relativ jungen Wissenschaft durchgesetzt haben, müssen teilweise überarbeitet und ergänzt werden. Schließlich stellen gerade in letzter Zeit viele Teile der Gesellschaft - ob Politik, Wirtschaft oder Kultur - Fragen an die Kommunikationswissenschaft: Wie wird sich unser Alltag mit dem Einzug der vernetzten Medien verändern? Wie werden wir konsumieren? Was bedeutet das Internet für unsere zwischenmenschlichen Beziehungen?

Die Selektionsforschung hat sich nicht zuletzt mit dem hier behandelten Reader der Herausforderung Internet angenommen und ist zu dem Schluß gekommen, daß gerade die neuen medialen Charakteristika des Internets in die Selektionstheorie mit eingebunden werden müssen. Eine wichtige Rolle nimmt die Hypertextualität des World Wide Web - dem potentiellen vernetzten Massenmedium - ein. Sie beschert dem Selektionskonzept eine zusätzliche Dimension und das Phänomen des überhöhten Selektionsdrucks. Die Kommunikationswissenschaft sollte im Rahmen der Reorientierung der Selektionsforschung auf Nachbardisziplinen, insbesondere der Psychologie, zurückgreifen. Gerade aus der Entscheidungspsychologie lassen sich Modelle, Erfahrungen und Anregungen entnehmen.

Das Modell des adaptiven Nutzers, der nach Meinung der Autoren am häufigsten anzutreffen ist, könnte modellhaft für das Design von Webauftritten sein. So raten Werner Wirth und Wolfgang Schweiger: ,,Idealerweise sollte schließlich einem adaptiven Nutzer ein auf seine Bedürfnisse anpassbares Angebot gegenüberstehen."

Literatur

Donsbach, W. (1991): Medienwirkung trotz Selektion. Einflußfaktoren auf die Zuwendung zu Zeitungsinhalten. Köln: Böhlau.

Eilders, C. (1999): Zum Konzept der Selektivität: Auswahlprozesse bei Medien und Publikum, in: Schweiger, W. & Wirth, W. (Hrsg.): Selektion im Internet. Empirische Analysen zu einem Schlüsselkonzept. Opladen: Westdeutscher Verlag, 13-41.

Neverla, I. (Hrsg.): Das Netz-Medium. Kommunikationswissenschaftliche Aspekte eines Medium in Entwicklung. Opladen: Westdeutscher Verlag.

Weber, C. & Groner, R. (1999): Suchstrategien im WWW bei Laien und Experten, in:

Schweiger, W. & Wirth, W. (Hrsg.): Selektion im Internet. Empirische Analysen zu einem Schlüsselkonzept. Opladen: Westdeutscher Verlag, 181-196.

Winkler, H. (1996): Suchmaschinen. Metamedien im Internet? URL:

http://www.rz.unifrankfurt.de/~winkler/suchmasc.html (Online im Internet: 13.12.1999).

Wirth, W. & Brecht, M. (1999): Selektion und Rezeption im WWW: Eine Typologie, in: Schweiger, W. & Wirth, W. (Hrsg.): Selektion im Internet. Empirische Analysen zu einem Schlüsselkonzept. Opladen: Westdeutscher Verlag, 149-180.

Wirth, W. & Schweiger W. (1999): Vorwort, in: Schweiger, W. & Wirth, W. (Hrsg.): Selektion im Internet. Empirische Analysen zu einem Schlüsselkonzept. Opladen: Westdeutscher Verlag, 43-74.

Wirth, W. & Schweiger W. (1999): Selektion neu betrachtet: Auswahlentscheidungen im

Internet, in: Schweiger, W. & Wirth, W. (Hrsg.): Selektion im Internet. Empirische Analysen zu einem Schlüsselkonzept. Opladen: Westdeutscher Verlag, 43-74.

[...]


1 Behandelt in der Studie von Paul Lazarsfeld et al. ,,The People´s Choice" (1944)

2 Wirth, W. & Schweiger W. (1999): Selektion im Internet. Empirische Analysen zu einem Schlüsselkonzept. Opladen: Westdeutscher Verlag.

3 mit Schemata sind hier kognitive Strukturen gemeint, in denen individuelles Wissen und bisherige Erfahrungen organisiert sind und die die Verarbeitung von Umweltreizen steuern. Schemata erleichtern den Umgang mit komplexen Umweltreizen.

4 Zu Medien erster Ordnung werden alle Speicher-, Übertragungs- und Empfangsgeräte (CDROMs, Papier, Telefonleitungen oder TV-Geräte) gezählt

5 Donsbach, W. (1991): Medienwirkung trotz Selektion. Einflußfaktoren auf die Zuwendung zu Zeitungsinhalten. Köln/Weimar: Böhlau Verlag.

6 Sie verfügen über ein größeres domänenrelevantes Wissen, setzen die besseren Suchstrategien ein und evaluieren zielsicherer

7 Die beiden populärsten Online-Provider T-Online und AOL Deutschland planen noch für das Frühjahr 2000, attraktive Pauschal-Tarife (sogenannte Flatrate- Tarife) um 100 DM monatlich einzuführen (Quelle: NetBusiness 05/2000)

8 Svenson, O. (1990): Some Propositions for the Classifications of Decision Situations. In: Borcherding, K. et al. (Hrsg.): Contemporary Issues in Decision Making. Amsterdam. Jungermann et al. (1998): Die Psychologie der Entscheidung. Eine Einführung. Heidelberg.

9 Geschlossene Aufgaben erfordern eine spezifische Antwort, während offene Aufgaben eher unspezifisch gestellt werden

10 Hierunter ist eine periaktionale Verbalisation, also das sofortige reflexhafte Aussprechen präsenter Gedanken während der Navigation im WWW zu verstehen. Zur Methodik der Methode des Lauten Denkens: Ericsson, A. K. & Simon, H. A. (1980): Verbal Reports as Data, in: Psychological Review, 87, 215 - 251.

11 So wurde im Vorfeld abgefragt, was für eine Vorstellung die Probanden vom System World Wide Web (Aufbau, Wo finde ich was?, Dynamik etc.) haben, welche Such- Ausgangspunkte sie kennen und ob sie in der Lage sind, den Suchraum einzugrenzen

Details

Seiten
24
Jahr
2000
Dateigröße
735 KB
Sprache
Deutsch
Katalognummer
v99159
Institution / Hochschule
Westfälische Wilhelms-Universität Münster
Note
1,3
Schlagworte
Selektion Internet Konzept Selektivität Medium Multimedia Voraussetzungen Anwendungen Probleme

Autor

Teilen

Zurück

Titel: Selektion im Internet. Das Konzept der Selektivität im neuen Medium