Web Usability. Gestaltungskriterien und Evaluationsverfahren


Diplomarbeit, 2002

187 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

1. Einleitung
1.1 Das Thema dieser Arbeit
1.2 Aufbau und Gestaltung der Arbeit

2. Die HCI-Forschung
2.1 HCI – Human Computer Interface und Human Computer Interaction
2.2 Die Mensch-Computer-Interaktion (als solche)
2.3 Konfliktpotenzial bei der Mensch-Computer-Interaktion
2.3.1 Konfliktpotenzial - Die Metakommunikation
2.3.2 Konfliktpotenzial - Anwender contra Programmierer
2.3.3 Zielgruppenanalyse zur Vermeidung von Kommunikations-Konflikten
2.4 Forschung und Gestaltung im Bereich Human Computer Interaction
2.5 Disziplinen der HCI-Forschung
2.6 Benutzerschnittstellen - der Computer wird "usable"
2.6.1 Der Begriff "Schnittstelle" (Interface)
2.6.2 Der Begriff "Benutzerschnittstelle" und "Benutzeroberfläche"
2.6.3 Die "Grafische Benutzeroberfläche" (Graphical User Interface (GUI))
2.6.4 Die Geschichte der Grafischen Benutzeroberfläche
2.6.5 Das erste GUI – der Xerox Alto
2.6.6 Mehr Komfort für den Nutzer: Vom Kommandozeilen-Interface zum GUI
2.6.7 Die Schreibtisch- und die Menü-Metapher
2.6.8 Die Bedeutung von Icons für ein GUI

3. Das Internet - seine Dienste und Möglichkeiten
3.1 Das Internet
3.2 Das World Wide Web - der bekannteste Dienst des Internet
3.3 Matthias Horx prophezeit die Zukunft des Internet
3.4 Das kommerzialisierte Internet
3.4.1 Die Kommerzialisierung von Informationen
3.4.2 Das Internet als Marketingkanal
3.4.3 E-Business und E-Commerce
3.4.4 Entwicklung des E-Commerce in den letzten Jahren
3.4.5 Die Zukunft des E-Commerce
3.4.6 Die Bedeutung von Usability für den Erfolg eines E-Commerce-Angebots

4. Die Nutzer des Internet
4.1 Die Internetnutzung in Deutschland
4.2 Ergebnisse der ARD/ZDF Online-Studie
4.2.1 Die Internetnutzung einiger Zielgruppen
4.2.2 Nutzungsstrategien und Nutzungsdauer
4.2.3 Nutzungsprobleme
4.2.4 Schlussfolgerungen aus der Studie
4.3 Kategorisierung der Nutzungsziele
4.4 Die Bedeutung der Zielgruppenanalyse
4.5 Die Typologisierung von Internetnutzern
4.5.1 Das Verfahren der Typologisierung
4.5.2 Die Nutzertypologie des GFK Online-Monitors
4.5.3 Eine vereinfachte Nutzertypologie

5. Das Phänomen Hypertext
5.1 Die historische Entwicklung des Hypertext-Konzepts
5.2 Definition des Begriffs "Hypertext"
5.2.1 Herkunft des Wortes
5.2.2 Wortbedeutung
5.2.3 Definition
5.3 Abgrenzung eines Hypertextdokuments
5.4 Hypertexttypen
5.5 Die Strukturkomponenten eines Hypertextes
5.5.1 Knoten
5.5.2 Verweise (Hyperlinks)

6. Das Konstrukt Website
6.1 Begriff und Definition
6.1.1 Abgrenzung
6.2 Die Kategorisierung unterschiedlicher Websites
6.2.1 Die Kategorisierung von Yahoo nach Themengebieten
6.2.2 Die Kategorisierung von Modalis Research nach Business-Modellen
6.2.3 Die im Rahmen dieser Arbeit entwickelten Kategorien
6.3 Die Webpage
6.3.1 Begriff und Definition
6.3.2 Elemente einer Webpage
6.3.3 Webpage-Kategorien

7. Das Qualitätskonzept Web Usability
7.1 Der Erfolg einer Website
7.2 Die Ergonomische Qualitätssicherung
7.3 Begriff und Definition von "Usability" bzw. "Web Usability"
7.4 Die Usability-Definition von Jakob Nielsen
7.5 Usability als "Ease of use" und "Quality of Use"
7.6 Normen und Standards
7.6.1 Die ergonomische Norm DIN EN ISO 9241
7.6.2 Die zentrale Norm 9241 Teil 11
7.6.3 Die Normen 9241- 10 und -12 bis -17
7.6.4 Objektive und subjektive Gebrauchstauglichkeit
7.6.5 Die Rolle der ergonomischen Normen bei der Evaluation eines Interfaces
7.7 Usability als Kombination aus "quality of use" und "joy of use"
7.8 Zusammenfassung der Usability-Definitionsansätze

8. Die Accessibility und Performanz einer Website
8.1 Barrierefreier Zugang für jedermann?
8.2 Die gesetzliche Verankerung des barrierefreien Internetzugangs
8.3 Richtlinien für eine barrierefreie Gestaltung von Websites
8.4 Die Validierung der Accessibility
8.5 Performanz als Faktor der Accessibility und Usability

9. Das Dialogdesign (Navigationsdesign) einer Website
9.1 Grundsätze der Dialoggestaltung nach der DIN EN ISO 9241-10
9.2 Aspekte der menschlichen Informationsverarbeitung
9.2.1 Das Chunking-Prinzip
9.2.2 Kategorien und Schemata
9.2.3 Mentale Modelle
9.2.4 Navigationsverhalten und Motivation
9.2.5 Navigationsverhalten und Involvement
9.2.6 Der Flow-Effekt als Idealzustand
9.3 Die Informationsarchitektur von Websites
9.3.1 Grundmuster der Website-Gliederung
9.3.2 Die hierarchische Informationsarchitektur
9.4 Unterschiedliche Gliederungs-Typen von Websites
9.4.1 Metapher
9.4.2 Tunnel
9.4.3 Portalseite als Homepage
9.4.4 Leitseite als Homepage
9.5 Orientierung und Navigation auf einer Website
9.5.1 Die Orientierung im Hyperspace
9.5.2 Der Browser als Orientierungshilfe
9.5.3 Seitentitel zur Orientierung
9.5.4 Kognitive Kontrolle und Feedback
9.6 Interaktive Navigationsübersichten
9.6.1 Navigationsmenüs
9.6.2 Navigationsmenü oder Suchmaschine?
9.6.3 Das Brotkrumen-Prinzip (Threading)
9.6.4 Der Einsatz von Navigationsmetaphern
9.7 Interaktionselemente
9.7.1 Assoziative und strukturelle Links
9.7.2 Externe und interne Links
9.7.3 Vorschaulinks
9.7.4 Querlinks und Deeplinks
9.7.5 Linkfarben und Linkbenennung
9.7.6 Das Ziel eines Links
9.7.7 Verlinkte Grafiken
9.7.8 Der Einsatz von Verhaltensmetaphern
9.7.9 Pull-down-Menüs
9.8 Zusätzliche Hilfestellungen
9.8.1 Sitemaps
9.8.2 FAQs - Häufig gestellte Fragen

10. Das Screendesign einer Website
10.1 Aspekte der optischen Wahrnehmung
10.1.1 Räumliches Sehen
10.1.2 Die linke und rechte Gehirnhälfte
10.1.3 Gestaltpsychologie
10.2 Farbwahrnehmung, Farbmodelle und Farbkontraste
10.2.1 Die Wahrnehmung und Interpretation von Farben
10.2.2 Unterschiedliche Farbmodelle
10.2.3 Farbkontraste
10.2.4 Der Einsatz von Farben auf einer Website
10.2.5 Konsequenz der Farbgestaltung für das Screen-Design
10.3 Typographie und Wording: Lesen am Bildschirm
10.3.1 Allgemeine Faktoren der Leserlichkeit
10.3.2 Die Typographie auf Websites
10.4 Bewegung und Animation
10.5 Grundsätze der Layoutgestaltung
10.5.1 Diagonalen und Schrägen
10.5.2 Die Blickrichtung
10.5.3 Das visuelle Gleichgewicht
10.5.4 Weißraum und Framing
10.5.5 Der Mittelpunkt einer Bildschirmfläche
10.5.6 Der Goldene Schnitt
10.5.7 Die Größe und Anordnung von Schaltflächen
10.5.8 Fazit zum Layout einer Webpage

11. Das Inhaltsdesign einer Website
11.1 Grafiken und Photos
11.2 Video
11.3 Audio

12. Schreiben für das World Wide Web
12.1 Hypertext als Sonderfall des herkömmlichen Textes
12.1.1 Linearität und Nicht-Linearität
12.1.2 Intertextualität
12.1.3 Interaktivität
12.1.4 Die Aufweichung des traditionellen Autoren-Begriffs
12.1.5 Die Aufweichung des traditionellen Leser-Begriffs
12.1.6 Die elektronische Umsetzung
12.1.7 Das Hypertext-Konzept im Vergleich zu herkömmlichen Texten
12.2 Textgestaltung für das World Wide Web
12.2.1 Das Leseverhalten im Web und seine Auswirkung auf die Textgestaltung
12.2.2 Vertrauen und Glaubwürdigkeit bei Texten
12.2.3 Klare und weiterführende Informationen
12.2.4 Wortwahl und Sprachstil
12.2.5 Der Spannungsbogen
12.2.6 Fazit

13. Kulturabhängige Gestaltungsfaktoren
13.1 Sprache
13.2 Farben
13.3 Kulturabhängige Icons und Symbole
13.4 Kulturelle Einflussfaktoren nach Hofstede
13.4.1 Der Faktor Machtdistanz
13.4.2 Weitere Faktoren
13.5 Der Faktor Kultur bei der Entwicklung und Evaluation
13.6 Fazit

14. Die Usability von Flash-Websites

15. Evaluationsverfahren zur Untersuchung von Web Usability
15.1 Der Evaluationsprozess einer Website
15.2 Websites als Untersuchungsgegenstandder Online-Marktforschung
15.3 Erhebungsmethoden der Marktforschung im Überblick
15.4 Aspekte der Online-Marktforschung
15.4.1 Sekundär- und Primärforschung
15.4.2 Quantitative und qualitative Forschung
15.4.3 Adressierte und anonyme Forschung
15.4.4 Reaktive und nicht-reaktive Methoden
15.4.5 Die Datenqualität bei Online-Befragungen
15.4.6 Rechtliche Aspekte der Online-Befragung
15.5 Methoden der Online-Befragung
15.5.1 Befragung per E-Mail und in Newsgroups
15.5.2 Unstandardisierte Befragungen
15.5.3 Befragungen im WWW
15.5.4 Spezielle Online-Untersuchungsmethoden
15.6 Die Server-Logfile-Analyse und das User-Tracking
15.6.1 Die Informationen aus den Server-Logfiles
15.6.2 Das User Tracking
15.6.3 Probleme bei der Analyse von Logfiles
15.6.4 Rechtliche Aspekte des User-Trackings
15.6.5 Die Kombination von Online-Befragung und Logfile-Analyse
15.6.6 Das Web Mining
15.6.7 Logfile-Analyse und Web Mining zur Untersuchung der Web Usability
15.7 Offline Methoden zur Untersuchung von Usability
15.7.1 Quantitative Methoden
15.7.2 Qualitative Methoden
15.7.3 Das standardisierte DATech-Prüfverfahren
15.7.4 Kosten und Nutzen eines Usability-Tests

16. Der Usability Engineering-Prozess
16.1 Die Analyse-Phase
16.2 Die Entwurfs- und Design-Phase
16.2.1 Ausrichten des Dialogdesigns an Zielgruppenstrukturen
16.2.2 Der Einsatz eines Prototyps
16.2.3 Der Einsatz von Storyboards
16.2.4 Der Einsatz von Usability Pattern
16.3 Die Implementierung und der Launch des Angebots
16.4 Zeitpunkt und Methoden der Evaluation im Überblick

17. Das "Projekt BerlinBeta"
17.1 Gegenstand der Untersuchung
17.1.1 Das Untersuchungsziel und die Grenzen der Untersuchung
17.1.2 Überblick über das Vorgehen und die verwendete Methoden
17.2 Die Nutzungshäufigkeit der Website
17.3 Der Aufbau der Website
17.4 Der Think Aloud-Test
17.4.1 Die Testpersonen und der Ort der Untersuchung
17.4.2 Bearbeitung der Szenarien durch die Testpersonen
17.4.3 Die Ergebnisse des Think Aloud-Tests
17.5 Befragung im Anschluss an den Think Aloud-Test
17.5.1 Befragung zur gesamten Website
17.5.2 Befragung zu einzelnen Bereichen der Website
17.6 Zusammenfassung der Ergebnisse aus Analyse, Test und Befragung
17.7 Maßnahmen zur Optimierung
17.8 Die Erkenntnisse aus dem Projekt

18. Schlusswort

19. Literaturverzeichnis

Find raus, was sie wollen, und wie sie`s wollen, und gib`s ihnen genau so.

Fats Waller

1. Einleitung

1.1 Das Thema dieser Arbeit

Die Motivation

Im Jahr 2000 gründete sich innerhalb des Studienganges Medienberatung an der Technischen Universität Berlin die Arbeitsgruppe und spätere GbR Demotopia Online-Forschung. Unser Ziel war es, Verfahren zu entwickeln und einzusetzen, die es ermöglichen sollten, Aussagen über die Nutzer und die Nutzung von Websites zu machen. Dies stand im Zusammenhang mit der Annahme, dass nur solche Web Angebote frequentiert und akzeptiert werden, die im Sinne der Nutzer und nach deren Ansprüchen - also mit für sie relevanten Inhalten und einer benutzerfreundlichen Gestaltung - entwickelt wurden. In diesem Zusammenhang entstand auch die Idee zu dieser Arbeit, die sich mit dem "Phänomen Web Usability" befassen soll.

Die Motivation, sich mit dem Thema Usability zu beschäftigen, ergab sich auch aus der Evaluation der Website http://www.berlinbeta.de, dem Begleitangebot im Internet zu einem Berliner Medienfestival. Meine Aufgabe war es, Optimierungsmöglichkeiten in Bezug auf die benutzerfreundliche Gestaltung der Internetpräsenz für einen geplanten Relaunch im Herbst 2001 zu erarbeiten. In diesem Zusammenhang befasste ich mich mit möglichen Gestaltungskriterien und Evaluationsverfahren der Web Usability - den zentralen Themenbereichen der vorliegenden Arbeit.

Das Thema

"Usability" bedeutet nach der ISO Norm 9241 das Ausmaß, in dem ein Produkt von einem bestimmten Benutzer verwendet werden kann, um bestimmte Ziele in einem bestimmten Kontext effektiv, effizient und zufriedenstellend zu erreichen[1]. "Web Usability" bezeichnet in diesem Sinne also die benutzerfreundliche Gestaltung einer Website.
Die Bedingungen, die erfüllt sein müssen, damit eine Internetpräsenz diese Gebrauchstauglichkeit erreicht, sowie die Maßnahmen, die getroffen werden können, um ein Angebot auf das Qualitätsmerkmal Usability hin zu überprüfen und zu optimieren, sollen im Rahmen dieser Arbeit dargestellt werden.

Dabei geht es mir nicht um die Betrachtung der Problemstellung aus dem Blickwinkel der einen oder anderen wissenschaftlichen Methode, sondern es soll ein integrativer Ansatz versucht werden, um der Komplexität des Themas gerecht zu werden - also die Kombination historischer, linguistischer, psychologischer, betriebswirtschaftlicher etc. Herangehensweisen - im Sinne der interdisziplinären Tradition der Studiengangs Medienberatung bzw. der Medienwissenschaft als solcher.

Im Zentrum steht also weniger das Beispiel aus der Praxis des Usability Engineering (die Untersuchung der Website http://www.berlinbeta.de), sondern die Einordnung des "Phänomens Web Usability" in seinen theoretischen Bezugsrahmen und die Betrachtung der Gestaltungs-, Evaluations- und Produktionsmöglichkeiten einer benutzerfreundlichen Website aus unterschiedlichen Perspektiven.

Warum dieses Thema in diesem Studiengang?

Die Funktionsweise der Kommunikation hat sich mit der Entwicklung des Internet nicht verändert, es werden nur andere Kanäle und neue Möglichkeiten genutzt. Eine Website bildet dabei wie jede andere Softwareanwendung eine Schnittstelle zwischen Mensch und Maschine. Die Forschung im Bereich Usability untersucht in diesem Sinne die Kommunikation und Interaktion zwischen Mensch und technischem Apparat mit dem Ziel, sie zu optimieren und das den elektronischen Medien innewohnende Risiko von Kommunikationsfehlern zu minimieren.
Die Beschäftigung mit dem Verhältnis von Mensch und (Kommunikations-)Technik bildete schon von Anfang an einen Schwerpunkt des Studienganges Medienberatung an der TU Berlin und mündete u.a. in den Arbeitskreis Technische Dokumentation, der sich mit dem Sinn und Unsinn von Gebrauchsanleitungen und ihrer optimalen Gestaltung befasst[2].

In diesem Sinne und auch durch den multidisziplinären Ansatz, der auf dem Grundverständnis des Studiengangs basiert, dass Medien und ihre Wirkung nicht isoliert und einseitig betrachtet werden können und sollen, möchte ich mit dieser Arbeit einen Beitrag leisten zum Verständnis der besonderen Kommunikationssituation im Internet und ihrer Auswirkung auf die Gestaltung und den Einsatz der sogenannten Neuen Medien.

Die Relevanz des Themas

Die Pionierzeiten des Internet sind vorbei. Ging es Unternehmen noch vor wenigen Jahren vor allem um die Selbstdarstellung und eine generelle Präsenz im Netz, wollen und müssen sie heute mit ihrer Website Umsatz generieren und mit ihren Geschäftpartnern und Kunden über diesen neuen Kanal kommunizieren.

Durch die zunehmende Konkurrenz genügt es dabei längst nicht mehr, Methoden des Print-Designs oder ganze Multimediapräsentationen einfach ins Internet zu übertragen. Dagegen muss den besonderen Eigenarten des Mediums Rechnung getragen werden und der Fokus auf eine mediengerechte Gestaltung der Web Angebote gelegt werden. Die Gestaltung einer Website darf in diesem Zusammenhang nicht mehr nur als visueller Faktor einer medialen Produktion verstanden werden, sondern muss als funktionaler Bestandteil des gesamten Projektmanagements betrachtet werden. Im Sinne des Grundsatzes "form follows function" muss deshalb das Design eines Angebots - gerade bei einem so stark technisch determinierten Medium - als Bestandteil und Voraussetzung seiner Funktionalität betrachtet werden.

Der "Usability-Guru"Jakob Nielsen stellt dazu in seinem Buch "Erfolg des Einfachen" fest:

"Benutzerfreundlichkeit ist im Internet der entscheidende Faktor. Einfach ausgedrückt bedeutet das: Wenn der Kunde kein Produkt finden kann, dann wird er es nicht kaufen."[3]

Dass der Erfolg eines (technischen) Produkts auch von seiner Benutzerfreundlichkeit und Bedienbarkeit abhängt ist allerdings keine neue Erkenntnis. Das beste Beispiel für die potenzielle Unbrauchbarkeit eines Produkts ist wohl der Videorekorder, der ohne Bedienungsanleitung kaum benutzt werden kann. Im Gegensatz zu diesem Fall, wo sich die Benutzerfreundlichkeit eines Produkts meist erst nach dem Kauf herausstellt, führt ein derartiger Mangel im Internet direkt und sofort zum Abbruch eines Nutzungs- oder Kaufvorgangs. Der Faktor Usability wird somit zu einer Grundvoraussetzung für die Qualität eines Angebots, denn ein einziger Klick kann über den Erfolg oder Misserfolg der Internetpräsenz entscheiden.

Im Mittelpunkt der Gestaltung von Websites steht deshalb die Herausforderung, den Kommunikationsprozess im Sinne der vorhandenen und potenziellen Kunden zu gestalten und den konkreten Nutzen des Mediums für den Anwender zu erkennen und herauszuarbeiten.

Die Marktkrise der New Economy bietet in diesem Sinne also zumindest den Marktforschungsunternehmen neue Möglichkeiten, denn „die Unternehmen sind gezwungen, sich mit besonders nutzerfreundlichen Sites vom Wettbewerb abzuheben.[4]

1.2 Aufbau und Gestaltung der Arbeit

Der Aufbau dieser Arbeit

Der Inhalt der Arbeit soll in mehreren Blöcken präsentiert werden.

Im ersten Block geht es um den historischen, technischen, betriebswirtschaftlichen und kommunikationswissenschaftlichen Hintergrund des "Konstrukts Website", also um die Betrachtung des Untersuchungsgegenstands und seiner Nutzer. Es sollen Fragen geklärt werden, wie:

- Was ist eigentlich eine Website?
- Welche Kategorien von Web Angeboten können unterschieden werden?
- Wer nutzt welche Websites auf welche Art?
- Welche Rolle spielt ein Web Angebot heute für ein Unternehmen?
- Welche Faktoren führen zum Erfolg einer Internetpräsenz?

Der zweite Block befasst sich mit den verschiedenen Ausprägungen der Definition von Gebrauchstauglichkeit, und den Kriterien für eine benutzerfreundliche Gestaltung eines Web Angebots. Es werden Fragen gestellt wie:

- Welche Rolle spielen das Denken und die Emotionen bei der Verarbeitung von Informationen?
- Welchen Einfluss hat dies auf die Gestaltung von Websites?
- Welche Kriterien können konkret bei der Gestaltung eines Web Angebots umgesetzt werden?

Der dritte Block widmet sich den Evaluationsverfahren, denn ohne eine Überprüfung der getroffenen Maßnahmen ist es unmöglich zu wissen, ob eine Website die an sie gestellten Anforderungen erfüllt. Die in Frage kommenden Verfahren, ihre Vor- und Nachteile und die Aussagekraft der durch sie ermittelten Daten sollen hier vorgestellt werden. Folgende Fragen sind zu beantworten:

- Welche Methoden der Marktforschung können eingesetzt werden?
- Welche Aussagekraft haben die erhobenen Daten?
- Gibt es Möglichkeiten der automatisierten Evaluation?
- Welche Rolle spielen quantitative und qualitative Methoden?
- Kann auch ohne Hinzuziehen eines Nutzers die Usability eines Web Angebots evaluiert werden?

Der vierte Block soll einen Einblick in den Usability Engineering Prozess bieten. Er widmet sich den Fragen:

- Wann soll ein Web Angebot auf seine Benutzerfreundlichkeit überprüft werden?
- In welcher Form kann der Faktor Usability schon im Produktionsprozess berücksichtigt werden.?
- Lohnt sich der Mehraufwand für einen Anbieter wirklich?

Im letzten Teil werden schließlich die Ergebnisse der Evaluation des Web Angebots der BerlinBeta vorgestellt. Hier soll anhand dieses Beispiels überprüft werden, ob eine Umsetzung der vorgestellten Verfahren wirklich zu aussagekräftigen Ergebnissen führt und sich ein Einsatz dieser Methoden für ein Unternehmen bezahlt macht.

Umfang und Gestaltung der Arbeit

Der Umfang dieser Arbeit wird sicher etwas über dem durchschnittlichen Umfang einer Diplomarbeit im Studiengang Medienberatung liegen. Dies resultiert aus den Versuch, ein facettenreiches Phänomen in seinem theoretischen und praktischen Gesamtzusammenhang zu untersuchen und darzustellen.

Um dem Leser einen Überblick zu ermöglichen, soll die Arbeit - ganz im Sinne der Usability - in einer benutzerfreundlichen Form gestaltet werden.

- Die Informationen werden deshalb in thematisch zusammenhängenden Blöcken präsentiert, um einen allzu langen, ungegliederten und unübersichtlichen Fließtext zu vermeiden.
- Zentrale Begriffe sollen als Highlights hervorgehoben werden, um auch beim Überfliegen (Querlesen, Scannen) des Textes eine Orientierung zu ermöglichen.
- Es wird möglichst häufig mit grafischen Darstellungen und Listen gearbeitet, um Informationen kompakt, kurz und übersichtlich präsentieren zu können.
- Die Schriftgröße, Schriftart und der Zeilenabstand orientieren sich nicht so sehr an den Richtlinien zur Gestaltung einer Diplomarbeit, wie sie auf der Medienberatungs-Website empfohlen werden, sondern an den auch im Rahmen dieser Arbeit untersuchten Prinzipien einer lesefreundlichen Präsentation von Texten.

Begriffsbestimmungen und Definitionen

Es ist üblich, die wichtigsten Begriffe einer Diplomarbeit vorab zu präsentieren und zu definieren. Dies gestaltet sich jedoch in diesem Fall schwierig, da es sich um sehr viele fachspezifische Formulierungen handelt. Sie sollen deshalb erst an den entsprechenden Stellen im Text genauer betrachtet und definiert werden.

Um dem Leser dennoch eine Verständnishilfe an die Hand zu geben, wurde ein umfangreiches Glossar erstellt, und in den Anhang eingefügt.

2. Die HCI-Forschung

In diesem Kapitel sollen die Themen und Gegenstände, mit denen sich die Forschung im Bereich Usability beschäftigt, näher betrachtet werden. Im Mittelpunkt steht dabei die Kommunikation und Interaktion zwischen Mensch und Maschine, in diesem Fall Mensch und Computer.

2.1 HCI – Human Computer Interface und Human Computer Interaction

Die Abkürzung HCI ist missverständlich, denn sie bezeichnet sowohl

- die Mensch-Computer-Schnittstelle (Human Computer Interface) als auch
- die Mensch-Computer-Interaktion als solche (Human Computer Interaction) und
- die Forschung, Gestaltung und Implementierung im Bereich der Mensch-Computer-Interaktion

2.2 Die Mensch-Computer-Interaktion (als solche)

Bei den sogenannten Stapelverarbeitungen werden vom Computer bzw. der Software komplette Programmabläufe ausgeführt. ohne dass der Nutzer eingreifen kann. Besteht jedoch die Möglichkeit eines wechselseitigen Austauschs von Informationen und Daten zwischen Menschen und Computersystemen, spricht man von Mensch-Computer-Interaktion.
Lange Zeit war der Begriff Interaktion auf die soziale Interaktion zwischen Menschen "mit identischen Fähigkeiten zu sinnhaftem Erleben und Handeln, Kommunizieren und Verstehen"[5] beschränkt. Je mehr sich der Nutzer jedoch in der Maschine wiederzuerkennen meint, desto menschlicher werden die Metaphern, die für den Datenaustausch mit Computern eingeführt und etabliert werden. So spricht man z.B. neben Interaktion auch von Kommunikation oder Dialog zwischen Mensch und Maschine. Einen Vergleich der Face-to-Face-Situation mit der Mensch-Maschine-Kommunikation ist auch durchaus naheliegend, da Menschen generell dazu neigen, Dinge in ihrer Umgebung als lebendig zu sehen und zu vermenschlichen. So mancher Computeranwender spricht mit seinem System, beschimpft es, wenn es zu langsam arbeitet und versucht es manchmal sogar im Affekt zu erschießen (mehrere Fälle in den USA).

Vor allem von Sozialwissenschaftlern wurde allerdings heftig um die Begriffe Interaktion, Kommunikation oder Dialog gekämpft. Weil sie die "wahre" Kommunikation an die unmittelbare Sozialbeziehung (face-to-face) geknüpft sahen, befürchteten sie durch die Technisierung und Institutionalisierung des menschlichen Lebens ein Kommunikationssterben[6]. Ob man mit Maschinen wie mit anderen Menschen kommunizieren kann, hängt von der jeweiligen Definition des Begriffes "Kommunikation" ab und dem Bild, das sich der Mensch von der Maschine und dem Computer macht.[7]

Die Mensch-Computer-Interaktion ließe sich also wie folgt beschreiben:
Daten, die das System an den Nutzer ausgibt, werden vom Anwender verarbeitet und dadurch zu Informationen. Diese können Handlungen auslösen (z.B. in Form von Tastatureingaben), die dann ihrerseits wiederum zu Zustandsänderungen des Systems führen, welches wieder neue Daten ausgibt usw..

2.3 Konfliktpotenzial bei der Mensch-Computer-Interaktion

Das Bedienen eines Computers unterscheidet sich vom Dialog mit einem Menschen in vielen Bereichen. Die Maschine versagt bei dem Erkennen und Vermitteln von Intentionen, der Metakommunikation, dem Erkennen und Deuten von rhetorischen Figuren, der Entwicklung eines Bildes vom Dialogpartner u.v.m.. Viele Softwareentwickler sind im Sinne des Usability Engineerings bemüht, diese Differenzen zu beseitigen, um den Mensch-Maschine-Dialog dem Mensch-Mensch-Dialog möglichst anzugleichen. Ziel ist, "intelligente" Systeme zu entwickeln, die schneller und flexibler auf unerwartete Umstände reagieren und Kommunikationsprobleme erkennen und vermeiden können.
Ein Beispiel ist die Entwicklung von Spracherkennungssoftware, ein andere die Integration sogenannter adaptiver Interfaces. Durch systeminterne Protokolle soll hier eine Analyse der Bedienschritte eines Benutzers ermöglicht werden, um dessen Handlungsintentionen zu erkennen und Hinweise zu möglichen folgenden Bedienschritten geben zu können.

2.3.1 Konfliktpotenzial - Die Metakommunikation

Die Botschaft, die bei der herkömmlichen Kommunikation vom Sender zum Empfänger ausgetauscht wird, besteht nicht nur aus sachlichen, "objektiven" Informationen, sondern auch aus einem unbewusst wahrgenommenen Beziehungsaspekt, der Aussagen darüber macht, in welchem Verhältnis der Gegenüber zur eigenen Person steht. Diese Metainformationen sind generell schwer zu kontrollieren, da sie Kontext- und Adressaten-abhängig sind.
Da ein Interface normalerweise keine Mimik, Gestik und Intonation vermitteln kann, müssen Metainformationen auf anderem Wege transportiert werden, z.B. über die Farbwahl, das Layout, die Sprache, die Typographie etc. So kann es vorkommen, dass ein Nutzer z.B. eine Website als angenehm und unterhaltsam, ein anderer als belästigend und grell empfindet. Der eine fühlt sich gut aufgeklärt, ein anderer versteht die vielen Anglizismen und Fachbegriffe nicht und fühlt sich überfordert oder unterlegen. Die Kommunikation kann also auf der Empfängerebene scheitern, wenn der Anwender ein Interface nicht oder falsch versteht, oder auf der Anwenderebene, wenn der Gestalter nicht die Wirkung der Metakommunikation bedacht und bewusst geplant hat.

2.3.2 Konfliktpotenzial - Anwender contra Programmierer

Die falsche Einschätzung der Interessen und Einstellungen des Nutzers durch den Gestalter basiert häufig auf unterschiedlichen Mentalen Modellen[8], die Anwender und Gestalter von einem Interface entwickeln. Norman unterscheidet dabei zwischen dem Systembild, dem Benutzer- und dem Designer-Denkmodell[9]:

a) Das Systembild:

= das Interface (die physische Struktur)

b) Das Denkmodell des Benutzers:

Es entsteht aus den wahrgenommenen System-Strukturen und der Interaktion mit dem System.
Der Anwender erstellt ein gedankliches Modell von dem benutzten technischen Gerät durch die Wahrnehmung der Funktionsweise und der sichtbaren Struktur.
Er wendet dabei bereits bekannte mentale Modelle auf die Bedienung der Maschine an (top down) oder ergänzt, korrigiert bzw. erweitert diese konzeptuellen Modelle aufgrund neuartiger Funktionsweisen und Strukturen (bottom up).

c) Das Denkmodell des Designers:

Es entsteht durch die Vorstellung vom zu entwickelnden System und sollte sich an den Anforderungen und Fähigkeiten des Nutzers orientieren.
Der Designer kennt sowohl das Systembild als auch den systeminternen Zusammenhang (im Gegensatz zum Benutzer). Er entwirft das Interface und gestaltet somit das Bild, das sich der Benutzer vom System macht. Da das Interface auf die Perspektive des Anwenders ausgerichtet ist bzw. sein sollte, kann das Modell des Designers, der auch die systemrelevanten Zusammenhänge kennt, von dem des Benutzers stark abweichen. Diese Differenzen können zu Problemen führen, weil der Gestalter vom Anwender kein direktes Feedback auf seinen Entwurf des Systems erhält.

Grundsätzlich ist die Gestaltung eines Interfaces im Sinne einer auf den Menschen orientierten Technikgestaltung immer auch abhängig von dem ihr zugrunde liegenden Menschenbild. Ein Informatiker, der den Nutzer in ein von seinen Normen und Checklisten vorgegebenes Schema. zu pressen sucht, ignoriert die Vielfalt menschlicher Verhaltensweisen. Für einen am konkreten Anwender interessierten und orientierten Gestalter sind Normen nur Hilfsmittel, die wichtige Informationen über die Benutzung eines Systems leichter strukturierbar und nutzbar machen.

2.3.3 Zielgruppenanalyse zur Vermeidung von Kommunikations-Konflikten

Mit der zunehmenden Verbreitung und Nutzung von Computern in den letzten Jahren variieren auch die Benutzertypen immer mehr. Es handelt sich dabei nicht mehr nur um Experten im wissenschaftlichen oder technologischen Bereich, sondern um Anwender aus allen Gruppen der Bevölkerung. Eine Bestimmung der Zusammensetzung und der Interessen, Ziele und Einstellungen der gewünschten Zielgruppe ist deshalb unumgänglich zur optimalen Gestaltung einer Schnittstelle bzw. eines Software-Produkts.
E in schlecht gestaltetes Interface wird vom Nutzer nicht akzeptiert und kann nur eingeschränkt benutzt werden. Ein gelungenes Design ist dagegen benutzerfreundlich und orientiert sich an den Ansprüchen der Zielgruppe.
Nicht zuletzt ist auch der kommerzielle Erfolg eines Interfaces (einer Website) von der gelungenen Interaktion zwischen Mensch und Maschine abhängig.

2.4 Forschung und Gestaltung im Bereich Human Computer Interaction

In der Praxis untersuchen HCI-Forscher selten gesamte Computer-Systeme, sondern vor allem die GUIs (Graphical User Interface)[10] und ihre Gebrauchstauglichkeit für den Anwender.
Neben der Betrachtung der Dialogtechnik, Computergraphik, Informationsarchitektur oder Design-Richtlinien, spielt dabei die Betrachtung der menschlichen Informationsaufnahme und -verarbeitung eine zentrale Rolle, also die Beschäftigung mit Gedächtnis- und Lernmodellen, mit der Aufmerksamkeit und Motivation eines Nutzers, mit Aspekten der Kommunikation und Interaktion zwischen Menschen und Maschinen etc..
Die Erkenntnisse der HCI-Forschung sollen das Design und die Informationsdarstellung innerhalb eines GUI verbessern, so dass Daten möglichst reibungslos, konflikt- und fehlerfrei ausgetauscht werden können.
Der Begriff HCI wird meist in Bezug auf das gesamte Gebiet der HCI-Forschung und -Gestaltung verwendet. "HCI is the study, planning and design of what happens when you an a computer work together."[11]

HCI befasst sich also mit dem Design, der Erstellung und Evaluation benutzergerechter Computer-Systeme[12].

2.5 Disziplinen der HCI-Forschung

Die HCI-Forschung ist ein interdisziplinäres Arbeitsgebiet[13]. Sie umfasst v.a. die Disziplinen

- Informatik (Hard- und Softwaretechnologie, User Interface Technologie...),
- Psychologie (Kognitions-, Experimental-, Arbeits- oder Sozialpsychologie...),
- Soziologie (menschliche Kommunikation, Verbindung von Technik, Arbeit und Organisation...)
- Anthropologie (Ethnographie),
- Grafikdesign bzw. Industriedesign (Gestaltungsprinzipien...)
- Wirtschaftswissenschaften (Entwicklungskosten, betriebliche Integration...)

Die Geschichte der HCI-Forschung ist auch die Geschichte der Mensch-Computer-Schnittstellen.
Da die Entwicklung des Graphical User Interfaces die Grundlage schuf für die heutigen Betriebssysteme, Softwareanwendungen und auch für das World Wide Web und entsprechend für die darin vorliegenden Websites, soll im Folgenden näher auf diese Entwicklung eingegangen werden.

2.6 Benutzerschnittstellen - der Computer wird "usable"

Die Website fungiert als Schnittstelle zwischen Nutzer, implizierter Technik und Anbieter. Ihre auf dem Bildschirm sichtbaren Komponenten entsprechen dabei einem sogenannten Graphical User Interface (GUI) also einer Grafischen Benutzerschnittstelle bzw. -oberfläche wie sie aus anderen Anwendungen bekannt ist. Die Funktion und historische Entstehung dieser Form der Schnittstelle soll im Folgenden näher betrachtet werden.

2.6.1 Der Begriff "Schnittstelle" (Interface)

Ganz allgemein versteht man unter einer Schnittstelle den Punkt, an dem sich zwei Systeme begegnen bzw. aneinander koppeln lassen[14]. Nach der DIN44300 ist unter einer Schnittstelle der Übergang an der Grenze zwischen zwei Einheiten mit vereinbarten Regeln für die Übergabe von Daten oder Signalen zu verstehen.
Der Begriff Schnittstelle kommt ursprünglich aus dem Bereich der Datenverarbeitung und bezog sich v.a. auf den Datenaustausch zwischen technischen Systemen. Heute wird er zunehmend im Zusammenhang der Begegnung zwischen Mensch und (datenverarbeitender) Maschine benutzt. Außerhalb der EDV wird der Begriff Schnittstelle oder Interface heute auch im Zusammenhang mit anderen technischen Geräten z.B. in Flugzeugen oder Automaten verwendet. Man unterscheidet Technische Schnittstellen (Hardware/Hardware, Hardware/Software und Software/Software) und Benutzerschnittstellen.

2.6.2 Der Begriff "Benutzerschnittstelle" und "Benutzeroberfläche"

Human Computer Interface wird im Deutschen meist mit Mensch-Computer-Schnittstelle oder Benutzerschnittstelle übersetzt. Die Benutzerschnittstelle bezeichnet dabei diejenigen Komponenten eines Mensch-Computer-Systems[15], mit denen der Benutzer begrifflich und motorisch in Verbindung steht[16]. Der Begriff bezieht sich nicht nur auf die wahrnehmbaren Komponenten der Software, sondern auf das Computersystem als ganzes, also auf die Einheit von

- Hardware (z.B. Monitor, Maus, Tastatur),
- Software (visueller oder akustischer Output) und
- Technischer Dokumentation (Online- oder Offline-Gebrauchsanleitung, Handbuch).

Die Art und Gestaltung einer Benutzeroberfläche beeinflussen das Problemlöseverhalten eines Anwenders ebenso wie das Lernen von Fertigkeiten und deren Anwendung zur Bearbeitung einer Aufgabe. Eine Benutzeroberfläche stellt den für den Benutzer sichtbaren Teil der Benutzerschnittstelle dar und ermöglicht dem Anwender den Dialog mit dem Computer durch eine Benutzerführung über den Bildschirm. Sie ist abhängig von der eingesetzten Hard- und Software, und ihre Eigenschaften beeinflussen den Ablauf und die Form des Informationsaustausches zwischen Benutzer und System.
Man spricht im Englischen auch von User Interface (UI) oder Front End. Das User Interface kann als das dem Benutzer zugewandte "Gesicht" der Maschine (face-to-face) verstanden werden[17].

In der Praxis werden die Begriffe Benutzerschnittstelle und -oberfläche häufig synonym gebraucht.

2.6.3 Die "Grafische Benutzeroberfläche" (Graphical User Interface (GUI))

Grafische Benutzerschnittstellen sind heute für nahezu jeden Computeranwender ein alltäglicher Begriff. Er wird im Zusammenhang mit Bildschirmarbeitsplätzen verwendet, die einen grafikfähigen Bildschirm, eine Tastatur und ein Zeigeinstrument (Maus) zur Verfügung stellen.

Die Grafische Benutzeroberfläche (Graphical User Interface - GUI) umfasst die am Bildschirm sichtbaren Elemente der Grafischen Benutzerschnittstelle, so zum Beispiel die Piktogramme, die repräsentativ für die physischen Geräte stehen (Mauszeiger für die Maus, Druckersymbol für den Drucker, "virtuelle" Tasten für physische Tasten etc.).
Das GUI ist durch den Einsatz dieser Symbole, visuellen Metaphern und Zeigebefehle intuitiver handhabbar als ein textorientiertes Interface und inzwischen Standard der meisten Computersysteme und ihrer Komponenten. Merkmale eines GUI sind u.a.

- Pulldownmenüs zur übersichtlichen Darstellung von Handlungsalternativen,
- der Einsatz von Fenstern zur zeitgleichen Darstellung unterschiedlicher Informationsquellen,
- die Verwendung von sogenannten Icons (Sinnbilder) zur einfachen bildlichen Darstellung von Aktionen und Objekten,
- die Direktmanipulation mit der Maus und
- die Verwendung von Metaphern zur Benutzerführung (zur Verknüpfung von bereits vorhandenem mit zu erlernendem Wissen)

2.6.4 Die Geschichte der Grafischen Benutzeroberfläche

1945 schrieb Vannevar Bush (Direktor des "U.S. Office of Scientific Research and Development") in seinem Artikel "As we may think"[18] über ein geplantes Multimedia-Datenbank-System, das sogenannte Memex[19] . Der Benutzer sollte seine sämtlichen Bücher und Aufzeichnungen archivieren und diese miteinander verbundenen Wissenseinheiten über eine graphische Benutzerschnittstelle schnell und jederzeit abrufen können . Das System sollte als eine Art ausgelagerte Vergrößerung der individuellen Merkfähigkeit fungieren.
In den 50er Jahren wurde diese Idee von Douglas C. Engelbart und einigen Computerspezialisten im US-Verteidigungsdepartement (DoD) aufgegriffen, die ein derartiges System tatsächlich konstruieren wollten. Dabei wurden Technologien entwickelt, die teilweise noch heute verwendet werden (z.B. die Maus). Doch vor der Verwirklichung stellte das DoD die Finanzierung ein.
Ende der 60er Jahre entwickelten die Forscher um Engelbart bei ARPA[20] ein prototypisches elektronisches Büro , bei dem eine Gruppe von Menschen gemeinsam auf Dokumente, die in einem Computer gespeichert worden waren, zugreifen konnten.
Ebenfalls in den 60er Jahren entwickelte Alan Kay bei ARPA eine Maschine, die er FLEX nannte. Sein Ziel war es, ein kleines, preiswertes und leicht bedienbares Notepad für jedermann zu entwickeln. Er hatte McLuhans "Understanding Media" gelesen, und dessen Annahme, dass ein Medium das Denken eines Menschen beeinflusst. Wenn der Personalcomputer wirklich ein neues Medium war, so McLuhans Argument, könnte er die durch Film und Fernsehen verloren gegangene Interaktivität zurückgewinnen und die Statik des Buches durch Dynamik ersetzen.
Eine weitere wichtige Erfahrung machte Kay durch die einfache Programmiersprache LOGO, mit der sogar Kinder arbeiten konnten. Die Entwickler dieser Sprache beriefen sich auf den Entwicklungspsychologen Jean Piaget bzw. auf seinen Nachfolger Jerome Bruner, die eine Entwicklung des Denkens in drei Phasen bzw. Schemata, die teilweise in Konflikt miteinander stehen, propagierten: dem Bewegungsschema, dem visuellen Schema und dem symbolischen Schema[21].
Kay folgerte, dass jedes Schnittstellendesign diese Denkschemata ansprechen sollte. Vor allem eine Synergie aus dem bildlichen (verantwortlich für Kontextwechsel und Kreativität) und symbolischen Schema (verantwortlich für abstrakte Gedankengänge innerhalb eines Kontextes) hielt er für sinnvoll.

2.6.5 Das erste GUI – der Xerox Alto

1970 entstanden dann im Xerox PARC (Palo Alto Reserach Center) mit den Alto-Systemen die ersten modernen Computersysteme, die sich dieses Modell zunutze machten. Der erste Computer mit GUI wurde mit dem "Xerox Alto" 1973 entwickelt. Da er aber ca. 40000 US-Dollar kosten sollte, war er praktisch unverkäuflich. Als erste "Personal Workstation" beeinflusste er die Entwicklung der Personalcomputer in den 80er Jahre aber wesentlich.
Mit der Einführung des Fenster-Systems spricht das Alto-System das bildliche Schema an, die Kreativität des Anwenders. Der Xerox Alto und seine Weiterentwicklung, der Xerox Star (1979), nutzten Fenster im heutigen Sinn, die den Bildschirm (ein 808x606 Pixel großes Schwarz-Weiß-Display) aufteilen konnten (aber sich noch nicht überlappen). Nutzereingaben kamen von der von Engelbart entwickelten Maus mit drei Knöpfen und einem Keyboard . Wie noch heute bedeutete ein Klick auf einen Menüpunkt oder Button ein Kommando, ansonsten die Selektion eines Objektes. Scrollbars und short cuts (Tastenkürzel für häufig genutzte Kommandos) waren ebenso Teil des Systems wie ein (WYSIWYG)-Editor[22] und Programme zur Re-Definition von Tasten und Mausklicks. Damit waren die Grundlagen für die graphischen Benutzerschnittstellen gelegt, wie sie heute Standard in fast allen Computersystemen sind.

Die Benutzerschnittstelle des Apple Lisa (entwickelt um 1979) war die erste kommerzielle Anwendung dieses neuen Benutzerschnittstellenkonzeptes und wurde durch die Markteinführung des Apple Macintosh (1984) weit verbreitet. Die Bedienführung des Betriebssystems der Macintosh Anwendungen zeichnen sich durch eine strikte Konsistenz aus. Sie sind immer noch führend in der Qualität der auf breiter Basis verwendeten Benutzerschnittstellen.

Die (u.a. aus Preisgründen) weiter verbreitete Betriebssystemoberfläche MS-Windows ähnelt der Oberfläche des Apple Betriebssystems "Finder". Über 90 Prozent aller PCs laufen heute unter einem Microsoft Betriebssystem.

2.6.6 Mehr Komfort für den Nutzer: Vom Kommandozeilen-Interface zum GUI

Die ersten Computer, die wegen der hohen Kosten und geringen Stückzahlen nur Forschern zur Verfügung standen, wurden über Lochkarten bzw. Kippschalter bedient. Blinkende Lämpchen zeigten den Betriebsstatus an, Ergebnisse wurden auf Zeilendruckern ausgegeben. Als es möglich war die Rechner günstiger herzustellen und sie an den Fernseher anzuschließen, konnten sie auch Privatanwendern zugänglich gemacht werden.
Auf diesen Computersystemen wurde über eine textbasierte Mensch-Maschine-Schnittstelle kommuniziert, das heißt, alle Steuerbefehle wurden mittels Tastatur eingetippt, die Resultate auf dem Bildschirm bzw. Fernseher dargestellt.

Die erste Möglichkeit für die Nutzer, mit einem Programm auf einem Computersystem zu interagieren, war die sogenannte Kommandosprache. Frühe interaktive Programme, die auf diesen Sprachen beruhten, entstanden um 1970 (Kommandozeilen-Interface). Benutzerschnittstellen, die auf Kommandosprachen basieren, sind meist sequentiell aufgebaut, d.h., der Nutzer bewegt sich auf einem genau festgelegten Weg durch das Programm und durch verschiedene Systemzustände. Um eine Kommandosprache zu erlernen, war ein hoher zeitlicher Aufwand nötig, was eine Entwicklung von leichter bedienbaren, benutzerfreundlicheren Mensch-Computer-Schnittstellen notwendig machte, um die Orientierung im System zu erleichtern.
Der Einsatz graphischer, leicht zu bedienender Benutzeroberflächen richtet sich nach den Ansprüchen der Nutzer. Je sicherer ein Anwender im Umgang mit dem System ist, das er täglich benutzt (also ein Experte), desto mehr Bedienungskenntnisse können vorausgesetzt werden und desto schnellere Eingabemechanismen sollten zur Verfügung stehen (z.B. Tastenkombination, statt Menü-Wahl per Maus). Viele Programme bieten heute die Wahl zwischen alternativen Eingabemöglichkeiten, was auch Laien die Nutzung eines entsprechenden Programms erlaubt.
Im Gegensatz zur sprachlich orientierten, sequentiellen Benutzerschnittstelle können beim Einsatz einer graphischen Benutzerschnittstelle mehrere Dialogpfade gleichzeitig aktiv sein (multithread), die Reihenfolge bestimmter Eingaben ist egal. Es handelt sich dann um einen asynchronen Dialog mit mehreren möglichen Dialogpfaden.

Die meisten Benutzerschnittstellen bestehen sowohl aus sequentiellen als auch aus asynchronen Bereichen. Bei Graphikprogrammen (z.B. Macromedia Freehand) können beispielsweise häufig mehrere Zustände nicht gleichzeitig aktiv sein. Will ein Nutzer nach dem Zeichnen mit der Maus ein Quadrat markieren, muss er den ersten Toolzustand verlassen, bevor er den neuen aufrufen kann. Besteht die Möglichkeit, mehrere Dialogpfade parallel auszuführen, spricht man von Multitasking.

Die GUIs setzen sich in der Praxis immer mehr durch. Sie laufen meist unter einem Fenstersystem und entsprechen dem sogenannten WIMP-Stil (WIMP steht für "Windows, Icons, Menus und Pointing", manchmal auch "Windows, Icons, Mice und Pull-down Menüs"). Die Bezeichnung "grafisch" für diese Benutzeroberflächen ist allerdings nicht voll zutreffend, denn das Arbeiten mit Menüs ist keine wirklich grafische Interaktionstechnik, weil der Benutzer Menübezeichnungen lesen und verstehen muss. Icons zur direkten Manipulation werden bis heute nur eingeschränkt eingesetzt.
Die modernen Benutzerschnittstellen haben inzwischen viele benutzerfreundliche Eigenschaften,
zum Beispiel:

- Je nachdem, in welchem Bereich der Benutzer gerade arbeitet, leisten Hilfesysteme kontextorientierte Unterstützung.
- Der Benutzer kann Aktionen durch eine Undo-Funktion rückgängig machen.
- Der Benutzer kann adaptierbare Benutzerschnittstellen selbst verändern.
- Dialogboxen oder Cursordarstellung ermöglichen ein sofortiges Feedback auf Benutzeraktionen durch eine schnelle Reaktion des Systems.

2.6.7 Die Schreibtisch- und die Menü-Metapher

Mit der Schreibtisch-Metapher (Desktop Metapher) bezeichnet man das Grundkonzept der meisten GUIs, den vertrauten Bürotisch symbolisch mehr oder weniger exakt auf den Computer-Bildschirm zu übertragen. Es gibt Ordner, Drucker, Dokumente, einen Papierkorb (der zwar nicht auf aber häufig neben dem Schreibtisch zu finden ist) wie im richtigen Büro rund um den Schreibtisch. Für Anwender, die noch unerfahren im Umgang mit Heimcomputern und dem GUI waren, sollte auf diese Weise der Lernprozess erleichtert werden, da die wichtigsten Elemente auf dem Bildschirm aus dem täglichen Leben bekannt waren.
Es zeigte sich bald, dass die Desktop-Metapher nur begrenzt funktionierte. Sie findet z.B. keine Entsprechungen für viele funktionale Elemente wie Auswahl-Listen, Dialogfenster und die Anwendungsprogramme selbst. Die GUI-Designer erweiterten die Schreibtisch-Metapher deshalb um andere Bilder, Symbole und Konzepte, deren Bedeutung aus dem Alltag bekannt waren, z.B. die sogenannten "Menüs".

Durch den Einsatz dieser und anderer Metaphern wird demnach eine schnellere Erlernbarkeit durch die Verknüpfung von vorhandenem mit zu erlernendem Wissen gefördert.

2.6.8 Die Bedeutung von Icons für ein GUI

Ein GUI soll den Dialog mit dem Computer durch Manipulationen am Bildschirm ermöglichen und muss demzufolge die zu bearbeitenden Daten und die zu benutzenden Werkzeuge grafisch darstellen. Die Qualität eines GUI hängt deshalb u.a. von der Gestaltung der Icons ab.

Ein Bildschirm als visuelles Ausgabemedium stellt ein Raster von Bildpunkten in einer Dichte von 72 Pixel pro Zoll dar. Ein Icon besteht durchschnittlich aus ungefähr 32x32 Pixel. Diese Größe gab Susan Kare ihren kleinen schwarz-weißen Kunstwerken, die sie für die Apple-Programmierer Anfang der 80er Jahre entwarf. Diese Bildschirmsymbole sollten den Anwendern den Umgang mit den Computern erleichtern, und auch Microsofts Windows 3.0 enthielt Icons, die von Susan Kare gestaltet worden waren.

With the icon and font work, I hoped to help counter the stereotypical image of computers as cold and intimidating. My work has continued to be motivated by respect for, and empathy with, users of software. I believe that good icons are more akin to road signs rather than illustrations, and ideally should present an idea in a clear, concise, and memorable way.[23]

Mit der steigenden Leistungsfähigkeit von Computern hielt dann auch die Farbe Einzug in die Welt des GUI und der Icons. Propagierte Kare noch einen strikten Minimalismus ("take away elements rather than add them"[24] ), folgen die neueren Icons einem photorealistischen Konzept - und verlieren dadurch etwas von dem Charme der kleinen, durchdachten Kunstwerke.
Im Gegensatz zu den die Zeiten überdauernden Mosaiken der Antike haben die Icons heutiger Zeit nur einen sehr begrenzten Haltbarkeitswert. Sie werden schon nach wenigen Jahren überarbeitet oder entfernt. Das WWW und seine Verbreitung erhöht zudem noch den Bedarf an neuen, besseren und aussagekräftigeren kleinen Kunstwerken.

Abbildung in dieser Leseprobe nicht enthalten

3. Das Internet - seine Dienste und Möglichkeiten

Der "Untersuchungsgegenstand Website" soll im Folgenden in seinem technischen und ökonomischen Umfeld näher beleuchtet werden.

3.1 Das Internet

Im Internet als weltweitem Zusammenschluss vieler lokaler Netze sind Computer unterschiedlichster Art vertreten. Um Daten Maschinen-unabhängig übertragen zu können, hat sich als Standard das von ARPA (eine Forschungsbehörde des amerikanischen Verteidigungsministeriums) entwickelte Transmission Control Protocol / Internet Protocol (TCP/IP ) durchgesetzt. Es organisiert das Routing der Datenpakete und die Adressierung aller beteiligter Rechner.
Jeder Rechner im TCP/IP-Netzwerk besitzt eine eindeutige Adresse von 32 Bit, die sogenannte IP-Adresse, die sowohl die Adresse des Netzwerkes angibt, in dem sich der Rechner befindet, als auch die Adresse des jeweiligen Rechners innerhalb dieses Netzwerkes.

Abbildung in dieser Leseprobe nicht enthalten

Da im Internet alle Rechner nur über die IP-Nummern auffindbar, diese Nummern aber schwer zu merken sind, können ihnen Namen zugeordnet werden (z.B. http://w3.kgw.tu-berlin.de[26] ). Domain Name Server übernehmen dann die Aufgabe, eine Adresse der bekannten Form der numerischen IP-Adresse zuzuordnen[27].
Im Falle von Anwendern, die keine feste IP-Adresse besitzen, wird dem entsprechenden Rechner vom Internet Service Provider (ISP) bei jeder authentifizierten Einwahl eine temporäre IP-Adresse zugeordnet, so dass er für die Dauer der Verbindung Zugang zum Internet hat und darin eindeutig identifiziert werden kann.

Bekannte Anwendungen oder Dienste im Internet sind z.B. E-Mail, IRC, Usenet, FTP, Telnet und das World Wide Web (das seinerseits diese Dienste integriert). Sie basieren auf unterschiedlichen Datenübertragungs-Protokollen (z.B. POP3, SMTP, NNTP, FTP, HTTP) und auf dem Client-Server-Prinzip (ein Server stellt einen Dienst vielen Clients zur Verfügung).
Das WWW hat sich u.a. deshalb so schnell durchgesetzt, weil die Browsersoftware kostenlos zur Verfügung gestellt wird und weil es durch die Benutzung der Auszeichnungssprache HTML unabhängig vom Betriebssystem des Anwenders ist. Die weltweit stark zunehmende Nutzung des Dienstes World Wide Web und der darin integrierten Anwendungen führte allerdings dazu, dass heute viele Anwender das Internet mit dem World Wide Web gleichsetzen. Auch in dieser Arbeit werden beide Begriffe meist synonym gebraucht.

3.2 Das World Wide Web - der bekannteste Dienst des Internet

Das World Wide Web (WWW) wurde ab 1989 am CERN (Europäisches Forschungszentrum für Teilchenphysik in Genf) von Robert Cailliau und Tim Berners Lee entwickelt.
Beim WWW handelt es sich um ein Hypermedia-System, d.h. die auf einem Web-Server gespeicherten und verwalteten textuellen, graphischen und auditiven Hypertextdokumente sind über Hyperlinks mit anderen Hypertextdokumenten auf dem gleichen oder anderen Servern verbunden und können vom Web-Client mit Hilfe einer graphischen Benutzeroberfläche - einer Browsersoftware - abgerufen werden. Die Datenübertragung vom Server zum Client funktioniert über das auf das TCP/IP aufbauende Hypertext Transfer Protocol (HTTP)[28].
Die Ressourcen werden dem Nutzer des WWW durch ein pull-Verfahren[29] zugänglich gemacht, d.h. sie müssen von ihm explizit (aktiv) durch einen Request angefordert werden. Der Request wird vom Server mit der Lieferung der gewünschten Ressource beantwortet (Response). Um eingehende Requests zu beantworten, muss auf dem Serverrechner eine Serversoftware (Daemon) - sozusagen das Gegenstück zur Browsersoftware - installiert sein.

Die vom Server bereitgestellten Hypermedia-Dokumente basieren auf der Seitenbeschreibungssprache HTML (HypertText Markup Language)[30] bzw. XHTML (Extensible HyperText Markup Language)[31] .
Sie können neben Text auch Hyperlinks zu anderen Hypertextdokumenten oder anderen Dateien (Grafiken, Töne, Animationen etc.) enthalten. Man könnte das HTML-Dokument auch als eine Art Organisationszentrum der Website betrachten, das die Basis für weitere, darauf aufbauende Hypermedia- und dynamische Script-Funktionen bildet (z.B. VRML, Java, Javascript, CGI).

Cascading Style-Sheets (CSS) ermöglichen bei der Erstellung einer Website außerdem durch die Trennung von Inhalten und Gestaltungsmerkmalen die Einbindung von Formatvorlagen zur einheitlichen und vereinfachten Gestaltung..
Durch sogenannte Plug-Ins können zusätzlich spezifische Datenformate in ein WWW-Dokument eingebunden werden. Es handelt sich dabei um Zusatzprogramme, die in den Browser integriert werden. Sie dienen u.a. dem Abspielen von Videos, Animationen oder Audio-Dateien.
Eine Adresse im WWW (URL = Uniform Resource Locator[32] ) ist hierarchisch strukturiert und bezeichnet den absoluten Pfad eines Dokuments im WWW. Ein auf ein anderes Dokument verweisender Hyperlink besteht aus einer URL, deren zugrundeliegendes Dokument bei Aktivierung des Links vom Server übertragen und angezeigt wird.

Die URL http://www.medienberatung.tu-berlin.de/td/td0.htm besteht z.B. aus den Bausteinen

Abbildung in dieser Leseprobe nicht enthalten

Die Toplevel Domain bildet die oberste Hierarchieebene und weist meist darauf hin, in welchem Land[33] sich das entsprechende Netzwerk befindet (z.B. de für Deutschland oder ch für Schweiz) bzw. welcher Art dieses Netzwerk ist[34] (z.b. edu für eine Bildungseinrichtung, com für einen kommerziellen Anbieter oder .name für die Website einer Privatperson).

Das 1994 gegründete W3C (World Wide Web Consortium) entwickelt die für das WWW nötigen Normen und Standards und verwaltet bzw. versioniert alle wichtigen Protokolle (wie etwa HTTP). In dieser Vereinigung sind alle bedeutenden Unternehmen der IT-Branche wie z.B. Adobe, Apple, , IBM, Intel, Microsoft, Xerox etc. vertreten.

3.3 Matthias Horx prophezeit die Zukunft des Internet

In einer Studie zur Zukunft des Internet (veröffentlicht im Jahr 2001)[35] prognostiziert der Trendforscher Matthias Horx eine "digitale Spaltung" zwischen Viel- und Nichtnutzern wegen der nach wie vor zu komplizierten Bedienung des WWW. Er schließt daraus, dass sich das Medium Internet - zumindest in den nächsten Jahren - nicht zum Massenmedium, sondern zu einem Medium der Bessergebildeten und Besserverdienenden entwickeln werde. Dies könne jedoch durch eine höhere "digitale Bildung" und einen vereinfachten und billigeren Zugang zu PCs und Internet gemildert werden.
Auf der technischen Ebene werden laut Horx mobile Endgeräte in den nächsten Jahren den PC in seiner Rolle als Eingangstor zum WWW ablösen, und eine "Hochgeschwindigkeits-Webtechnologie" (durch den verstärkten Einsatz von Glasfaserkabeln und drahtloser Datenübertragung) werde die Gestaltung von Webpräsenzen und den Umfang der Angebotspalette entscheidend verändern.

Ein Wachstumspotenzial prophezeit der Trendforscher dem Internet in Schwellenländern sowie den Zielgruppen "Frauen" und "Ältere".
Insgesamt werden sich laut Horx die Systeme, Technologien und Angebote durchsetzen, die die Gefühle der Nutzer ansprechen und ihnen das Leben erleichtern. Die Zukunft des Internet entscheidet sich also nicht auf den Führungsebenen der weltweit dominierenden Firmen wie IBM, Sun oder Microsoft, sondern in den Wohnzimmern und durch die Emotionen der Nutzer.

3.4 Das kommerzialisierte Internet

3.4.1 Die Kommerzialisierung von Informationen

Die Vorteile des Internet für Forscher und Wissenschaftler liegen auf der Hand[36]:

- Wissenschaftliche Beitrage werden schneller, einfacher und (weltweit) demokratischer zugänglich.
- Arbeiten von rennomierten Forschern finden ein breiteres Publikum.
- Junge und unbekannte Autoren finden leichter ein Publikum.
- Kommunikationssituationen in Lehrveranstaltungen werden verbessert.
- Die Kommunikation zwischen Forschern wird erleichtert.

Es gibt jedoch Entwicklungen, die dem ursprünglichen, demokratischen Grundgedanken des freien und kostenlosen bzw. kostengünstigen Informationszugangs durch das Medium Internet widersprechen.
Neben den schon immer kostenpflichtigen Recherche-Angeboten (z.B. dpa) werden zunehmend auch ehemals kostenlose Informations-Angebote kommerzialisiert. Dabei verzichten z.B. immer mehr Zeitungs- und Zeitschriften-Verlage auf die effektive Werbewirksamkeit von kostenlosen Online-Ausgaben oder Recherche-Möglichkeiten in ihren Archiven und halten die monetäre Vermarktung der "Ressource Information" für vorteilhafter.
Andererseits bieten kostenpflichtige Informationsangebote auch Vorteile für den Nutzer. Je konsumgerechter Informationsangebote aufbereitet und je mehr nutzenstiftende Funktionen angeboten werden, desto eher ist der Benutzer eines Webangebots bereit, für diese Informationen zu bezahlen. Er erkennt den Vorteil gebündelter, bequem zu konsumierender Informationspakete im Gegensatz zu unstrukturierten, nicht geordneten und schwer auffindbaren Inhalten im gesamten WWW. Allerdings geben knapp 60 Prozent der deutschen Internetnutzer an, auch weiterhin auf keinen Falle für Online-Content bezahlen zu wollen[37].
Trotzdem wollen deutsche Verlage[38] schon in nächster Zeit ihr Online-Angebot weitestgehend kostenpflichtig anbieten. Die Qualität der Inhalte soll dabei allerdings steigen, denn das Preis- Leistungsverhältnis wird für die Nutzer-Akzeptanz entscheidend sein. Die Zukunft für kostenpflichtige Angebote wird von den Verlagen positiv bewertet. Allerdings müsse die Hochwertigkeit des Angebots, also z.B. exklusive und personalisierte Inhalte, garantiert sein.

Die Verlage erwarten vor allem in folgenden Bereichen die baldige Einführung kostenpflichtiger Angebote (Mehrfachnennungen):

Abbildung in dieser Leseprobe nicht enthalten

Als Begründung für die Einstellung kostenloser Angebote wird angegeben, dass die derzeitigen Geschäftsmodelle der Online-Verlagsdienste vor dem Hintergrund der rückläufigen Werbeeinnahmen nicht profitabel seien. Ökonomische Sachzwänge werden demnach als Hauptgrund für die geplante Preiseinführung genannt (87 Prozent). Daneben sollen jedoch auch weiterhin Teile des Angebotes kostenfrei bleiben.
Als Verfahren zur Gebührenabrechnung soll z.B. "pay-per-minute" (Preis nach Downloadzeit), "pay-per-use" (einmalige Nutzungsgebühr je nach Inhalt) oder eine Clubmitgliedschaft, die den Zugang zu den kostenpflichtigen Inhalten ermöglicht, eingeführt werden. Die Verlage erwarten insgesamt ein verändertes Surfverhalten der Nutzer und zunehmende Zugriffszahlen - nach einem vorübergehenden Rückgang - wenn die Inhalte, Preise und Leistungen für den Kunden attraktiv gestaltet würden.
Gerade in diesem E-Commerce-Segment liegt ein großes Marktpotenzial für Usability-Untersuchungen, denn sie können dem Anbieter eines Angebots Aufschluss darüber geben, ob es sich lohnt, Inhalte gebührenpflichtig anzubieten und wenn, welcher Art diese Inhalte sein sollten und wie viel der Nutzer bereit ist, dafür zu bezahlen.

3.4.2 Das Internet als Marketingkanal

Der Einsatz von IT-Technologien im Rahmen des Marketing eines Unternehmens hat in den letzten Jahren an Bedeutung gewonnen. Es wurden Verfahren zur Messung der Reichweite eines Angebots, des Benutzerverhaltens, der Benutzereinstellung und zur Pflege einer Online-Marke entwickelt. Durch Analyse und Auswertung von fragmentiert vorliegenden Kunden-, Wettbewerbs- und anderen Unternehmensdaten kann strategisches Wissen generiert und somit der Entscheidungsprozess des Managements und damit die Steuerung eines Unternehmens unterstützt werden (Knowledge Management). Allerdings wurden diese Verfahren im Rahmen des Business Intelligence bzw. Web-Intelligence bis jetzt häufig noch nicht konsequent genug umgesetzt.

3.4.3 E-Business und E-Commerce

a) Definition und Begriffsabgrenzung

Die Begriffe Electronic-Business und Electronic-Commerce werden häufig synonym verwendet. Der Bereich E-Business ist jedoch weitgehender, denn er umfasst sämtliche Vorgänge innerhalb und außerhalb eines Unternehmens, bei deren Abwicklung Informationstechnologie zum Einsatz kommt[39]:

Abbildung in dieser Leseprobe nicht enthalten

IT-Technologien können bei der Lösung vieler Unternehmensprobleme helfen und ermöglichen bei sinnvollem Einsatz das Erzielen von Kosten- und Wettbewerbsvorteilen.

Der Begriff E-Commerce lässt sich nach Baumann und Kistner definieren als

die über Telekommunikationswerke unter Nutzung von Web-Technologien elektronisch realisierte Anbahnung, Aushandlung oder Abwicklung von Geschäftstransaktionen zwischen Wirtschaftssubjekten.[40]

Man unterscheidet außerdem zwischen verschiedenen Ebenen der Geschäftsbeziehungen:

Abbildung in dieser Leseprobe nicht enthalten

b) Vorteile des E-Commerce für Betriebe und Konsumenten:

21 Prozent aller mittelständischen Unternehmen weltweit stehen dem E-Commerce aufgeschlossen gegenüber[41] und nutzen das Internet bereits zum Verkauf. Die Mehrheit erzielt mit dieser Maßnahme

- Umsatzsteigerungen,
- kürzere Lieferzeiten,
- eine kostengünstigere Abwicklung und
- reduzierte Betriebskosten.

Für den Konsumenten gewinnt der elektronische Vertriebs-Kanal bei nicht-materiellen Waren und Dienstleistungen zunehmend an Bedeutung wie z.B. Download-Produkten (CDs, Videos, Software etc.), Reisebuchungen oder Online-Banking. Hier muss der Kunde zu keiner Zeit den PC verlassen, denn diese digitalen Güter lassen sich im Gegensatz zu materiellen Gütern sowohl online bestellen als auch online liefern.

Vorteile aus Sicht des Unternehmens:

- globale Präsenz
- 24-Stunden-Betrieb bei geringem Personaleinsatz
- hoher Automations- und Integrationsgrad in der Geschäftsabwicklung
- Möglichkeit, Informationen multimedial zu präsentieren
- Möglichkeit, Informationen schnell zu aktualisieren
- Erschließung neuer Geschäftsmöglichkeiten durch den Direktvertrieb

Vorteile aus Sicht des Konsumenten:

- Unabhängigkeit von Ladenöffnungszeiten
- Möglichkeit, international einzukaufen
- häufig wechselndes Angebot
- (meist) unkomplizierte Bestellmöglichkeit
- Vermeidung von Einkaufsstress
- Möglichkeit des Preisvergleichs (z.B. auch durch Preisagenturen)
- Möglichkeit der umfassenden, vergleichenden Produkt-Information
- Möglichkeit der vereinfachten Kontaktaufnahme mit dem Hersteller
- Möglichkeit, individualisierte/personalisierte Produkte zu kaufen

Widerstände und Barrieren im E-Commerce durch den Konsumenten:

Nach wie vor kaufen die meisten Kunden allerdings lieber im Supermarkt, im Möbelhaus oder in der Mode-Boutique, als im Internet ein. Der Kauf von materiellen Waren über das Internet erscheint dem Konsumenten deshalb nur attraktiv bei

- Ware, die vor Ort nicht erhältlich ist
- Ware, die bereits bekannt ist und nicht mehr geprüft werden muss
- Ware, die schwer zu transportieren ist
- Ware, die im Internet günstiger zu bestellen ist
- Ware, die kostenlos geliefert wird
- Ware, bei der die Beratung vor Ort nicht oder nicht ausreichend angeboten wird

Wenn eine Geschäftsbeziehung zwischen Anbieter und potenziellem Kunden im Internet nicht zustande kommt, kann das sowohl am "Nicht-Können" als auch am "Nicht-Wollen" des Konsumenten liegen.

Nicht-Können (Barriere):

- fehlende technische Ausstattung
- fehlender oder zu langsamer Internetzugang
- keine Kreditkarte verfügbar
- fehlende notwendiger Kenntnisse zum Bedienen eines PC oder zum Surfen im Netz

Nicht-Wollen (Widerstand):

- prinzipielle Ablehnung des E-Commerce
- fehlender Kontakt zu Menschen
- kein sinnliches Einkaufserlebnis
- Sicherheitsbedenken im Zahlungsverkehr
- Sicherheitsbedenken bei der Übermittlung personenbezogener Daten
- rechtliche Bedenken beim Abschluss von Verträgen über das Netz
- keine Möglichkeit, die Ware zu prüfen
- keine Möglichkeit, den Anbieter zu überprüfen (z.B. bei ausländischen Unternehmen)
- verzögerte Verfügbarkeit von Waren

Die mangelnde Bereitschaft oder die fehlenden Kenntnisse im IT-Bereich sind jedoch nicht immer ausschlaggebend für das Nichtzustandekommen einer Geschäftsbeziehung im Internet. Häufig scheitern Nutzer, die es bereits bis auf die Website des entsprechenden Anbieters geschafft haben, letztlich an der schlechten Bedienbarkeit und mangelnden Übersichtlichkeit des Online-Angebots.

Der Nutzer einer Website macht für seine negativen oder positiven Erfahrungen nicht nur das Internet-Angebot, sondern das gesamte Unternehmen verantwortlich. Die schlechte Qualität und/oder Gebrauchstauglichkeit eines E-Commerce-Angebots hat deshalb nicht nur Umsatzeinbußen für den Anbieter zur Folge, sondern wirft auch ein ungünstiges Licht auf das gesamte Unternehmen und kann durch den Vertrauensverlust beim Konsumenten das Firmenimage beschädigen.

3.4.4 Entwicklung des E-Commerce in den letzten Jahren

Ende der 90er Jahre sprach man überall von der New Economy und meinte damit nicht nur den neuen "Wirtschaftsfaktor Internet", sondern auch die dramatische Veränderung der Arbeitsbedingungen in den jungen sogenannten Dotcom-Unternehmen. Mitarbeiter-Netzwerke sollten Unternehmens-Hierarchien ersetzen, die Jeans den Anzug und ein kollegiales Miteinander ohne feste Arbeitszeiten den von Anpasserei und Intrigen dominierten Arbeitsalltag herkömmlicher Firmenetagen. Die Euphorie ist inzwischen einer flächendeckenden Ernüchterung gewichen. Mit dem Ende des New-Economy-Booms und der Krise des neuen Wirtschaftszweiges im Frühjahr und Sommer 2000 schien auch das Geschäftsmodell E-Commerce gescheitert. Doch Ergebnisse von Untersuchungen, wie z.B. dem GfK-Online-Monitor, der W3B Umfrage, E-Market, ComCult oder Sevenone Interactive/Forsa zeigen, dass das Geschäftsfeld E-Commerce nach wie vor wächst, wenn auch nicht so explosiv, wie noch vor zwei Jahren prophezeit. So sind Mitte des Jahres 2001 bereits wieder über die Hälfte der mittelständischen E-Commerce-Unternehmen in den USA profitabel und Forrester Research kündigt auch für Deutschland einen E-Commerce-Frühling an, sobald die schlechten Geschäftsmodelle vom Markt verschwunden und die guten gestärkt aus der Krise hervorgegangen seien[42]. Die Zahl der deutschen E-Commerce-Nutzer stieg nach dem GfK-Online-Monitor der 7. Welle[43] von 9 Millionen in 2000 auf 13,6 Mio. im Jahr 2001. Damit kauften mehr als die Hälfte der deutschen Internetnutzer im Verlauf des letzten Jahres mindestens einmal im Internet ein und setzten dabei 2 Milliarden DM um. Der Umsatz ist in einem Jahr demnach proportional stärker gestiegen (knapp verdoppelt) als die Zahl der E-Consumer. Die W3B-Umfrage errechnet für das Jahr 2001 allerdings rückläufige Werte in Bezug auf die Online-Kauf-Absichten der Konsumenten. So hat sich zwar der Anteil derer, die "ganz bestimmt" etwas kaufen wollen, von 1997 bis Herbst 2000 auf 64,1 Prozent der Internetnutzer mehr als verdoppelt, ist aber nach der letzten Umfrage im Jahr 2001 wieder auf 52,9 Prozent zurückgegangen.

Dies könnte mit der Diskussion um Sicherheitsaspekte beim Online-Einkauf oder mit den allgemein pessimistischen Konjunkturerwartungen und der damit verbundenen Zurückhaltung der Konsumenten begründet werden.

Die 10 am häufigsten genutzten E-Commerce-Angebote in den Jahren 2000 und 2001[44]:

- Bücher
- Musik-CDs
- Eintrittskarten
- Software-CDs
- Geschenkartikel
- Computer/Hardware
- Kleidung/Schuhe
- Wertpapiere
- Computer und Video-Spiele
- Bahntickets

3.4.5 Die Zukunft des E-Commerce

Eine Reihe von E-Commerce-Geschäftsmodellen hat sich in den letzten Jahren als nicht ausgereift genug und in der allgemeinen Euphorie überbewertet herausgestellt. Es gibt aber auch erfolgreiche Anwendungsbeispiele, wie z.B. die Übertragung des Katalog-Bestellverfahrens auf das Internet[45]. So hat sich das Internet vom reinen Kommunikations-, Unterhaltungs- und Informationsmedium trotz allem zu einem bedeutenden Vertriebskanal für unterschiedlichste Produkte entwickelt und wurde in die Geschäfts- und Marketingprozesse vieler Unternehmen erfolgreich integriert.

Der Trendforscher Matthias Horx[46] sieht allerdings nur dann eine Zukunft für den Verkauf von Waren über das Internet, wenn die bestehenden End-Logistik-Probleme gelöst würden, wenn also die Verteilung der Waren an den Verbraucher problemlos vonstatten ginge (das Geheimnis der "Letzten Meile"). Er prophezeit deshalb ein Comeback des Einzelhandels in Form von E-Convenience-Shops, die als "Brückenköpfe" die Verteilung der online bestellten Waren übernehmen könnten (wie bereits in Japan realisiert).
Eine aktuelle Studie des Bundesministeriums für Wirtschaft in Zusammenarbeit mit Skopos[47] kommt allerdings zu dem Ergebnis, dass dieser Kombination verschiedener Vertriebskanäle bislang in Deutschland keinerlei Bedeutung zukommt.
Horx prognostiziert für die Zukunft eine Synthese von Old und New Economy zur "Smart Economy". Die in den letzten Jahren neu entwickelten Formen der Arbeitsorganisation (Netzwerke statt Hierarchien) und Mitarbeiterorientierung (human capital) verschmelzen so mit dem Wissen und erprobten Management im Bereich der Logistik der Old Economy. Es entsteht ein "Multi Channel Marketing":- kunden- und mitarbeiterorientiert, schnell und flexibel.
So werden "Pure Internet Player" in Zukunft wohl seltener im Netz anzutreffen sein, denn wie die Erfolge der Old Economy (Neckermann, Deutsche Post, Quelle, Telekom etc.) zeigen, ist die Kombination traditioneller Konzepte mit Online-Funktionen (Multi Channel Strategie) erfolgversprechender.
Die Studie des BMWi kommt ebenfalls zu dem Ergebnis, dass Multi-Channel-Anbieter Kundenbedürfnisse besser befriedigen als One Channel Anbieter, weil sie Konsumenten die Möglichkeit bieten, verschiedene Vertriebskanäle zu kombinieren.
30 Prozent der Befragten gab an, sich vor einem Kauf in einem Ladengeschäft im Internet über die gesuchten Produkte zu informieren. Immerhin 10 Prozent aller Einkäufer kaufen dann auch im Geschäft des gleichen Unternehmens, bei dem sie sich zuvor online informiert hatten. Dem Internet kommt demnach eine nicht unerhebliche Bedeutung als Informationsmedium im Zusammenhang mit Einkäufen in einem stationären Ladengeschäft zu.
Ebenfalls 30 Prozent der Internet-Käufer hatten sich nach den Ergebnissen der Studie zuvor in einem Ladengeschäft über die zu kaufenden Produkte informiert. Allerdings kaufte die Mehrzahl dieser Konsumenten dann im Internet über einen anderen Anbieter (und kombinierte so - zum Nachteil des Offline-Händlers - eine kostenlose Fachberatung im Ladengeschäft mit günstigeren Preisen im Internet).

Professor Bernd Skiera, Inhaber des ersten Lehrstuhls für E-Commerce in Deutschland an der Universität Frankfurt, sieht ebenfalls die Zukunft des E-Commerce in der Verschmelzung von Online- und Offline-Welten[48].
Viele Kunden wollen sowohl die Vorteile einer Webpräsenz als auch das Offline-Warenangebot wahrnehmen (z.B. Online Banking und Besuch einer Bankfiliale). Skiera hält deshalb das Internet nur für eine weitere Möglichkeit der Interaktion mit dem Kunden. Er glaubt ebenfalls nicht an die Durchsetzung von "Pure Internet Playern", sondern sieht in einer Verschmelzung der Online- und Offline-Welten die Möglichkeit, die Vorteile dieser Kanäle - also z.B. die schnelle Informationsrecherche online mit dem An- und Ausprobieren und der Logistik offline - optimal zu kombinieren. Vorteile bringt der Einsatz von Informationstechnologien auf jeden Fall im Bereich Marketing und Marktforschung, denn hier ist es nun möglich, sämtliche Daten des Käuferverhaltens zu sammeln und auszuwerten. Dies ist notwendig, um Trends schneller aufzuspüren und das Verhalten der Kunden und Konkurrenz besser einschätzen zu können. Vorteile bringt natürlich auch eine weltweite Informationsrecherche und Absatzmöglichkeit (Markttransparenz). Hier besteht aber gleichzeitig die Gefahr, dass Anbieter ebenso auf die eigenen Märkte drängen.

Ein Unternehmen hat durch das Internet also bessere Absatzmöglichkeiten, muss sich aber gleichzeitig einer größeren Konkurrenz stellen.

3.4.6 Die Bedeutung von Usability für den Erfolg eines E-Commerce-Angebots

Das Internet hat sich in den letzten Jahren vom reinen Präsentationsmedium immer mehr zum Werkzeug entwickelt. So werden vor allem im Geschäftsfeld E-Commerce zunehmend Dateneingaben und eine aktive Beteiligung des Nutzers an Transaktionen erforderlich.
E-Commerce-Webangebote werden jedoch zunehmend im Stil von Hochglanz-Broschüren oder Kinofilmen mit aufwendigem, möglichst auffallendem Design erstellt.. Diese unreflektierte Übernahme von in anderen Medien erprobten Gestaltungselementen verhält sich konträr zum Ziel der effektiven und effizienten Nutzung einer Website im Sinne eines einfach handhabbaren Werkzeugs.

Nach den Sicherheitsbedenken (Zahlungsweise) der Nutzer spielen deshalb auch Usability-Faktoren die bedeutendste Rolle beim Nichtzustandekommen eines Online-Kaufakts:

Abbildung in dieser Leseprobe nicht enthalten

(Basis: alle Internetnutzer, die den Bestellvorgang abbrachen[49] )

In seiner Alertbox fragte Jakob Nielsen im August 2001: "Did Poor Usability Kill E-Commerce?[50] " Er kommt in einer Untersuchung zu dem Ergebnis, dass nur 56 Prozent der Nutzer erfolgreich eine Transaktion über eine Website abschließen konnten und dass der Usability-Faktor neben den zu hohen Kosten und gleichzeitig geringen Erträgen der Hauptgrund für das Scheitern vieler Webangebote sei.

Während der Durchschnitt aller E-Commerce-Sites in den USA nur 37% der von Nielsen aufgestellten Usability-Kriterien für E-Commerce erfüllen (international nur 15 %), folgen die 10 erfolgreichsten Webangebote 97 von 210 (also 53%) der Usability-Richtlinien. Ein Zusammenhang von kommerziellem Erfolg und gebrauchstauglicher Gestaltung der E-Commerce-Websites ist also naheliegend.

Vor allem zu den Zeiten des New Economy-Booms galt in vielen Unternehmen die Maxime "wir müssen möglichst schnell (schneller als die Konkurrenz) mit unserem Online-Angebot im Netz vertreten sein". Aus diesem Grund wurde ein gewissenhaftes Vorab-Testen der entsprechenden Webpräsenz meist vernachlässigt oder ganz gestrichen. Sowohl auf der funktionalen als auch auf der gebrauchstechnischen Ebene hatte diese Eile häufig fatale Konsequenzen: Geschäftsprozesse konnten nicht abgewickelt werden, Nutzer wurden verärgert und gingen am Ende ganz verloren.

Die Konkurrenzsituation im E-Commerce ist noch härter als im Offline-Handel, denn eine Alternative bietet sich für den Kunden schnell und einfach: der nächste Anbieter ist nur einen Mausklick entfernt. Diese besonderen Eigenschaften des "Marktplatzes Internet", zu denen auch die Anonymität der Kundenbeziehung zählt, macht es einem Anbieter schwer, sich von anderen abzuheben und Möglichkeiten zu finden, den Kunden an das eigene Angebot zu binden. So wird eine unattraktive und schlecht benutzbare Website häufig zu einer teuren Fehlinvestitionen.

Faktoren wie eine freundliche Beratung, attraktive Preise und eine große Auswahl spielen online wie offline eine zentrale Rolle. Im Internet gibt es aber noch zusätzliche Möglichkeiten, den Service zu optimieren, um eine Kundenbindung zu erreichen wie z.B. personalisierte Angebote, eine gute Performanz und ansprechende, fehlerverzeihende Anwendungen, die ein leichtes Auffinden der gewünschten Information sowie eine schnelle Transaktion ermöglichen. Die Website Usability spielt für den Erfolg eines Online-Angebots also eine wichtige Rolle.

Dennoch reicht es für einen Anbieter im Geschäftsfeld E-Commerce nicht aus, nur die Qualität der Benutzerführung zu testen: er muss das gesamte implementierte System überprüfen und testen, um einen Misserfolg seiner Webpräsenz zu vermeiden. Nur durch die regelmäßige Überprüfung sowohl der Erwartungshaltung seiner Zielgruppe als auch des Gebrauchswerts sowie des Nutzens und Return-on-Investment (ROI)[51] seines Webangebots, kann ein Anbieter die Kundenbindung und damit den Erfolg seiner Website positiv beeinflussen.Insgesamt kann man feststellen, dass es auch in Zukunft für den Anbieter einer Website nicht leichter werden wird, seine Waren oder Dienstleistungen erfolgreich über das Internet zu verkaufen, denn die Benutzererwartung steigt, und unbequeme, unflexible oder qualitativ schlechte Lösungen werden vom Besucher einer Website immer weniger toleriert.

4. Die Nutzer des Internet

4.1 Die Internetnutzung in Deutschland

Weltweit nutzten im Jahr 2001 über 350 Millionen Menschen das Internet und bewegten sich durch über 3 Milliarden Websites. Die aktuellsten Studien zur Internet-Nutzung z.B. von SevenOne Interactive (Stand Februar 2002[52] ) oder NFO Infratest InterActive Research (Stand Januar 2002[53] ) zählen über 30 Millionen Internetnutzer in Deutschland. Damit ist fast jeder zweite Bundesbürger über 14 Jahre schon einmal online gewesen, von den 14 bis 29jährigen sogar drei von vier. Die Zahl der Internetnutzer in Deutschland von 1999 bis 2002 in Millionen (Quelle: GFK Online-Monitor bzw. SevenOne Interactive (2002)):

Abbildung in dieser Leseprobe nicht enthalten

Die in Deutschland 2001 am häufigsten genutzten Inhalte:
(Quelle: GfK-Online-Monitor 7. Welle)

Abbildung in dieser Leseprobe nicht enthalten

Die am häufigsten besuchten deutschen Websites (.de) im März 2002:

Abbildung in dieser Leseprobe nicht enthalten

(Quelle: Jupiter MMXI Deutschland)

4.2 Ergebnisse der ARD/ZDF Online-Studie

Die ARD/ZDF Online-Studie untersucht einmal jährlich die Internetnutzung in Deutschland allgemein und nach Zielgruppen getrennt[54].

4.2.1 Die Internetnutzung einiger Zielgruppen

In der ARD/ZDF-Online-Studie erwies sich 1997 die Mehrzahl der Nutzer als männlich, gebildet und unter 40 Jahre alt. Inzwischen haben andere Bevölkerungsanteile stark aufgeholt.

Frauen:

Während 1997 der weibliche Nutzeranteil gerade 3,3 Prozent der Gesamtbevölkerung betrug, beträgt er 2001 immerhin 30,1 Prozent (Männer: 48,3 Prozent).

Senioren:

Der Anteil an Internetnutzern zwischen 50 und 60 Jahren stieg zwischen 1997 und 2001 von 3 Prozent auf 32,2 Prozent. Sehr stark stieg auch der Nutzeranteil der über 60jährigen von 0,2 auf 8,1 Prozent. Dies ist zwar ein enormer Zuwachs (über Faktor 40), aber insgesamt betrachtet nutzt immer noch nur eine geringe Zahl Senioren das Internet.

Erstanwender:

In den letzten Jahren nahm v.a. die private Internetnutzung stark zu (78 Prozent der Nutzer können auf einen privaten Anschluss zurückgreifen, 46 Prozent nutzen ausschließlich einen privaten Anschluss). Durch die sinkenden Preise für Hardware und Software können heute auch Nutzer mit geringerem Einkommen über einen eigenen Internetanschluss verfügen. Deshalb ist auch die Zahl der Erstanwender und relativ Unerfahrenen im Umgang mit dem neuen Medium gestiegen. Ein Drittel der Befragten der ARD/ZDF-Online-Studie gab an, das Internet erst seit zwei oder weniger Jahren zu nutzen.

Nutzer mit formal niedriger und hoher Schulbildung:

Nutzer mit niedriger Schulbildung (Volks-/Hauptschule) erfahren ebenfalls eine Zuwachsrate von mehr als Faktor 10 (von 1,3 Prozent auf 17,9 Prozent). Allerdings sind im Vergleich zu Nutzern mit Abitur (60,2 Prozent) oder Nutzern mit akademischer Ausbildung (60,7 Prozent) immer noch vergleichsweise wenig Hauptschulabgänger im Netz vertreten.

Trotz der weiterhin stärker vertretenen männlichen, jungen, gebildeten Nutzer kann insgesamt festgestellt werden, dass sich die Zusammensetzung der Internetnutzer zunehmend den Strukturen der Gesamtbevölkerung angleicht und deutlich vielschichtiger wird.

Ein Durchbruch des Internets in allen Bevölkerungsschichten dürfte lediglich erfolgen, wenn mit der Konvergenz der Endgeräte die Handhabung des Internets so leicht wird wie die Handhabung einer Fernbedienung und vor allem, wenn die Noch-Nicht-Nutzer den realen Nutzwert des Mediums für sich persönlich erkennen.[55]

4.2.2 Nutzungsstrategien und Nutzungsdauer

Nutzungsstrategie:

Die Mehrheit der Nutzer (74 Prozent) gibt gezielt eine Adresse ein um auf eine Website zu gelangen. Nur 12 Prozent surfen ziellos durch die Seiten und lassen sich vom Angebot leiten.

Genutzte Angebote:

Die meisten Nutzer besuchen zwar häufig die gleichen Seiten (42 Prozent), geben aber an, keine wirkliche Lieblingsseite zu haben. Deshalb binden sie sich auch nur selten an einen bestimmten Anbieter von Websites.
Die Mehrheit der Nutzer besucht zwar häufiger ein- und dieselbe Seite (50 Prozent) , allerdings handelt es sich dabei meist um eine Suchmaschine, was darauf hindeutet, dass die meisten Nutzer individualisiert auf Angebote zugreifen.

Verweildauer:

Insgesamt verbringt der Durchschnittsnutzer 2001 mehr Zeit im Netz als in den Jahren zuvor, allerdings ohne mehr Seiten aufzurufen. Die durchschnittliche Verweildauer auf einer Seite nahm dementsprechend zu.
Während die Zahl der Nutzer, die täglich im Netz surfen, in den letzten zwei Jahren von 34 auf 28 Prozent abnahm, stieg die Zahl der Gelegenheitsnutzer von 19 auf 24 Prozent. Dies hängt wohl mit der veränderten Struktur der Grundgesamtheit aller Internetnutzer zusammen, denn die Zahl der Menschen, die das Netz nicht zu Studien- oder Berufszwecken nützen, nahm in den letzten Jahren stark zu.

4.2.3 Nutzungsprobleme

Bei der Befragung zur Bedienungsfreundlichkeit von Websites gaben im Vergleich zum Jahr 2000 weniger Nutzer an, auf Probleme während einer Internetsitzung gestoßen zu sein. Nur der Punkt "störende Werbung" wurde häufiger beanstandet als 2000 (2000: 58 Prozent; 2001: 64 Prozent). Dieser Punkt führt auch die Liste der Nutzungsprobleme an, gefolgt von

- langsamem Seitenaufbau,
- veralteten Links,
- langen Downloadzeiten,
- Problemen beim Auffinden von Informationen und
- unübersichtlicher Seitengestaltung.

Noch immer dürfte für die langen Lade- und Downloadzeiten u.a. die mangelnde und evtl. veraltete technische Ausrüstung bzw. die langsame Internetverbindung der Nutzer verantwortlich sein (ISDN bzw. Breitband-Technologie ist noch nicht Standard). Solange in diesem Bereich keine grundlegenden Veränderungen eintreten[56], ist Schnelligkeit in der Datenübertragung (Dateigröße) deshalb nach wie vor ein Wettbewerbsvorteil.

4.2.4 Schlussfolgerungen aus der Studie

n Wer bis jetzt keinen persönlichen Nutzwert am neuen Medium erkennen konnte, wird auch in den nächsten Jahren trotz verbilligter Tarife und Hardwarekosten nicht im Internet zu finden sein. Die Zahl der Internetnutzer wird sich demnach ungefähr auf dem jetzigen Stand (ca. 50 Prozent der Bevölkerung) einpendeln.

- Das Internet verdrängt nicht die klassischen Medien sondern ergänzt sie.
- Die passive Mediennutzung wird weiterhin dominieren.
- Trotz technischer Konvergenz ändert sich die Mediennutzung nicht grundlegend.
- Im Bereich aller Medien steigt die Zahl der Verbreitungswege stärker als die Menge der Inhalte.
- Weil immer weniger Anbieter den Online-Informationsmarkt dominieren (Gefahr der Meinungskonzentration), müssen öffentlich-rechtliche Anbieter für die Glaubwürdigkeit und Orientierung der Angebote sorgen.

4.3 Kategorisierung der Nutzungsziele

Die Nutzung des Mediums Internet ist vergleichbar mit der Nutzung anderer Individual- oder Massenmedien, da es multifunktional einsetzbar ist. Somit lassen sich auch Nutzenkategorien wie der Uses-and-Gratifications-Ansatz aus der Medienforschung auf die Internetnutzung anwenden[57].
Die entsprechenden Gratifikationstypologien der Massenmedienforschung (Information, Unterhaltung und soziale Identität) sowie der Individualmedienforschung (Instrumentalität und Soziabilität) lassen sich demnach auch auf die Ziele und Inhalte der Internetnutzung anwenden. Durch die aktive Nutzung des Mediums Internet (pull-Medium) können diese Nutzenkategorien außerdem z.B. um die Möglichkeit, sich vor einem großen Publikum zu äußern oder neue Kontakte zu knüpfen erweitert werden. Zusätzlich ist eine Kombination verschiedener Gratifikationen möglich (z.B. die Kombination von Information und Knüpfung neuer Kontakte durch Teilnahme an einer Mailingliste). Die Operationalisierung der Nutzungsziele ist allerdings ebenso problematisch wie die Kategorisierung von Websites und Typologisierung der Internetnutzer, weil die verwendeten Kategorien meist nicht trennscharf und eindeutig genug bestimmt und abgegrenzt werden können (schon die Kategorien "unterhalten" und "informieren" lassen sich nicht eindeutig zuordnen, denn was der eine Nutzer als Information betrachtet, stuft ein anderer als Unterhaltung ein (Bsp: Prominenten-Nachrichten, Sport-Nachrichten etc.)).

4.4 Die Bedeutung der Zielgruppenanalyse

Mit sinkender Toleranzschwelle und steigenden Ansprüchen der Internetnutzer sowie zunehmender Konkurrenz auf dem Online-Markt wird es auch für den Anbieter einer Web-Präsenz immer wichtiger, seine Zielgruppe(n) im Internet zu kennen, die Bedürfnisse seiner Besucher und/oder Kunden ernst zu nehmen und konkret anzusprechen. Das Instrument der Kunden- und Zielgruppensegmentierung wird jedoch nach wie vor im Online-Business zu wenig beachtet. So wertete Ende des Jahres 2000 nur etwa jedes fünfte Online-Unternehmen in Europa die eigenen Unternehmens- und Kundendaten aus, um mehr über seine Zielgruppen zu erfahren[58].

Die Identifikation von unternehmensrelevanten Zielgruppen bildet nicht nur die Grundlage für ein effizientes Onlinemarketing. Auch die Gestaltung von Websites nach Usability-Kriterien ist abhängig von der jeweiligen Zielgruppe bzw. dem entsprechenden Nutzertyp (abgesehen von den Kriterien, die auf alle Nutzer gleichermaßen zutreffen und immer beachtet werden sollten). Das bedeutet für die Gestalter einer Website , dass die entsprechende Zielgruppe von Anfang an im Sinne des User Centred Designs (UCD) ins Zentrum der Websiteentwicklung gestellt werden muss, denn Inhalte, Gestaltung und Struktur einer Website müssen auf die entsprechenden Nutzungsmuster der jeweiligen Zielgruppe abgestimmt werden. So ist es für den Ersteller oder Optimierer einer Website unter Usability-Gesichtspunkten z.B. wichtig zu wissen, ob er einen Laien oder Experten vor sich hat, ob also ein Nutzer neu im Internet ist, schon Erfahrungen hat oder gar Profi ist.

Weiterhin muss bedacht werden, dass ein Nutzer beim ersten Besuch einer Website stärker geleitet werden muss, als bei Folgebesuchen, wenn er die Struktur und Navigation schon kennt.

Bei Erstellung einer Website sollte außerdem bekannt sein, welche Interessen und Ziele der Nutzer hat, welches Bildungsniveau der potenzielle Besucher hat, wie offen er Neuerungen in Design und Technik gegenübersteht (was u.a. vom Alter abhängen kann) und ob er lieber passiv durchs Netz surft oder aktiv nach Informationen sucht. Diese und andere Faktoren beeinflussen das Verhalten und Interesse eines Internetnutzers maßgeblich.

So wie es im Rahmen der "flexible Response" gilt, angemessen auf Kundenwünsche zu reagieren bzw. die noch schlummernden Bedürfnisse überhaupt erst zu wecken, so müssen - um konkurrenzfähig bleiben zu können - unflexible Standardmodule von Websites durch personalisierte oder zumindest an individuellen Kunden- und Zielgruppen orientierte Angebote ersetzt werden.

4.5 Die Typologisierung von Internetnutzern

4.5.1 Das Verfahren der Typologisierung

Welche Rolle die Analyse und Identifikation von Zielgruppen für das Marketing eines Unternehmens spielt, zeigt ein aktueller Artikel aus der FAZ vom 7.4.2002. Darin wird der neue Ansatz des Unternehmens Microsoft beschrieben, Interessenkonflikte zwischen verschiedenen Anwendergruppen der Software herauszuarbeiten, um "eine rational überprüfbare Handhabe für die Auswahl des richtigen Featuremix zu bekommen"[59]. Hierfür wurden auf Basis von Marktstudien und Zielgruppenanalysen sieben virtuelle Personen geschaffen und detailliert porträtiert (Lebenslauf, Arbeitsalltag, Einstellungen, Vorlieben etc.). Der Einsatz dieser "faked people based on real data" (die Microsoft "Supernutzer" nennt[60] ) soll z.B. verhindern, dass zukünftige Software-Versionen mit Funktionen überladen werden, die der Nutzer weder braucht noch bedienen kann.

Ziel ist also, dass die Software-Entwickler ihre oft überschäumende und den Nutzer überfordernde Erfindungskraft entlang dieser Nutzermodelle dosieren und überflüssige Features erkennen und vermeiden können.

Auch Web-Angebote sprechen je nach Thema, Inhalt und Gestaltung unterschiedliche Nutzergruppen an. Nicht jeder Anbieter hat jedoch die (finanziellen) Möglichkeiten zu einer Zielgruppenanalyse im Rahmen der Marktforschung. Sein Angebot könnte aber auch eine breite und inhomogene Klientel ansprechen. In diesen Fällen ist es sinnvoll, ein Interface zumindest im Sinne einiger Nutzertypen zu optimieren.

Durch eine Klassifizierung der Internetnutzer und Identifikation bestimmter Nutzertypen soll ein Zusammenhang zwischen unterschiedlichen Inhalten, ihrer Nutzung und den soziodemographischen Merkmalen ihrer Nutzer hergestellt werden. Man kann das Verfahren der Typologisierung beschreiben als die "Analyse von Gemeinsamkeiten und Verschiedenheiten von Merkmalen (...) durch die

Aufdeckung von unterschiedlichen Verbrauchergruppen (=Typen, Segmente, Cluster)".[61]

Ziel ist also, eine Anzahl von Einzelpersonen mittels einer Clusteranalyse auf möglichst wenige Typen zu verdichten, die sich möglichst stark voneinander unterscheiden sollten. Ein Internetnutzer soll dabei mit den Nutzern der gleichen Kategorie mehr Ähnlichkeit haben als mit denen jeder anderen Kategorie.

Neben soziodemographischen Merkmalen können Nutzer nach ihrer Erfahrung im Umgang mit dem Internet, nach ihren thematischen Interessen und Nutzungszielen, nach ihrem Onlineverhalten und ihren Nutzungsstrategien sowie nach ihrer Einstellung zum Medium Internet unterschieden werden. Dabei liegt der Schwerpunkt - wie man an Microsoft und dem aktuellen GfK Online-Monitor sehen kann - zunehmend bei der Erhebung und Auswertung qualitativer Merkmale wie Selbsteinschätzung des Surf-Verhaltens und persönliche Einstellung zum Internet, neuen Technologien oder bestimmten Themen und Inhalten.

Wie bei allen Kategorisierungen ist auch bei dem Versuch einer Typologisierung von Internetnutzern die Gefahr der Unschärfe gegeben, denn kaum ein Nutzer lässt sich vollständig und eindeutig einer einzigen Kategorie zuordnen.

Die ersten Versuche einer Typologisierung von Internetnutzern kamen vom Spiegel-Verlag (1997) bzw. vom Verlag Gruner + Jahr (1996). In beiden Fällen wurde jedoch nicht die tatsächliche Internet-Nutzung, sondern nur die Computer-Nutzung (Spiegel) bzw. das Interesse (G + J) an einer Nutzung (muss nicht mit der tatsächlichen Nutzung übereinstimmen) untersucht.

4.5.2 Die Nutzertypologie des GFK Online-Monitors

Die erste tatsächliche Analyse der Internetnutzung und Typologisierung der Internetnutzer lieferte der GFK Online-Monitor 1998. Die Untersuchung identifizierte 5 Nutzertypen: den Profi, den News-Freak, den Gameboy, den Klicker und den Praktiker. Bis zur sechsten Welle wurde die Einteilung aufgrund der Nutzung verschiedener Internet-Angebote vorgenommen (Nachrichten, E-Commerce, Jobangebote etc.)[62].

In der siebten Welle bildet die psychographische Einstellung der Nutzer und die Selbsteinschätzung in Bezug auf ihr Surf-Verhalten die Basis für die Nutzer-Typologie. Diese qualitativen Werte wurden anhand von 19 Aussagen zum Thema Internet ermittelt und durch eine Clusteranalyse den 7 neuen Nutzertypen zugewiesen. Neben den üblichen Fragen zu soziodemographischen Werten wurde so z.B. nach der bisherigen Internet-Nutzung (seit wann, wie häufig, wie lange) gefragt, welche Angebote genutzt werden, nach der Selbsteinschätzung in Bezug auf das eigene Verhalten und Vorgehen im Netz (sicher, schnell, zielgerichtet etc.) und nach der persönlichen Einstellung zum Internet (faszinierend, spannend, seriös etc.). Der Schwerpunkt bei der Typologisierung durch die GfK liegt also zunehmend bei qualitativen Nutzermerkmalen.

Aus den Ergebnissen der siebten Welle des GfK-Online-Monitors (2001) wurden sieben neue Nutzertypen gebildet[63]:

Abbildung in dieser Leseprobe nicht enthalten

a) Der karriereorientierte Intensivnutzer

Der Intensivnutzer ist mittleren Alters und überwiegend männlich. Er verfügt über ein hohes Bildungsniveau, nutzt das Internet regelmäßig und häufig und v.a. für berufliche Zwecke. Er orientiert sich am Nutzwert einer Website und besucht auch regelmäßig und häufig E-Commerce-Angebote.
Er geht bei seiner rational geprägten Informationssuche zielsicher und pragmatisch vor und hat das Internet schon effizient als selbstverständliches Werkzeug in seinen Alltag integriert.

Vorwiegend genutzte Angebote:

Online-Brokerage, Berufliche E-Mails, Unternehmens-Nachrichten und -Selbstdarstellungen, Lokale und regionale Dienstleistungen, Fahrplanauskünfte, Wirtschaftsinformationen

b) Der junge Multimedia-Freak

Der Multimedia-Freak ist jung, verfügt über ein mittleres Bildungsniveau und befindet sich häufig noch in der Ausbildung. Er ist sehr erfahren im Umgang mit dem Internet (Sachkompetenz), nutzt es aktiv v.a. für private Zwecke und geht regelmäßig und häufig online. Er nutzt ab und zu E-Commerce-Websites und schätzt v.a. Unterhaltungsangebote.

Vorwiegend genutzte Angebote:

Dating und Flirting, Chatforen, Internetumfragen, Download von Videos, Video-Streaming, Internet-Radio, Nachrichten über Prominente, Download von Musik

c) Der überzeugte Info-User

Der Info-User ist etwas häufiger männlich als weiblich, mittleren Alters und hat ein eher niedriges Bildungsniveau. Er hat schon einmal E-Commerce-Angebote genutzt und ist v.a. an Nutzen-orientierten Angeboten aus dem privaten Lebensbereich und Erotik interessiert. Er ist dem Internet gegenüber aufgeschlossen und schwankt zwischen Unsicherheit und Neugier, möchte aber den Anschluss nicht verpassen.

Vorwiegend genutzte Angebote:

Webmiles-Bonuspunkte, Online-Telegramme, Erotik-Angebote, Informationen zu Telekommunikation, Informationen zu Auto und Sport, Powershopping

d) Der ältere Selten-User

Der Selten-User ist älter, hat ein hohes Bildungsniveau und nutzt das Internet noch nicht allzu lange, eher selten und häufig auch für berufliche Zwecke. E-Commerce-Angebote besucht er kaum.
Er ist konservativ geprägt, verhält sich dem Internet gegenüber distanziert und legt großen Wert auf Sicherheit und Seriosität.

Vorwiegend genutzte Angebote:

Berufliche E-Mails, Unternehmens-Selbstdarstellungen, Fahrplanauskünfte, Datenbanken zu bestimmten Themen, Wirtschaftsinformationen, Online Banking, Touristische Angebote

e) Der passive Unterhaltungsorientierte

Der Unterhaltungsorientierte ist eher jünger und männlich und hat ein niedriges Bildungsniveau. Er nutzt das Internet v.a. für private Zwecke, besucht ab und zu E-Commerce-Angebote und unterhaltende Angebote wesentlich häufiger als informative.
Er hat wenig konkretes Interesse am Internet, obwohl er es theoretisch für eine faszinierende Sache hält.

Vorwiegend genutzte Angebote:

Videos sehen, Dating und Flirting, Webmiles, Nachrichten über Prominente, Internetumfragen, Mode und Fashion, Download von Musik, Musik hören, Internet-Radio

f) Die nutzenorientierte Gelegenheits-Userin

Die Gelegenheits-Userin ist überwiegend weiblich, höheren Alters und hat ein eher über dem Durchschnitt liegendes Bildungsniveau. Sie nutzt das Internet wenig intensiv, eher sporadisch, entweder privat oder beruflich (wenig Doppelnutzer) und besucht kaum E-Commerce-Angebote.
Sie steht dem Internet aufgeschlossen gegenüber, ist fasziniert, geht aber bei der Nutzung rational und zielgerichtet vor.

Vorwiegend genutzte Angebote:

Online Banking, Verkehrsinformationen, Essen, Trinken, Gastlichkeit, Touristische Angebote, Routenplanung, Reisethemen, Fahrplanauskünfte, Informationen über Bücher

g) Der aktive Neueinsteiger

Der Neueinsteiger ist mittleren Alters, hat ein niedriges Bildungsniveau und ist überwiegend weiblich. Er nutzt das Internet noch nicht lange, eher sporadisch und v.a. für private Zwecke. Er besucht kaum E-Commerce-Angebote, sondern eher die nutzwerten Websites sowie die Bereiche Unterhaltung und Sachinformationen.
Er steht dem Internet aufgeschlossen gegenüber und nutzt es aktiv, legt Wert auf Sicherheit und Seriosität und ist noch vorsichtig im Umgang mit dem für ihn neuen Medium.

Vorwiegend genutzte Angebote:

Horoskope, Chatforen, Dating und Flirting, Erotik, Nachrichten über Prominente, Kosmetik und Körperpflege, Mode und Fashion, Wohnen und Einrichten, Musik hören, Videos sehen

4.5.3 Eine vereinfachte Nutzertypologie

Eine Einteilung der Internetnutzer nach ihrem Erfahrungsstand findet man bei Hofer[64] und Thissen[65]:

Abbildung in dieser Leseprobe nicht enthalten

5. Das Phänomen Hypertext

Der Begriff Website bezeichnet ein Hypermediadokument im World Wide Web. Da der Aufbau, die Komponenten und Funktionsweisen eines Hypertextsystems somit die Basis für jedes Web-Angebot bilden, soll im Folgenden auf diese Aspekte näher eingegangen werden.

5.1 Die historische Entwicklung des Hypertext-Konzepts

Das von V. Bush entwickelte Memex[66] kann als Vorläufer des heutigen Hypertext-Konzeptes betrachtet werden. Die Menge an wissenschaftlichen Veröffentlichungen war schon zu Bushs Zeiten so groß und unübersichtlich geworden, dass das Hauptproblem eines Wissenschaftlers nicht mehr das Lesen, sondern das Suchen, Vergleichen und Speichern eines Textes war. Die Idee zur Entwicklung des Memex war allerdings nur möglich durch die Weiterentwicklung der benötigten Speichermöglichkeiten (Mikrophotographie), wodurch eine Kompression des umfangreichen Materials (Bush: the growing mountain of research) möglich wurde.
Beim Memex sollten sämtliche Informationen auf Mikrofilm gespeichert, im Schreibtisch gelagert und auf einen Bildschirm per Flaschenzug projiziert werden[67]. Es sollte aber nicht nur möglich sein, Informationen einzulagern und schnell wieder abzurufen, sondern Bush wollte die übliche Informationssuche z.B. über einen hierarchischen Index durch das assoziative Verknüpfen dieser Daten ersetzen (assoziatives Indizieren)[68]. So sollte beim Memex der Anwender in einem Dokument einen "trail" auf ein anderes Dokument anlegen. Würde dieser "trail" angewählt, sollte das zweite Dokument auf einem weiteren Bildschirm parallel dargestellt werden. Der Nutzer (speziell der Wissenschaftler) könnte mit dem Memex individuelle Pfade aus verbundenen Informationen erstellen, diese speichern und sowohl in fremde Pfade integrieren als auch auf ein fremdes Memex übertragen. So sollten umfangreiche Wissensarchive entstehen mit der Möglichkeit einer zielgerichteten Suche nach Themenbereichen. Sinnvolle Pfade durch diese Archive sollten nach Bush von Spezialisten ("trail blazer") zusammengestellt und gegen Entgelt anderen Benutzern zur Verfügung gestellt werden. Douglas Engelbart nahm 1963 die Ideen Bushs wieder auf und entwickelte in den folgenden Jahren das System NLS/Augment (oN Line System), das erste reelle Hypertextsystem. Es diente einer Gruppe von Forschern zur Kommunikation und Koordination.[69]

Bis Ende der 80er Jahre waren das Hypertext-Konzept und die dafür entwickelten Anwendungen Experten bzw. Wissenschaftlern vorbehalten. Erst mit der Durchsetzung der graphischen Benutzeroberfläche und der Einführung der Macintosh-Rechner von Apple mit dem integrierten Hypertext-System (HyperCard - zur Erstellung eigener Hypertextanwendungen) bekam eine größere Zahl von Computer-Nutzern die Möglichkeit, mit Hypertext zu arbeiten.

Mit der Entwicklung des Speichermediums CD-ROM war die Basis für interaktive Nachschlagewerke und Lernprogramme auf Hypermedia-Basis geschaffen. Die heute wohl bekannteste und am weitesten verbreitete Anwendung des Hypertext-Systems ist aber das World Wide Web, das Anwendern weltweit ermöglicht, auf eine riesige Menge von Informationen jeglicher Form zuzugreifen.

5.2 Definition des Begriffs "Hypertext"

5.2.1 Herkunft des Wortes

Ted Nelson wollte in den 60er Jahren eine globale Wissensdatenbank[70] (er nannte sie "docuverse") aufbauen und konzipierte dafür das System Xanadu, das bis heute weiter entwickelt wird.
In diesem Zusammenhang führte er den Begriff "Hypertext" 1965 ein als

(...) a body of written or pictorial material interconnected in such a complex way that it could not conveniently be presented or represented on a paper[71].

5.2.2 Wortbedeutung

Das Basismorphem "Text" ist in Zusammenhang mit Nelsons Definition missverständlich, denn die Bezeichnung bezog sich von Anfang an nicht nur auf Textdokumente, sondern auf alle Arten von digitalisierbaren Informationen ("written or pictorial material"). Zudem existiert keine eindeutige Definition des Begriffes "Text". In Kombination mit dem gebundenen Morphem "Hyper" im Sinne von "über", "übermäßig" oder "hinaus" könnte man dementsprechend im Deutschen auch von "Supertext" oder "Übertext" sprechen. Gemeint ist ein Text, der "irgendwie mehr ist als Text" und der "über Textdokumente eine Hyperstruktur zur Unterstützung von Recherchen aufspannt"[72].

5.2.3 Definition

Der Begriff Hypertext[73] bezieht sich meist auf ein gesamtes Hypertextdokument, das aus einer Anzahl verlinkter Informationseinheiten besteht. Man spricht von Hypermedia-Dokumenten, wenn es sich um ein Hypertextdokument mit integrierten Bild- und/oder Toninformationen[74] handelt. In der Praxis wird der Begriff Hypertext jedoch oft synonym zu Hypermedia gebraucht.

Man kann sich einer Definition von Hypertext folgendermaßen nähern[75]:

- Hypertext ( = Hypertextdokument, Hypertextbasis) ist ein Netzwerk von Knoten, die Informationen beinhalten oder repräsentieren.
- Hypertext ist das materialisierte Produkt eines Hypertext-Systems, wie es sich dem Leser präsentiert.
- Hypertextdokumente können thematisch, nach Pfaden oder Zugriffsrechten voneinander abgegrenzt werden.
- Das Lesen von Hypertext geschieht nicht-sequentiell/nicht-linear. Der Anwender steuert selbst durch das Netzwerk an Informationen, unterstützt von graphischen Browsern.
- Hypertexte sind nur auf Basis eines Computers sinnvoll, um statische (Text, Grafiken) und dynamische (Video, Audio, animierte Grafiken etc.) Objekte darzustellen.
- Auf die Information des Hypertext kann interaktiv zugegriffen werden.

Tatsächlich existiert bis jetzt keine allgemeingültige Definition des Begriffs "Hypertext". Es handelt sich um ein Phänomen, das in vielen Varianten erscheint, die nicht immer über sämtliche erwähnte Komponenten und Eigenschaften verfügen.

5.3 Abgrenzung eines Hypertextdokuments

Hypertextdokumente können sowohl zentral auf einem Computer als auch dezentral auf mehreren vernetzten Rechnern gespeichert sein. Die Frage, welche Informationseinheit noch zu einem Hypertextdokument gehört und welche nicht, ist schwer zu beantworten. Man könnte eine Zugehörigkeit z.B. mit

- dem inhaltlichen Zusammenhang (das Gesamtthema, die "Adresse"),
- dem vom Leser eingeschlagenen Weg oder
- den Zugriffsrechten des Anwenders (innerhalb eines Hypertextdokuments hat der Ersteller/Bearbeiter Zugriff auf alle Informationseinheiten)

begründen. Es ist juristisch jedoch noch nicht endgültig geklärt, ob ein Autor für eine Informationseinheit noch verantwortlich ist, auf die er zwar kein Zugriffsrecht hat, aber mit einem Link verweist.[76]

Da die Grenzen von Online-Hypertexten im Sinne von thematisch definierten Hypertextdokumenten nicht klar zu bestimmen sind, gibt es Tendenzen, das gesamte World Wide Web als einen einzigen großen Hypertext zu definieren.[77]

5.4 Hypertexttypen

Zwei Arten von Hypertextdokumenten können unterschieden werden: der geschlossene und der offene Hypertext.[78]
Geschlossene Hypertexte verändern sich nicht, auch wenn sie in andere Zusammenhänge gestellt werden. Sie bestehen aus einer unveränderlichen Anzahl von Knoten, haben also eine stabile, gleichbleibende Struktur. Verweise auf diese Knoten gelten langfristig und müssen selten überprüft werden.
Offene Hypertexte ändern häufig ihre Struktur und ihren Umfang. Die Anzahl der integrierten Knoten sowie deren Inhalte und Strukturen kann von verschiedenen Autoren variiert werden. Diese Form des Hypertextes kann zwar sehr aktuell und sozusagen "in Bewegung" bleiben, kann aber nur kurzfristig als sichere Bezugsquelle für andere Hypertexte gelten. Verweise müssen häufig überprüft und ergänzt oder verändert werden.

5.5 Die Strukturkomponenten eines Hypertextes

5.5.1 Knoten

Hypertextstrukturen bestehen aus einer Anzahl von "atomaren Informationseinheiten"[79], den Knoten, die über Verweise (Links) miteinander verbunden sind und einen eindeutigen Namen bzw. eine eindeutige Nummer tragen, um sie im Netzwerk identifizieren zu können. Diese Knoten werden auch als Textdokumente, Themen, Topics, Module, Nodes, Chunks oder Informationelle Einheiten bezeichnet. Sie sind die kleinste Informationseinheit eines Hypertextes. Im WWW nennt man üblicherweise einen Knoten "Seite" oder "page". Der Inhalt wird auf dem Bildschirm in sogenannten Fenstern angezeigt und kann sowohl aus Text als auch aus Graphik, Photos, Film, Ton etc. bestehen.
Vom Knoteninhalt (Text, Bild, Ton), Knotengröße und Darstellung des Inhalts hängt ab, ob der Leser diese Hypertexteinheiten optimal erfassen und sinnvoll kombinieren kann. Nach welchen Richtlinien man allerdings Inhalt, Größe und Darstellung festlegen sollte, ist umstritten. Horn spricht z.B. vom "relevance principle" und meint damit, dass

(...) ein Knoten nur die zentrale Aussage einer einzigen Idee beinhalten darf. Weitere periphere Aussagen zur selben Idee sollten, durch Verweise verbunden, in anderen Knoten abgelegt werden.[80]

Je nach Verständnis des Phänomens Hypertext unterscheiden sich auch die Ansichten über die Präsentation des Inhalts eines Knotens auf dem Bildschirm:

Abbildung in dieser Leseprobe nicht enthalten

Im Gegensatz zu inhaltsdarstellenden Knoten enthalten funktionale Knoten normalerweise keinen Inhalt und dienen der Orientierung. Beispiele: Inhaltsverzeichnisse, Indizes, Sitemaps, Hilfefunktionen, Handbuchfunktionen etc.. Ein Knoten kann jedoch sowohl strukturelle Informationen als auch inhaltliche und Navigationsinformationen gleichzeitig enthalten[81].

Dient ein Knoten dazu, andere Knoten zusammengefasst zu präsentieren, spricht man von Metaknoten.

[...]


[1] Im Deutschen kann der Begriff zwar durch Gebrauchstauglichkeit, Benutzerfreundlichkeit oder Bedienbarkeit übersetzt werden, wird aber häufig im englischen Original belassen, da es besser als die deutschen Pendants die Bereiche "usefulness" und "utility" gleichermaßen integriert.

[2] vgl. http://www.medienberatung.tu-berlin/td/td3.html

[3] Nielsen 2000. S. 9

[4] Sabrina Duda (Eye Square GmbH Berlin) In: Rothfuss, Dorothee: Und immer an die Surfer denken. Benutzertests für Websites sind zum einträglichen Geschäft geworden. In: Tagesspiegel. Ausgabe vom 8.5.2002.

[5] Geser 1989. S. 232

[6] Giesecke 1990. S. 93 ff.

[7] Viele Entwickler von technischen Systemen betrachten den Menschen als Wesen, das prinzipiell in seinem rationalen Verhalten vollständig technisch abgebildet werden kann und daher letztendlich auch technisch ersetzbar ist. Dieses Bild wird nicht immer bewusst reflektiert, ist aber dennoch vorhanden und wirksam.

[8] vgl. auch das Kapitel "Mentale Modelle"

[9] Norman 1989. S.28 ff.

[10] vgl. das Kapitel "Graphical User Interface"

[11] http://www-3.ibm.com/ibm/easy/eou_ext.nsf/EasyPrint/10

[12] http://www.acm.org/sigchi/cdg/cdg2.html

[13] http://www.acm.org/sigchi/cdg/cdg2.html

[14] Halbach 1994, S.168.

[15] Das Mensch-Computer-System beschreibt den Bereich um Benutzer, Aufgabe und Werkzeug (Computer) im Rahmen einer Arbeitsumgebung.

[16] Grünupp; Muthig 1991. S. 325 ff.

[17] Halbach 1994. S.169

[18] vgl. http://theatlantic.com/unbound/flashbks/computer/bushf.htm

[19] ein Akronym für "memory extender"

[20] ein Institut des amerikanischen Verteidigungsministeriums

[21] Laurel 1990. S. 191 ff.

[22] WYSIWYG = what-you-see-is-what-you'll-get

[23] http://www.kare.com/design_bio.html

[24] Zuckerman 1996. http://www.kare.com/articles/nytimes.html

[25] http://www.kare.com/portfolio.html

[26] Wie an diesem Beispiel deutlich wird, muss ein www-Server nicht zwingend "www" im Namen enthalten.

[27] Die Zuordnung der Namen im Domain Name System erfolgte in den Anfängen des Internet über eine zentrale Datei des Network Information Centers (NIC) die an alle Rechner jeder Domain regelmäßig mittels ftp verschickt wurde. Das Aktualisieren einer solchen Datei wäre inzwischen zu aufwendig. Die Aufgabe hat deshalb eine Datenbank übernommen, die von Domain Name Servern innerhalb bestimmter Zonen verwaltet wird.

[28] die aktuelle Version ist HTTP/1.1

[29] im Gegensatz zu push-Technologien wie z.B. Fernsehen oder Radio.

[30] die aktuelle Version ist seit 1997 HTML 4.0

[31] XHTML ist XML-gerechtes HTML und basiert wie HTML auf SGML (Standard Generalized Markup Language). Dabei ist XHTML flexibler als HTML, denn es können auch semantische Tags (zur inhaltlichen Strukturierung) eingesetzt bzw. Tags selbst definiert werden.

[32] Zur Definition und zum Aufbau einer URL vgl. http://www.ietf.org/rfc.html (rfc 1738 und 1808).
Die IETF (Internet Engineering Task Force) veröffentlicht alle Standards im Bereich Internet als sogenannte Requests for Comments (RFC). Die IETF ist eine für jeden Interessierten offene Gemeinschaft bestehend aus Webdesignern, -Entwicklern, -Verkäufern, -Forschern etc, die sich mit der Entwicklung der Internetarchitektur und -gestaltung befassen.

[33] ccTLD = country code Top Level Domain

[34] gTLD = generic Top Level Domain

[35] vgl. http://zukunftsinstitut.de/Internet.html oder http://www.trendletter.de/1000/1300_zukunft.html

[36] Sandbothe http://www.uni-jena.de/ms/infoweek.html

[37] NFO Infratest: Euro.net 9
Zusammenfassung unter http://www.wuv-studien.de/wuv/studien/03002/508/index.htm

[38] nach einer Umfrage unter sieben großen deutschen Verlagshäusern im Januar 2002.
vgl. die Branchenstudie von Andersen Business Consulting:ePayment ante Portas – die Zukunft der Online-Angebote deutscher Verlage. Januar 2002. Zu beziehen unter: http://www.andersen.com

[39] Bauer 1998. S. 9.

[40] Baumann; Kistner 1999. S. 202

[41] Microsoft TechNet 10/2001.
http://www.microsoft.com/germany/ms/technetnewsflash/mafo/archiv.htm

[42] Microsoft TechNet 10/2001 E-Commerce.

[43] GfK-Medienforschung: Online-Monitor. 7. Untersuchungswelle 2001.

[44] GfK-Online-Monitor Welle 6 und 7.

[45] z.B. Kleidung (Otto, Neckermann), Bücher (Amazon), Spielzeug (Mytoys) oder Auktionen (Ebay)

[46] Horx: Studie zur Zukunft des Internet.
http://zukunftsinstitut.de/Internet.html

[47] vgl. http://www.skopos.de/texte/Multi-Channel-Studie_Skopos.pdf (Kurzzusammenfassung der Studie)

[48] EMC-Interview mit Skiera 2002.
http://www.emc2.de/local/de/DE/information_generation/berndskiera.jsp?openfolder=all

[49] GfK-Online-Monitor 7. Welle.

[50] http://useit.com

[51] erforderlicher Aufwand und erzielter Effekt eines Angebots werden in Relation gesetzt

[52] SevenOne Interactive: @factsmonthly. Februar 2002.

[53] NFO Infratest: Euro.net 9

[54] von Eimeren; Gerhard; Frees 2001.

[55] von Eimeren; Gerhard; Frees 2001.

[56] Nach der NFO Infratest-Studie im Januar 2002 halten es 60 Prozent der Nutzer für unwahrscheinlich oder sehr unwahrscheinlich, dass sie sich in den nächsten 12 Monaten einen Breitbandanschluss anschaffen werden.
vgl. NFO Infratest: Euro.net 9

[57] Döring 1999. S156

[58] Studie von McKinsey&Company und MMXI Europe im November 2000. http://de.jupitermmxi.com/xp/press/releases/pr_110900.xml

[59] so Microsoft Manager Hanke in dem Artikel. vgl. Frankfurter Allgemeine Sonntagszeitung vom 7.4.2002.

[60] nicht zu verwechseln mit Jakob Nielsens Superusern, die besonders technisch versierte Computerprofis bezeichnen, die eine Website gerade nicht im Sinne eines Durchschnittnutzers konfigurieren und gestalten
Nielsen, Jakob: Erfolg des Einfachen. München 2000. S. 35

[61] Burda: Typologie der Wünsche. zitiert nach:Scheid 1999.

[62] vergleichbar der Typologie, die in einer Studie von McKinsey&Company und MMXI Europe ermittelt wurde. Auch hier wurden sieben Segmente aufgrund von soziodemographischen Daten und genutzten Webangeboten bestimmt.
vgl. McKinsey&Company und MMXI Europe 2000.
http://de.jupitermmxi.com/xp/press/releases/pr_110900.xml

[63] G+J Electonic Media Service GmbH 2001.

[64] Hofer; Zimmermann 2000. S. 128

[65] Thissen 2001. S. 43

[66] Bush 1945. S. 101 ff.

[67] Das Memex blieb reine Theorie und wurde nie gebaut - u.a. weil die Computertechnologie die Technik der Mikrophotographie schnell überholte . Die Verwendung von Mikrofilmen war jedoch nur ein Vorschlag von Bush. Wie genau die Maschine gebaut werden sollte, ließ er im Unklaren.

[68] Er ging davon aus, dass das menschliche Denken auf der Basis von Assoziationen funktioniert.

[69] Conklin 1987. S. 22

[70] Nelson meinte, alle Informationsquellen sollten in einer demokratischen Informationsgesellschaft frei zugänglich sein.

[71] Nelson 1965. S. 96

[72] Huber 1998. S. 21

[73] zahlreiche Definitionsversuche verschiedener Autoren siehe Huber 1998. S. 24 ff.

[74] Da der Begriff Hypermedia aus den Schlagworten Hypertext und Multimedia gebildet wurde, greift er als Beschreibung von einfachen Systemen aus Text und verlinkten Grafiken eigentlich zu kurz, denn Mulimedia beginnt erst bei der Einbeziehung von bewegten Bildern oder Ton.

[75] vgl. Hofmann; Simon 1995.

[76] Der Prozess um A. Marquardt und die Zeitschrift "radikal" endete, ohne diese Frage eindeutig geklärt zu haben.

[77] Huber 1998. S. 31/32

[78] Storrer 2000. S. 236

[79] Huber 1998. S. 33
Man spricht von sogenannten Stretchtexten, wenn ein Knoten nicht "atomar" sondern z.B. in einen anderen Knoten eingebaut oder in mehreren Versionen (durch einen Software-Mechanismus aktiviert) dem Leser zur Verfügung steht.

[80] Huber 1998. S. 35

[81] Huber 1998. S. 37

Ende der Leseprobe aus 187 Seiten

Details

Titel
Web Usability. Gestaltungskriterien und Evaluationsverfahren
Hochschule
Technische Universität Berlin  (Institut für Sprache und Kommunikation, Fachbereich Medienberatung)
Note
1,0
Autor
Jahr
2002
Seiten
187
Katalognummer
V79755
ISBN (eBook)
9783638786058
ISBN (Buch)
9783638796026
Dateigröße
1296 KB
Sprache
Deutsch
Schlagworte
Usability, Gestaltungskriterien, Evaluationsverfahren
Arbeit zitieren
Stefanie Saier (Autor:in), 2002, Web Usability. Gestaltungskriterien und Evaluationsverfahren, München, GRIN Verlag, https://www.grin.com/document/79755

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Web Usability. Gestaltungskriterien und Evaluationsverfahren



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden