Suchmaschinenkompetenz - Was wissen wir wirklich über Suchmaschinen?

Eine Untersuchung am Beispiel von Google


Masterarbeit, 2008

168 Seiten, Note: 1,00


Leseprobe


INHALTSVERZEICHNIS

B. ABBILDUNGSVERZEICHNIS

C. TABELLENVERZEICHNIS

D. ANHANGSVERZEICHNIS

E. ABKÜRZUNGSVERZEICHNIS

TEIL I: EINFÜHRUNG

1 Einleitung
1.1 Eingrenzung des Forschungsgebietes
1.2 Ziel der Arbeit
1.3 Aufbau der Arbeit

TEIL II: DESK RESEARCH

2 Suchdienste im Internet
2.1 Klassifikation und Definition der Suchdienste
2.1.1 Verzeichnisse
2.1.2 Suchmaschinen
2.1.3 Metasuchmaschinen
2.1.4 Spezielle Suchdienste

3 Funktionsweisen von Suchmaschinen
3.1 Web-Robot-System: Beschaffung und Analyse der Daten
3.2 Information Retrieval System: Aufbereitung und Analyse der Daten...
3.2.1 Datennormalisierung und Dokumentenanalyse
3.2.2 Bildung von durchsuchbaren Datenstrukturen (Indexierung)
3.3 Query Processor: Ranking und Aufbau der Ergebnislisten

4 Der Online-Markt in Deutschland
4.1 Der Markt der Suchdienste
4.2 Der Online-Werbemarkt

5 Das Phänomen des Google Imperiums
5.1 Geschäftsmodell und Geschäftszahlen
5.2 Unternehmenskultur und Gründe für den Unternehmenserfolg
5.3 Aktuelle strategische Entwicklungstendenzen

6 Probleme und Gefahren bei Suchdiensten
6.1 Technische bzw. qualitative Probleme bei Suchmaschinen
6.1.1 Willkürliche Rangfolge und mangelnde Transparenz der Suchkriterien
6.1.2 Externe Manipulation
6.1.3 Interne Manipulation durch Suchmaschinenbetreiber
6.1.4 Die Deep-Web-Problematik
6.1.5 Aktualität der Suchergebnisse
6.2 Gesellschaftlich-politische Probleme bei Suchmaschinen
6.2.1 Rechenschaftspflichten und Kontrollinstanzen
6.2.2 Persönliche Daten und Systemsicherheit im Internet
6.2.3 Jugendschutz
6.2.4 Auswirkungen auf den Journalismus
6.3 Wirtschaftliche Probleme bei Suchmaschinen
6.3.1 Klickbetrug
6.3.2 Fehlende Regulierung und Marktmacht
6.4 Datenschutzrechtliche Probleme bei Suchmaschinen
6.4.1 Google-Produkte
6.4.2 Datenspeicherung im Ausland

7 Ergebnisse bisheriger Studien zur Suchmaschinenkompetenz...
7.1 Bertelsmannstudie
7.2 Schmidt-Mänz Studie
7.3 Pew Internet & American Life Project Studie
7.4 Beurteilung von Webinhalten nach ZIMMERMANN et al
7.5 Resümee über die bisherigen Erkenntnisse

TEIL III: FIELD RESEARCH

8 Empirische Untersuchung
8.1 Annahmen zum Untersuchungsinhalt (Hypothesen)
8.2 Fragebogenaufbau
8.3 Untersuchungsdesign und Methodendiskussion
8.4 Ergebnisse der Untersuchung
8.4.1 Soziodemographie der Teilnehmer
8.4.2 Wissen über das Unternehmen Google
8.4.3 Zufriedenheit mit der Websuche von Google
8.4.4 Subjektive Suchmaschinenkompetenz, Nutzungshäufigkeit und Verwendung von Suchoperatoren
8.4.5 Wissen über Suchmaschinentechnologie
8.4.6 Wissen über Probleme bei Suchmaschinen
8.4.7 Wissen verschiedener Gruppen
8.4.7.1 Gruppierung nach subjektiver Einschätzung des eigenen Wissens .
8.4.7.2 Gruppierung nach tatsächlichem Wissen über Suchmaschinen
8.4.7.3 Gruppierung nach Geschlecht
8.5 Zusammenfassung der Ergebnisse

TEIL IV: ERGEBNIS

9 Schlussfolgerung und Ausblick
9.1 Handlungsempfehlungen für Bildungsinstitutionen
9.2 Handlungsempfehlungen für Suchmaschinennutzer
9.3 Handlungsempfehlungen für die Wissenschaft

F. ANHANG

G. LITERATURVERZEICHNIS

B. ABBILDUNGSVERZEICHNIS

Abbildung 1: Komponenten der Suchmaschinenkompetenz (eigene Darstellung)

Abbildung 2: Detailinformationen eines Eintrags bei Google Maps

Abbildung 3: Vereinfachte Funktionsweise von Suchmaschinen

Abbildung 4: Prozesse der Datennormalisierung und Datenanalyse

Abbildung 5: Beispiel für ein invertiertes Dateisystem

Abbildung 6: Marktanteile von Suchmaschinen in Deutschland

Abbildung 7: Beziehungsgeflecht der Suchdienste

Abbildung 8: Google Produkte

Abbildung 9: Online-Werbung in Deutschland 2004-2007

Abbildung 10: Google -die weltweit einflussreichste Marke

Abbildung 11 : Entwicklung der Google-Aktie seit dem 27.08.2004

Abbildung 12: Interessenlagen von Nutzern, Websiteanbietern, Suchmaschinenoptimierern und Suchmaschinenbetreibern

Abbildung 13: Inhalt eines Google-Cookie

Abbildung 14: Teilstudien der Bertelsmannuntersuchung

Abbildung 15: Teilstudien der Schmidt-Mänz Studie

Abbildung 16: Internetbasierte Datenerhebungsverfahren: Reaktive Verfahren

Abbildung 17: Altersverteilung der Studie (N=240)

Abbildung 18: Berufstätigkeit der Probanden(N=240)

Abbildung 19: Unternehmenswert von Google nach Einschätzung der Nutzer

Abbildung 20: Gründe für die Nutzung der Google-Websuche (N=240)

Abbildung 21: Subjektiv empfundene Qualität von Google-Suchergebnissen

Abbildung 22: Störfaktoren bei Suchmaschinen (N=240)

Abbildung 23: Einstellung der Probanden zu Werbung in Suchmaschinen

Abbildung 24: Kriterien nach denen Google die Rangfolge der Anzeigen festlegt

Abbildung 25: Kenntnis und Anwendung von Suchoperatoren (N=190)

C. TABELLENVERZEICHNIS

Tabelle 1: Umsatz- und Gewinnentwicklung von Google 1999-2007

Tabelle 2: Bewertung der Umsatzpotentiale ausgewählter Google-Produkte

Tabelle 3: US-Ranking der Top 10 Google Produkte, Juni 2007

Tabelle 4: Forschungsarbeiten zur Suche im Internet

Tabelle 5: Forschungsarbeiten zum Wissensstand über Suchmaschinen

Tabelle 6: Ergebnisse bisheriger Studien zur Suchmaschinenkompetenz

Tabelle 7: Vor- und Nachteile von Online-Befragungen

Tabelle 8: Optimierungsmöglichkeiten bei Webseiten (freie Frage)

Tabelle 9: Kenntnis technischer Möglichkeiten zur Optimierung von Websites

Tabelle 10: Zufriedenheit mit Suchergebnissen von Google

Tabelle 11: Einschätzung der Qualität der Suchergebnisse nach Wissensstand

Tabelle 12: Wissen über die Finanzierung von Google nach Wissensstand

Tabelle 13: Wissen über Nutzerdatenspeicherung nach Wissensstand

Tabelle 14: Wissen über Kontrollinstanzen nach Wissensstand

Tabelle 15: Unterschiedliche Verwendung von Suchoperatoren nach Geschlecht.

Tabelle 16: Einschätzung des Suchmaschineneinflusses nach Geschlecht

Tabelle 17: Mögliche Themenbereiche für Online-Tutorials

Tabelle 18: Kriterien zur Beurteilung von Informationen aus dem Internet

Tabelle 19: Systematik der Suchmaschinenforschung nach LEWANDOWSKI

Tabelle 20: Themenfelder der Suchmaschinenforschung (eigene Darstellung)

D. ANHANGSVERZEICHNIS

Anhang 1: Glossar

Anhang 2: Wichtige Google Geschäftsfelder

Anhang 3: Erweiterte Suchsyntax bei Google

Anhang 4: Literatur zur Recherche im Internet

Anhang 5: Die Open Handset Allicance

Anhang 6: Aquisitionen und Beteiligungen von Google (2007)

Anhang 7: Landing Page der Online-Befragung

Anhang 8: Fragebogen

Anhang 9: Die Bedeutung von Suchmaschinen

E. ABKÜRZUNGSVERZEICHNIS

Abbildung in dieser Leseprobe nicht enthalten

TEIL 1: EINFÜHRUNG 1 Einleitung

Suchmaschinen gehören mittlerweile zum Standardrepertoire der Internetnutzer. Sie stellen die mit Abstand wichtigsten Quellen zum Auffinden von Informationen im Internet dar und nehmen damit eine Schlüsselfunktion in unserer Medien- und Informationslandschaft ein.[1] Indem Suchmaschinen über die inhaltliche Zusammensetzung ihrer Suchergebnisse entscheiden, beherrschen sie in hohem Maße auch den Zugang zur Online-Wirtschaft. Nur wer sich im oberen Bereich der Sucherergebnislisten und gegen seine Mitbewerber behauptet, hat im Online­Business eine reelle Chance auf entsprechende Erträge. Somit hängt heutzutage ein beträchtlicher Teil der (Online-)Umsatzerlöse vom Handeln der Suchmaschinenanbieter ab. Ändern sie ihre Algorithmen, so ändert sich damit die Zusammensetzung der Suchergebnislisten, was wiederum unmittelbare Auswirkungen auf den (Online-)Markt hat. Als Lenker der Aufmerksamkeit der Internetnutzer übernehmen sie eine sog. Gate-Keeper-Funktion. Sie bestimmen, was geklickt wird und was nicht. Forciert wird dies durch die derzeitige Aufteilung des Suchmaschinenmarktes. Google besitzt mit über 90 Prozent Marktanteil ein Quasimonopol. Dadurch hat das Unternehmen eine beispiellose Machtposition inne, denn anders als bei den klassischen Medien existiert auf dem Suchmaschinenmarkt in Deutschland bisher keine staatlich-regulative Kontrolle. Indem Google die Bewertungskriterien zur Einstufung von Websites nach eigenen Regeln festlegt, oktroyiert es -wie andere Suchmaschinen auch- sein Ranking- bzw. Wertesystem auf seine Nutzerschar. Der Unterschied zu den übrigen Suchmaschinen besteht jedoch darin, dass Google damit stetig fast 30 Prozent der gesamten Bevölkerung in Deutschland erreicht.[2] Diese enorme Reichweite wird von Medienwissenschaftlern als problematisch angesehen und zunehmend kritisch diskutiert.

Empirische Untersuchungen kamen zum Ergebnis, dass sich über 80% der Internetnutzer vor allem mit Hilfe von Suchmaschinen orientieren.[3] So ist es nicht verwunderlich, dass die Websuche mit Hilfe von Suchmaschinen nach dem

Schreiben von E-mails der meistgenutzte Dienst im Netz ist.[4] Trotz dieser Tatsache bestehen bei vielen Nutzern in Bezug auf Suchmaschinen Wissenslücken. So ist bspw. das Zustandekommen der Ausgabenlisten im Allgemeinen für viele Nutzer nicht nachvollziehbar. Wie die Ergebniseinträge entstehen, welche Algorithmen bzw. Bewertungskriterien verwendet werden, wie qualitativ hochwertig und glaubwürdig sie einzuschätzen sind oder ob es Werbeeinträge innerhalb der natürlichen Suchergebnisse gibt usw., ist häufig unbekannt. Infolgedessen ist es nicht verwunderlich, dass Suchmaschinen von den Nutzern immer wieder als wertvolle, moralisch unfehlbare, kostenlose Dienstleistungen angesehen werden, während gleichzeitig ihre eigentlichen Gewinnbestrebungen von vielen Otto-Normal­Verbrauchern unbeachtet bleiben.[5]

Hinzu kommt, dass Suchmaschinen -trotz der ständig durchgeführten technischen und gestalterischen Optimierungen- immer noch alles andere als selbsterklärend sind. Hilfeseiten für eine effektivere Verwendung sind zum Teil derart versteckt eingebunden, dass die Suchmaschine selbst eingesetzt werden muss, um sie zu finden. Auch wenn die Nutzung von Suchmaschinen auf den ersten Blick trivial erscheint, so gibt es doch einiges zu beachten und diverse Tricks bei der Eingabe der Anfrage, um effizient und erfolgreich suchen zu können. Der beträchtliche Zeitaufwand, um sich ausreichend in dieses Themenfeld einzuarbeiten, wird offensichtlich von vielen Suchmaschinenbenutzern jedoch als nicht lohnend angesehen.

Im Gegensatz zur enormen gesellschaftlichen Bedeutung der Suchmaschinen weist die wissenschaftliche Forschung bezüglich der Suchmaschinenkompetenz von Internetnutzern erhebliche Lücken auf, die es in den nächsten Jahren gilt aufzuarbeiten. Diese Arbeit will inhaltlich als auch systematisch dazu betragen, Defizite zumindest teilweise zu schließen. Die durchgeführte, explorative Studie soll ferner den Weg für neue Forschungsansätze aufzeigen.

1.1 Eingrenzung des Forschungsgebietes

Die durch die vorliegende Arbeit untersuchte Suchmaschinenkompetenz wird hier als Teilbereich der Medienkompetenz verstanden, die sich in die Dimensionen Medienkritikfähigkeit, Medienkunde und Mediennutzung aufgliedert.[6] Entsprechend erschöpft sich Suchmaschinenkompetenz nicht nur in der technischen Bedienung der Suchsysteme, sondern beruht u.a. auch auf der Fähigkeit, das oft versteckte Wissen aus der Masse an Informationen herauszufiltern, zu bewerten und sich anzueignen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Komponenten der Suchmaschinenkompetenz (eigene Darstellung)

Suchmaschinenkompetenz umfasst dabei (u.a.):

- unterschiedliche Suchdienste kennen und nutzen können (Suchmaschinen, Metasuchmaschinen, Verzeichnisse, spezielle Suchmaschinen etc.),
- sich in der Suchmaschinenlandschaft orientieren können: Unter den verschiedenen Suchdienstangeboten ein (für einen bestimmten Bedarf) adäquates Angebot finden und anwenden können,
- eine kritisch-reflektierte Distanz zu den Ergebnissen der Suchmaschinen zu halten: bspw. kommerziell, kriminell oder politisch motivierte Interessen in Suchergebnissen erkennen können,
- Suchmaschinenwerbung (Keyword-Advertising) von natürlichen Suchergebnissen unterscheiden können und über die Funktionsweise von Keyword-Advertising Bescheid wissen,
- spezielles Hintergrundwissen in Bezug auf Suchmaschinen haben: bspw. über die Zusammensetzung des Suchmaschinenmarktes, angewandte Suchtechnologie, Suchergebnisfilterung, Finanzierung, Datenschutz usw. .

Mehrere Studien bescheinigen den Nutzern jedoch -gemessen an den eben erwähnten Kriterien- eine eher geringe Suchmaschinenkompetenz:

- Ergebnislisten werten sie im Allgemeinen nur oberflächlich aus. Zumeist begnügen Sie sich mit der Analyse der ersten Ergebnisseite und der Prüfung weniger Treffer.[7]
- Ihre Kompetenz zur Bedienung der Suchmaschinen ist nur wenig entwickelt. Suchoperatoren werden nur von relativ wenigen Nutzern regelmäßig angewendet.[8]
- Das Geschäftsmodell auf dem der Erfolg der Suchmaschinen beruht -sich hauptsächlich über Werbung zu refinanzieren- ist vielen Nutzern nicht bewusst.
- Die Mehrheit der Internetnutzer wendet für ihre Recherchen nur eine einzige Suchmaschine an und vertraut allein auf die Effizienz und Richtigkeit ihrer Bewertungskriterien und Suchergebnisse.[9]

Hinzu kommt, dass die Nutzer ihr Wissen über Suchmaschinen häufig selbst überschätzen.[10]

Die große Bedeutung der Nutzung von Suchmaschinen im Web erfordert es, die Suchmaschinenkompetenzen von Internetnutzern zu erforschen. Dies ist deshalb essentiell, weil dadurch einerseits die Suchmaschinenangebote anwenderfreundlicher gestaltet und andererseits öffentlich-finanzierte Aufklärungs­ und Weiterbildungskampagnen entwickelt werden können. Beides mit dem Ziel, Kompetenz- und Wissensdefiziten im Hinblick auf Suchmaschinen zu verringern.

Gleichzeitig enthält die Erforschung des Teilbereichs Suchmaschinen-Nutzung einen wichtigen Bezug zum Onlinemarketing, denn nur mit der genauen Kenntnis der Suchkompetenzen der potentiellen Websitebesucher können Marketing-Maßnahmen effizient und zielgerichtet eingesetzt werden.[11]

1.2 Ziel der Arbeit

Diese Arbeit stellt Teilergebnisse bereits veröffentlichter Untersuchungen zum Thema Suchmaschinenkompetenz dar und legt darauf aufbauend weiterführende Erkenntnisse und Befunde offen. Dabei werden Kernaussagen mit Hilfe einer durchgeführten empirischen Erhebung untermauert. Darüber hinaus wird die Untersuchungsproblematik „Suchmaschinenkompetenz“ in einen Gesamtkontext gestellt, um ihre enorme gesellschaftliche Tragweite und Bedeutung zu veranschaulichen. Abschließend werden die erarbeiteten Ergebnisse dazu verwendet, der Gesellschaft bzw. der Politik wichtige Handlungsempfehlungen vorzulegen, um eine verbesserte Suchmaschinenkompetenz weitläufig auch in breiteren Bevölkerungsschichten erreichen zu können. Für den interessierten Leser sollen die Erkenntnisse dieser Arbeit eine Anregung bieten, über die eigene Suchmaschinenkompetenz nachzudenken, diese selbst zu bewerten und im Sinne der Kognitionspsychologie eigenständig weiter zu entwickeln.

Als Leitfaden wurden Forschungsfragen formuliert, die das Gerüst der Arbeit bilden und in deren Verlauf beantwortet werden:

Theorieteil (Sekundärforschung):

- Was für Suchdienstanbieter gibt es außer Suchmaschinen noch?
- Wie funktionieren Suchmaschinen technisch?
- Welche Verhältnisse herrschen auf dem deutschen Suchmaschinenmarkt?
- Was macht das Unternehmen Google aus? Warum ist Google so erfolgreich?
- Welche Probleme verursachen Suchmaschinen?
- Zu welchen Ergebnissen kommen bereits veröffentlichte Untersuchungen in Bezug auf den Untersuchungsgegenstand Suchmaschinenkompetenz?

Empirische Untersuchung (Primärforschung):

- Schätzen Nutzer ihr Wissen und ihre Kompetenz -was Suchmaschinen angeht­angemessen ein?
- Was wissen Nutzer über die eingesetzte Technik bei Suchmaschinen?
- Was wissen und denken Nutzer über Probleme, die sich aus der Verwendung von Suchmaschinen ergeben?
- Was halten Nutzer von Suchmaschinenwerbung?
- Wie stellen Suchmaschinennutzer ihre Suchanfragen?
- Warum ist gerade Google bei den Internetnutzern so beliebt?
- Was wissen Nutzer über das Unternehmen Google?
- Wissen diejenigen, die sich selbst als kompetent im Umgang mit Suchmaschinen einschätzen wirklich mehr als diejenigen, die Ihre Suchmaschinenkompetenz als weniger ausgeprägt beurteilen?
- Gibt es innerhalb der Gruppe der Suchmaschinennutzer einzelne Gruppierungen, die sich in Bezug auf spezielle Merkmale signifikant unterscheiden?

Damit soll diese Arbeit eine Momentaufnahme darüber darstellen, ...

- was insbesondere Googlenutzer über die Funktionsweise von Suchmaschinen und das Zustandekommen von Suchergebnissen wissen (bspw. Problem der externen Manipulation, Selektion durch Algorithmen, technische Bearbeitung von Suchanfragen).
- wie reflektiert und interessiert Googlenutzer gegenüber Problemen und Gefahren im Zusammenhang mit der Verwendung von Suchmaschinen sind (inhaltliche bzw. medienpolitische Regulierung, Datenschutz, Einfluss von Suchmaschinen auf die gesellschaftliche Meinungsbildung, persönliche Daten im Internet, Interesse an Suchmaschinentechnologie etc.),
- was Googlenutzer über die Firma Google wissen und denken (Image, Marktstellung, Finanzierung, Leistungen, Zusatzservices etc.).
- wie Googlenutzer ihre Suchmaschine nutzen und wie zufrieden sie mit ihr sind (Nutzung von Operatoren, Suchanfragenänderung nach Misserfolg, Zufriedenheit mit natürlichen Suchergebnissen und Suchmaschinenwerbung etc.)

1.3 Aufbau der Arbeit

Die Kapitel 2 bis 5 versuchen den komplexen Untersuchungsgegenstand Suchmaschinenkompetenz inhaltlich in einen Gesamtkontext zu stellen, um so eine bessere Grundlage zum Verständnis dieses schwer zugänglichen Begriffs zu schaffen.

Kapitel 6 stellt sodann die zahlreichen, teils schwerwiegenden Probleme und Gefahren dar, welche bei der Verwendung von Suchdiensten auftreten können. Das Ausmaß der Kenntnis dieser Probleme und Gefahren kann dabei als wichtiger Indikator für einen Teilbereich der Suchmaschinenkompetenz angesehen werden: Weiß eine Person viel über diese Art von Problemen und Gefahren, kann davon ausgegangen werden, dass ihre Suchmaschinen-Kritikfähigkeit vergleichsweise gut ausgebildet ist (vgl. Kapitel 1.1 ).

In Kapitel 7 werden bisherige Arbeiten und Forschungsansätze über Suchmaschinenkompetenz vorgestellt und näher erläutert. Dabei wird zunächst auf einzelne, spezielle Ergebnisse aus unterschiedlichen Untersuchungen eingegangen, bevor dann ein allgemeiner Überblick über die wichtigsten Forschungsarbeiten in diesem Bereich folgt.

Das 8. Kapitel beinhaltet die Ergebnisse der Online-Umfrage, die im Zeitraum vom 4. Dezember 2007 bis zum 23. Januar 2008 durchgeführt wurde, einschließlich der Fragen zur Operationalisierung der Suchmaschinenkompetenz der Internetnutzer. Zunächst werden innerhalb dieses Kapitels die Annahmen zum Untersuchungsinhalt (Hypothesen) erläutert. Dann folgt eine Beschreibung des Versuchsaufbaus inklusive einer Methodendiskussion (Kapitel 8.2 und 8.3), bevor anschließend die Ergebnisse der vorgenannten Antworten vorgestellt werden (Kapitel 8.4). Des Weiteren werden in diesem Kapitel verschiedene Gruppierungen definiert und gegenübergestellt, um gruppenspezifische Unterschiede zu identifizieren, sowie Annahmen in Bezug auf ihre Suchmaschinenkompetenz zu prüfen (Kapitel 8.4.7). Anschließend werden die erarbeiteten Kernaussagen und -ergebnisse über Suchmaschinenkompetenz zusammengefasst (Kapitel 8.5).

Handlungsempfehlungen für Suchmaschinennutzer und Bildungsinstitutionen sowie ein Ausblick auf weiterführende wissenschaftliche Forschungsmöglichkeiten bilden den Abschluss der Arbeit (Kapitel 9).

TEIL 2: DESK RESEARCH 2 Suchdienste im Internet

In diesem Kapitel werden zunächst die verschiedenen Typen von Suchdiensten und ihre Funktionsweisen vorgestellt. Anschließend erfolgt ein Überblick über die derzeitige Marktstruktur im Suchmaschinenbereich.

2.1 Klassifikation und Definition der Suchdienste

Im Internet existieren verschiedene Arten von Suchdiensten, die sich durch unterschiedliche Techniken der Datenerfassung, -speicherung und Darstellung der Suchergebnisse voneinander abgrenzen lassen. Die traditionelle Differenzierung in Suchmaschinen und Verzeichnisse verwässert in den letzten Jahren jedoch zunehmend, da viele Suchdienste heutzutage hybride Modelle anbieten, in dem sie sich beider vorgenannter Mechanismen bedienen.[12] Aus diesem Grund wird der Begriff "Suchdienste" in der vorliegenden wissenschaftlichen Arbeit in Anlehnung an STUBER wie folgt definiert:

"Suchdienste sind Webangebote, die externe Inhalte maschinell oder redaktionell, kostenpflichtig oder kostenfrei ermitteln und die so gewonnen Daten auf eigenen oder dritten Websites zur Verfügung stellen, wo nach einer beliebigen Abfrage eines Nutzers sortierte Verweise auf die ermittelten Inhalte aufgelistet werden. "[13]

2.1.1 Verzeichnisse

Verzeichnisse sind redaktionell geprüfte Webkataloge. Das Ziel von Katalogen ist es, eine qualitative hochwertige Linksammlung bereitzustellen, welche so mit einem automatisierten Prozess nicht zu erreichen wäre. Während es einige kleine Verzeichnisse gibt, welche die Internetadressen in einer alphabetisch geordneten Liste zur Verfügung stellen, ordnen die meisten großen Verzeichnisse die URLs[14] anhand der dort behandelten Themen in entsprechende Kategorien ein. Aufgrund ihres kategorischen Aufbaus sind Verzeichnisse auch unter dem Namen Kataloge oder Directories bekannt.[15] Sie sind vor allem hilfreich, wenn Nutzer ihr Suchziel nicht in Form eines konkreten Begriffs formulieren können.

Die Aufnahme einer Website erfolgt entweder auf Initiative eines Redakteurs oder sie wird aktiv durch den Websitebetreiber angemeldet. Dazu hat er bei dem jeweiligen Verzeichnis ein Anmeldeformular auszufüllen, das die URL und Informationen über den Inhalt der Website enthält. Ebenfalls kann i.d.R. eigenständig ein Titel und eine kurze Beschreibung verfasst werden. Bevor die Website in den Datenbestand aufgenommen wird, prüfen Mitarbeiter der Verzeichnisse, ob die gemachten Angaben mit dem Inhalt der Website übereinstimmen und ob die entsprechenden Auswahlkriterien der Verzeichnisse erfüllt sind. Dieser Vorgang kann einige Wochen in Anspruch nehmen. Erst wenn die redaktionelle Begutachtung positiv ausfällt, wird die Website ins Verzeichnis integriert.[16] Die Reihenfolge der Websites in den Ergebnislisten hängt vom angewandten Gewichtungsverfahren ab.

- Beim ungewichteten Verfahren werden die URLs in der Ergebnisliste alphabetisch oder nach dem Erfassungsdatum sortiert.
- Beim gewichteten Verfahren hat der Redakteur Einfluss auf die Reihenfolge der Links. Je relevanter eine Website nach Ansicht des Redakteurs ist, desto höher die Gewichtung und damit die Platzierung in der Ergebnisliste.

Der Arbeitsaufwand und damit die Kosten zur Verwaltung eines Verzeichnisses sind aufgrund der Prüfung von Hand sehr hoch. Neben technischen Fixkosten für Webserver und Datenbank müssen die Redakteure für ihre Arbeit entlohnt werden. Deshalb verlangen viele Verzeichnisse mittlerweile eine Grundgebühr für die Aufnahme einer Internetadresse.[17]

Die bedeutsamsten Verzeichnisse in Deutschland sind Yahoo!, Web.de und das nicht-kommerzielle Open Directory Project (ODP) auch bekannt als Directory Mozilla (DMoz). Auch Google bietet ein Verzeichnis an, jedoch stammen dessen Inhalte vom Open Directory Project.[18]

2.1.2 Suchmaschinen

Im Unterschied zu Verzeichnissen sind Suchmaschinen vollautomatisierte Suchdienstleister. Sie setzten spezielle Software ein, so genannte Spider, Robots oder auch Crawler, die aktiv im Internet neue Websites und Daten ausfindig machen. Suchalgorithmen bewerten anhand von Kriterien wie Keyword-Dichte, Link­Popularität, Klickpopularität etc. die Relevanz einer Website in Bezug auf die eingegebene Suchanfrage. Die so gefundenen Daten durchlaufen mehrere Sortierungsvorgänge, bevor sie dann in Verbindung mit entsprechenden Schlüsselwörtern in den Datenbestand, dem so genannten Index der Suchmaschine, eingeordnet werden. So entsteht ein abstrakter Abzug des Webdokuments, der um ein Vielfaches seiner ursprünglichen Größe komprimiert ist. Die Ergebnisse von Suchanfragen werden schließlich aus dem Index generiert. Dadurch ist die Beantwortung einer Suchanfrage innerhalb von Bruchteilen einer Sekunde möglich. Ein großer Vorteil der Suchmaschinen gegenüber Verzeichnissen ist die Volltextsuche. Ihre Crawler erfassen alle vorkommenden Wörter innerhalb der Webdokumente. So besteht bspw. die Möglichkeit, ein selten vorkommendes Wort auch auf einer tiefer liegenden Unterseite einer Homepage zu finden und diese in der Ergebnisliste anzugeben. Hingegen werden bei Eingabe eines Suchbegriffs in ein Verzeichnis ausschließlich die abgelegten Daten wie z.B. Titel und Beschreibungstext der erfassten Websites nach dem Vorkommen dieses Begriffs durchsucht. So können theoretisch gesehen die Suchmaschinen zwar wesentlich exaktere und relevantere Ergebnisse als die Verzeichnisse liefern, in der Praxis scheitert dies aber am aktuellen technischen Stand der Suchalgorithmen, die die gefundenen Inhalte (bisher) noch nicht semantisch auswerten können.[19] Allerdings übersteigt die Menge und Aktualität der erfassten Daten von Suchmaschinen die der Verzeichnisse bei Weitem.[20] Gleichwohl entstehen nicht alle Einträge ausschließlich aufgrund der Erfassung durch Crawler.

- Bei einigen Suchmaschinen besteht die Möglichkeit, für eine garantierte Indizierung von Websites zu bezahlen, ohne jedoch direkten Einfluss auf die Position der Ergebnisliste zu haben. Diese Aufnahme in den Datenbestand gegen Bezahlung wird in der Praxis als Paid Inclusion bezeichnet (SULLIVAN o.J.a.[21] ). Es war eines der ersten Modelle zur Finanzierung von Suchmaschinen, welches sich aber nie richtig durchsetzten konnte. Heute sind Yahoo! (wenn auch nicht global) und Mirago die einzigen größeren Suchmaschinen, die immer noch Paid Inclusion anbieten.[22] Bei diesem Verfahren erfolgt die Bearbeitung der Websiteanmeldung schneller und einmal aufgenommene Seiten werden in kürzeren Abständen wiederholt "gecrawlt". Paid Inclusions werden nicht als gesponserte Links deklariert, sondern in den natürlichen Suchergebnissen angezeigt.
- Bei den meisten Suchmaschinen besteht außerdem die Möglichkeit eines bezahlten Eintrags in Form von Textanzeigen zu schalten. Google, Yahoo! und MSN bieten den Websitebetreibern das Erlösmodell Pay-for-Placement an. Bei diesem Modell können Werbekunden die Höhe der Platzierung ihrer Textanzeigen durch die Höhe ihrer Gebote für bestimmte Suchbegriffe selbst beeinflussen.[23] Diese Anzeigen werden jedoch nicht in den Index der Suchmaschinen integriert und somit auch nicht in den natürlichen Suchergebnissen dargestellt, sondern sie werden separat erfasst, auf abgetrennten Bereichen dargestellt und als "Anzeigen", "Sponsoren Links" oder "Gesponserte Seiten" markiert. Die Einträge werden in den hierfür vorgesehenen Bereichen in Abhängigkeit der jeweils eingegebenen Suchbegriffe angezeigt. Bei der Berechnung der Kosten für diese Werbeform ist nicht die Anzahl der ausgelieferten Einblendungen der Suchergebnisse maßgeblich (Impressions), sondern die Höhe des Gebotes, die Qualität der Anzeige und der verlinkten Website sowie die erfolgten Klicks auf diesen Eintrag. Diese Abrechnungsmethode wird deswegen auch Pay-per-Click-Verfahren genannt und ist leistungsabhängig. Der große Vorteil des Pay-per-Click-Verfahrens für Websitebetreiber besteht darin, dass Paid-Placement-Anzeigen innerhalb kürzester Zeit prominent in den Suchergebnislisten platziert werden. Eine arbeitsintensive Optimierung der Website kann damit umgangen werden. Allerdings entsteht andererseits auch die Abhängigkeit, stets Anzeigen zu schalten, um gefunden zu werden.

Nur wenige Suchdienste verfügen über die Möglichkeit, Paid-Placement-Systeme eigenständig in ihren Suchdienst zu implementieren. Es haben sich deswegen spezialisierte Anbieter solcher Paid Placement-Systeme etabliert.[24] Einerlei ob eigenständig implementiert oder geliefert: Pay-for-Placement hat sich in den letzten Jahren als die Hauptfinanzierungsquelle für Suchmaschinen herausgebildet.

2.1.3 Metasuchmaschinen

Das Wort "Meta" stammt aus dem Griechischen und bedeutet "auf einer höheren Stufe bzw. Ebene befindlich". Metasuchmaschinen haben im Gegensatz zu Suchmaschinen keinen eigenen Datenbestand. Sie leiten die Suchanfragen der Nutzer an andere Suchmaschinen und Webkataloge weiter, aggregieren die erhaltenen Suchergebnisse, eliminieren weitestgehend Duplikate und präsentieren sie in einer eigenständig sortierten Ergebnisliste. Sie stehen somit hierarchisch gesehen über den Suchmaschinen. Der Sinn der Metasuche besteht darin, die derzeit noch unvollständige Erfassung aller Inhalte des Webs bei den unterschiedlichen Suchdiensten zu kompensieren und so ein möglichst vollständiges Abbild der im Netz befindlichen Inhalte wiederzugeben.[25] "Als Einstiegspunkt, um einen Überblick über vorhandene Daten im Internet zu einem bestimmten Thema zu bekommen, sind Metasuchmaschinen gut geeignet.[26] Durch deren Einsatz erspart sich der Nutzer das sequentielle Suchen in mehreren Suchmaschinen. Als Nachteil ist die durchschnittlich etwas längere Bearbeitungsdauer einer Suchanfrage zu nennen. Anfragen an Metasuchmaschinen können nicht schneller beantwortet werden, wie die langsamste der genutzten Suchmaschinen arbeitet. Bekannte Metasuchmaschinen für den deutschsprachigen Raum sind Metacrawler, MetaGer2 und Apollo 7. Sie integrieren bei Ihrer Suche unter anderem auch den Datenbestand von Google.

2.1.4 Spezielle Suchdienste

Durch die Datenflut im Word Wide Web gewinnen spezielle Suchdienste kontinuierlich an Bedeutung. Sie sind auf speziell abgegrenzte Themenbereiche ausgelegt. Bestimmte Ausprägungen dieser Dienste sind nahezu in jedem Suchdienst integriert. So bieten Google, Yahoo! und MSN aber auch kleinere Suchmaschinen -mit weniger Nutzern- neben der gewöhnlichen Volltextsuche auch eine spezifische Suche nach Bildern, Bloggs, Nachrichten, Newsgroups, Produkten, Videos und auch zunehmend die lokale Suche an.

Der Vorteil der spezialisierten Suchdienste besteht darin, dass der Datenbestand eines abgegrenzten Gebietes leichter aktuell zu halten ist als ein weltweiter Index. Dadurch steigt die Chance auf eine umfassendere Indexierung in diesem Bereich.

Die heute bekannteste Ausprägung der Suchmaschinenspezialisierung sind Suchdienste, die sich auf bestimmte Länder fokussieren. Neben den bekannten, international agierenden Firmen, die in allen größeren Ländern gesonderte Suchdienste betreiben (bspw. Google.de, yahoo.de, msn.de), gibt es auch lokale, nur auf ein Land ausgerichtete Anbieter wie search.ch für die Schweiz oder AustroNaut.at für Österreich.

Eine relativ neue Variante der speziellen Suchdienste stellt die lokale Suche dar. Hier geht es den Nutzern bei Ihren Anfragen darum, ein bestimmtes Angebot an einem lokal begrenzten Ort ausfindig zu machen (bspw.: „Wo gibt es in meiner Stadt einen Zahnarzt?"). Waren es in Deutschland vor allem Branchen- und Adressverzeichnisse wie DasOertliche, GelbeSeiten oder GoYellow, die die lokale Suche schon recht früh ermöglichten, so bieten inzwischen auch alle großen Suchmaschinen lokale Suchen an (Google Maps, Yahoo! Lokale Suche, MSN Live Search Maps). Suchtreffer werden hier nicht nur als Textergebnis angezeigt, sondern zusätzlich mit Hilfe einer Ortsmarkierung innerhalb einer Karte veranschaulicht.[27] Ferner können zum gefundenen Angebot spezielle Detailinformationen abgerufen werden, wie in Abbildung 2 zu sehen ist.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Detailinformationen eines Eintrags bei Google Maps

Darüber hinaus gibt es zahlreiche weitere Suchmaschinen, die sich auf spezielle Themen, wie z.B. Produktpreisvergleiche, Jobvermittlung, Freeware oder MP3s spezialisiert haben. Die Liste spezifischer Suchdienste ist lang und kann um viele Themenbereiche erweitert werden.[28]

3 Funktionsweisen von Suchmaschinen

Für viele Nutzer ist die Funktionsweise von Suchmaschinen auf den ersten Blick nicht erkennbar. Sie sehen nur, dass nach Eingabe einer Suchanfrage eine Ergebnisliste mit (relevanten) Links ausgegeben wird. Häufig wird fälschlicherweise vermutet, dass Suchmaschinen das gesamte Web nach den eingegebenen Begriffen durchsuchen. Um dieses Missverständnis aufzulösen und um ein besseres Verständnis dafür zu schaffen, wie Suchmaschinen funktionieren, soll nun ein Überblick über die Arbeitsweise von Suchmaschinen gegeben werden. Die nachfolgenden Ausführungen orientieren sich an den Darstellungen von GLÖGGLER.[29]

Jede Suchmaschine (im Sinne von Kapitel 2.1.2) verfügt über einen Datenbestand, auf den zur Beantwortung von Suchanfragen zugegriffen wird.

Die Erfassung, Aufbereitung und Bewertung sowie Verwertung dieses Datenbestandes geschieht folgendermaßen:

Im Wesentlichen setzten sich Suchmaschinen aus drei Systemkomponenten zusammen:[30]

- einem Web-Robot-System zur Erfassung von neuen und veränderten Daten (siehe Kapitel 3.1)
- einem Information Retrieval System, einem speziellen Datenbanksystem zur Aufbereitung und Bewertung der erfassten Daten (siehe Kapitel 3.2)
- und einem Query Processor, der die zur Suchanfrage passenden Ergebnisse aus einer Datenbank liefert (siehe Kapitel 3.3)

Nachstehende Darstellung veranschaulicht den Funktionsablauf einer Suchmaschine, der in den folgenden Unterkapiteln noch näher beleuchtet werden soll.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Vereinfachte Funktionsweise von Suchmaschinen[31]

3.1 Web-Robot-System: Beschaffung und Analyse der Daten

Grundsätzlich wird das von Suchmaschinen eingesetzte System zur Datenbeschaffung als Web-Robot-System bezeichnet. Statt der Bezeichnung Web­Robot-System werden häufig auch Synonyme wie Robot, Web Wanderer, Web- Crawler oder auch Spider verwendet, welche im Grunde alle die gleiche Art von Systemen bzw. Prozessen beschreiben. Der Robot ist die aus Hard- und Software bestehende Systemkomponente von Suchmaschinen, die für die Erfassung neuer oder veränderter Dokumente im Internet zuständig ist.[32] Im Fokus stehen dabei (bisher noch) HTML-Dokumente. Die meisten Suchmaschinen erlauben neben HTML aber auch eine Indexierung von Texten aus Microsoft-Dateien (.doc, .xls, .ppt), PDF- Dokumenten (.pdf), Rich-Text-Dateien (.rft), einfachen Textdateien (.txt) sowie Alt­Tags von Bildern und Videos. Eine Restriktion auf bestimmte Dokumente bzw. Protokolle erfolgt mit dem Zweck, eine Homogenität der Eingangsdateien und damit verbunden einen höheren Effizienzgrad bei der Verarbeitung von Daten zu erreichen.

3.2 Information Retrieval System: Aufbereitung und Analyse der Daten

Information Retrieval Systeme sind spezielle Datenbanken zur Verarbeitung von Textdokumenten. Ziel eines Retrievalsystems ist es, Textdokumente so aufzubereiten, dass ein effizient durchsuchbarer Datenbestand entsteht, der Texte unter Berücksichtigung bestimmter Bewertungskriterien erfasst und eine Rangfolgenbewertung gefundener Dokumente ermöglicht.

Der Aufbau eines adäquaten Datenbestandes (Indexierungsprozess) lässt sich in drei Teilprozesse gliedern:[33]

- die Datennormalisierung (Kapitel 3.2.1)
- die Dokumentenanalyse
- die Bildung von durchsuchbaren Datenstrukturen (auch Indexierung genannt) (Kapitel 3.2.2).

3.2.1 Datennormalisierung und Dokumentenanalyse

Die vom Robot gefundenen Daten aus dem Internet liegen in unstrukturierter Weise vor und müssen zuerst analysiert und aufbereitet werden, bevor sie als Index zu einem homogenen, durchsuchbaren Datensatz werden. Dies geschieht durch Nutzung unterschiedlicher Filter. Das Hauptziel der Strukturierung, die die Prozesse der Datennormalisierung und Dokumentenanalyse umfasst, liegt in der Bestimmung von geeigneten Schlüsselworten für den Index, welche den Inhalt der Dokumente thematisch erfassen. Die hierzu eingesetzten Filterprozesse können dabei in Teilen vom Web-Robot-System als auch vom Retrieval-System ausgeführt werden. Ein Überblick der eingesetzten Verfahren gibt Abbildung 4.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Prozesse der Datennormalisierung und Datenanalyse[34]

3.2.2 Bildung von durchsuchbaren Datenstrukturen (Indexierung)

Das angestrebte Ziel der Suchmaschinen, Dokumente inhaltlich so unterscheidbar zu machen, dass Suchergebnisse entsprechend ihrer inhaltlichen Relevanz sortiert werden können, macht spezielle Datenstrukturen notwendig. Diese müssen so angelegt sein, dass innerhalb möglichst kurzer Zeit alle Dokumente im Datenbestand gefunden werden, die für eine Suchanfrage relevant sind. Darüber hinaus müssen die Datenstrukturen dem Query Processor (vgl. Kapitel 3.3) Hinweise liefern, die es ermöglichen, eine Unterscheidung der Dokumente bezogen auf ihre Relevanz zu einer Suchanfrage vornehmen zu können.[35] Die vom Information Retrieval grundsätzlich eingesetzte Datenstruktur ist das invertierte Dateisystem in Verbindung mit einer zentralen Indexdatei. Die Summe aller durchgeführten Aktionen zur Erarbeitung des invertierten Dateisystems wird Indexierung genannt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Beispiel für ein invertiertes Dateisystem[36]

Jedes Wort aus dem Index verfügt über einen Verweis zu einer invertierten Datei. Diese wiederum umfasst Verweise zu allen Dokumenten, in denen das jeweilige Wort vorkommt. Da diese Dokumente eine große Anzahl an Worten beinhalten, werden sie aus ökonomischen Gründen mit einer Dokumentennummer (docID) versehen und so als numerischer Verweis innerhalb der invertierten Datei gelistet. Wenn nun bei einer Suchanfrage das Keyword im Index enthalten ist, werden über das invertierte Dateisystem alle Dokumente, die das Keyword enthalten mit den entsprechenden externen Links aufgelistet.[37]

Abbildung 5 verdeutlicht diese Beziehung. Nach Eingabe der Begriffe Hotel und Pforzheim in die Suchmaske der Suchmaschine werden die invertierten Dateien zu beiden Begriffen ausgelesen. So enthalten z.B. die Dokumente mit den Dokumentennummern 1234 und 2345 beide in der Sucheingabe verwendeten Begriffe. Hingegen enthält das Dokument 1129 nur eines der beiden Keywords, nämlich das Wort Hotel. Da bei einer Suchanfrage mit mehreren Worten automatisch der boolesche Operator UND zu Grunde gelegt wird (damit müssen in den gesuchten Dokumenten zwingend beide Worte vorkommen), wird das Dokument 1129, welches nur ein Wort enthält, als irrelevant eingestuft und abgelehnt.

3.3 Query Processor: Ranking und Aufbau der Ergebnislisten

Suchanfragen werden über den Query Processor der Suchmaschine ausgeführt. Er stellt für den Nutzer die Schnittstelle zur Datenbank der Suchmaschine dar. Die Aufgabe des Query Processors ist es, all jene Dokumente im Datenbestand aufzufinden, die einer Suchanfrage bis zu einem gewissen Grad ähnlich sind und diese in eine Reihenfolge zu bringen. Er ist damit diejenige Systemkomponente, die Daten in einem Datenbestand sucht und als sortiertes Ergebnis in Form einer Ergebnisliste liefert. Während die Daten zur Berechnung durch das Information Retrieval System bereitgestellt werden, wird die Relevanzkalkulation durch den Algorithmus des Query Prozessors vorgenommen. Das Gewichtungsmodell sowie die Datenstruktur stehen somit in einem engen funktionalen Zusammenhang.[38]

4 Der Online-Markt in Deutschland

4.1 Der Markt der Suchdienste

Der deutsche Suchdienstmarkt setzt sich aus wenigen "Global Players" wie Google, Yahoo!, MSN und vielen kleineren Anbietern zusammen. KARZAUNINKAT listet auf seiner Website (suchlexikon.de) insgesamt 2589 deutschsprachige Suchdienste auf. Die Nutzung spezialisierter, kleinerer Suchdienste ist im Vergleich zu den großen Anbietern bisher jedoch gering.[39] Wie bereits erwähnt, generieren darüber hinaus zahlreiche Anbieter keine eigenen Daten, sondern beziehen Ihre Suchergebnisse von größeren Suchdiensten.[40] Die kolossale Anzahl an Verflechtungen zwischen den Suchunternehmen und die große technische Dynamik erschwert eine korrekte Berechnung der Marktanteile. Einigkeit besteht aber darüber, dass Google den deutschen Markt dominiert und praktisch eine Monopolstellung einnimmt. Die Firma Webhits kommt unter Verwendung von 994.600 Suchergebnissen im Dezember 2007 zu folgender Nutzungsverteilung in Deutschland: Google (89,2 Prozent), Yahoo! (2,9 Prozent), T-Online (2,1 Prozent), MSN Live Search (1,9 Prozent) AOL Suche (1,2 Prozent), ask.com (0,3 Prozent), Lycos (0,3 Prozent), Altavista (0,2 Prozent) suche.freenet.de (0,2 Prozent), WEB.DE (0,2 Prozent).[41]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Marktanteile von Suchmaschinen in Deutschland[42]

Wenn man hierbei noch berücksichtigt, dass die AOL Suche und T-Online mit Suchergebnissen von Google versorgt werden, erreicht der Marktführer in Deutschland einen Marktanteil von 92,5%. Diese Zahlen veranschaulichen den deutlichen Vorsprung Googles gegenüber seinen Hauptkonkurrenten Yahoo! und MSN, die in Europa zunehmend unter Druck geraten. So musste bspw. Yahoos Geschäftsführer Toby Coppel im November 2007 Versäumnisse in der Geschäftspraxis in Europa einräumen. Zugleich kündigte er eine anstehende Angebotsbereinigung an, die im Einklang mit der allgemeinen Kurskorrektur steht, die der wieder als CEO amtierende Gründer Jerry Yang durchsetzten will.[43]

Die nachstehende Abbildung 7 soll belegen, wie eng die Suchdienste untereinander verflochten sind. Sie erhebt aber keinen Anspruch auf Vollständigkeit.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Beziehungsgeflecht der Suchdienste[44]

All diese Beziehungen unterliegen den sich permanent ändernden Marktbedingungen, könnten also jederzeit beendet oder durch neue Allianzen ersetzt werden. Innerhalb der letzten 3 Jahre waren insbesondere folgende Entwicklungen für den Suchdienstmarkt wesentlich:[45]

- Yahoo! versucht seine Marktposition durch den Aufkauf von Inktomi, Overture, Altavista und Alltheweb auszubauen. Durch die Übernahme der Such-Technologie von Inkomti verfügt Yahoo! nun über einen eigenen Index und wird nicht mehr von Google mit Suchergebnissen beliefert.
- Google hat mit Freenet einen weiteren Partner gewonnen, der sowohl mit natürlichen Suchergebnissen als auch mit bezahlten Suchergebnissen versorgt wird.
- Microsoft macht sich vom Suchergebniszulieferer Yahoo! unabhängiger und startet mit Live Search im September 2006 eine technisch eigenständige Suchmaschine. Während MSN in den USA seit 2006 mit seinem Microsoft AdCenter auch seine eigene Suchwerbung vermarktet, wird diese in Deutschland bisher von Yahoo!Search Marketing geliefert.
- AOL erhält nun neben den natürlichen Suchergebnissen auch bezahlte Suchergebnisse von Google.
- Die drei größten Anbieter im Bereich Suchmaschinenwerbung sind Google AdWords[46], Yahoo! Search Marketing (vormals Overture) und Miva (ehemals Espotting). Sie versorgen die reichweitenstarken Suchmaschinen und Portale mit bezahlten Suchergebnissen.
- Ask Jeeves nennt sich Ask und verfügt nun ebenfalls über einen selbst generierten Suchindex

Dass der Wettbewerb härter wird, ist nicht nur an den zahlreichen Firmenübernahmen abzulesen, sondern auch an der Fülle neu eingeführter Zusatzdienste, die den Nutzern meist kostenlos angeboten werden. So konkurrieren die Suchdienste mittlerweile nicht mehr nur durch immer besser werdende Suchalgorithmen, sondern auch durch eine Vielzahl neuer Funktionen und Dienste, um Besucherzahlen zu halten bzw. auszubauen.

Insbesondere der Marktführer Google forciert den Ausbau solcher Dienste. So können Nutzer über Sonderfunktionen inzwischen nach Call-by-Call-Vorwahlen, Stadtplänen, Zugverbindungen, aktuellen Wertpapierinformationen oder Definitionen recherchieren, ihre über FedEx und UPS versandten Briefe und Pakete verfolgen, in einem Deutsch-Englisch-Wörterbuch Begriffe nachschlagen oder Google als Taschenrechner nutzen.[47] Im November 2004 startete Google seine Produktsuchmaschine (früher Froogle). Sie sucht nach Produktangeboten und sortiert sie u.a. nach dem Preis. Über eine deutschsprachige Nachrichtensuche verfügen neben Google (Google News) mittlerweile auch Yahoo!, Web.de und MSN. Mit Google Scholar können wissenschaftliche Quellen recherchiert werden, die in universell ausgerichteten Suchmaschinen wegen der geringeren Nachfrage vernachlässigt werden. Mit der Google Buchsuche kann online nach digitalisierten Büchern gesucht werden. Wenn das Urheberrecht erloschen ist oder der Buchverlag eine Genehmigung erteilt hat, wird eine Vorschau des Buchs angezeigt. In einigen Fällen kann man sogar den gesamten Text ansehen bzw. eine PDF-Datei herunterladen. Als weitere Zusatzangebote zu nennen sind Google Talk, mit dem kostenlose Telefonate von PC zu PC geführt werden können, YouTube, mit dem man kostenfrei private Filme im Internet veröffentlichen und von anderen Nutzern bewerten lassen kann, sowie Blogger -ein Service mit dem man kostenfrei seinen eigenen Weblog erstellen kann. Mit Google Mail, einem kostenfreien Service, der für E-mails bis zu 2,8GB Speicher bereitstellt, greift Google seine schärfsten Konkurrenten Yahoo! und MSN nun auf einem weiteren wichtigen Geschäftsfeld an, welches bisher durch Google nicht berücksichtigt wurde.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Google Produkte[48]

Während Google sich am Anfang seiner Unternehmensgeschichte auf die Bereitstellung der Websuche konzentriert hatte, baut der Marktführer nun sein Angebot sukzessive zu einem vielseitigen - größtenteils kostenlosen - „Allround- Portal" aus, mit dem Ziel, Reichweite und Verweildauer der Nutzer zu steigern, sowie eine weitere und damit engere Kundenbindung zu realisieren (vertikale Expansion). Eine Auflistung der wichtigsten Geschäftsfelder von Google ist in Anhang 2 einsehbar. Dabei stellt sich die Frage, was diese Dienste mit der originären Aufgabe einer Suchmaschine zu tun haben und ob Google nicht wie so manche anderen, frühen Suchmaschinen an „Portalitis“ erkrankt.[49] Google selbst sieht sich jedoch nicht nur als reine Suchmaschine, sondern definiert seine Strategie globaler: „Das Ziel von Google besteht darin, die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen.“[50] Erst mit Kenntnis dieser Gesinnung wird deutlich, dass all die suchmaschinenfremden Dienste dem Erreichen dieses anspruchsvollen Ziels dienlich sein können.

4.2 Der Online-Werbemarkt

Der Online-Vermarkterkreis gibt halbjährlich den OVK Online-Report heraus. Er beinhaltet zusammengefasst die wichtigsten Zahlen des deutschen Online Werbemarktes. Basis für diesen Marktüberblick sind zum einen die Nielsen Online Werbestatistik, sowie die Studie internet facts der Arbeitsgemeinschaft Online­Forschung. Die Prognose für 2007 beläuft sich nach Schätzungen der Experten im OVK und im Bundesverband Digitale Wirtschaft auf 2,5 Mrd. € Bruttoumsätze für den gesamten Online-Werbemarkt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: Online-Werbung in Deutschland 2004-2007[51]

Die Stabilität des Wachstums über die letzten Jahre zeigt, dass sich Online als Medium zur Markenkommunikation fest im Mediamix etabliert hat. Nach TV (37,7 Prozent), Zeitungen (24,1 Prozent) und Publikumszeitschriften (18,9 Prozent) steht das Internet mit 8,7 Prozent mittlerweile auf Platz vier der Werbeausgaben (2006).[52] Das renommierte E-Business-Marktforschungsunternehmen Emarketer geht davon aus, dass sich dieser Trend weiter fortsetzen wird und prognostiziert in Deutschland für das Jahr 2011 einen Gesamtumsatz von 3,8 Mrd. €.[53] Trotz der enormen Steigerungsraten in den letzten Jahren ist der deutsche Markt -international gesehen- als „noch nicht vollständig entwickelt" und damit eher als „klein" anzusehen. Zum Vergleich: In den USA wurden im Jahr 2007 insgesamt 21,4 Mrd. US-$ für Online-Werbung ausgeben. Die Verteilung der Umsätze setzte sich dort folgendermaßen zusammen: sonstige 42,7 Prozent, Google 28,7 Prozent, Yahoo! 15,6 Prozent, AOL 6,6 Prozent, MSN Search 6,4 Prozent.[54] Offizielle deutsche Umsatzzahlen von Google liegen nicht vor.[55] Es kann aber davon ausgegangen werden, dass 80-90 Prozent der Unternehmen, die Keyword-Advertising betreiben, Google Adwords nutzen.[56] Von daher ist anzunehmen, dass Google in Deutschland mindestens ein Drittel der Onlinewerbeumsätze auf sich vereint.

5 Das Phänomen des Google Imperiums

Google ist in Deutschland wie auch weltweit zum Synonym für die Suche im Internet geworden. Andere Suchmaschinen liefern ebenfalls exzellente Suchergebnisse, doch die Marke Google hat sich tief in das Bewusstsein der Benutzer eingebrannt.

So stark, dass das Wort „googlen“ sowohl in Deutschland als auch in anderen Ländern Einzug in den allgemeinen Wortschatz gefunden hat und ein anerkanntes Verb geworden ist.[57] Diese Tatsache lässt den Einfluss dieses Unternehmens auf die globale Kultur erahnen.[58] Google ist für viele Millionen Menschen nicht mehr aus ihrem Alltag wegzudenken. Laut der vom Marktforschungsunternehmen Comscore veröffentlichten weltweiten Rangliste der beliebtesten Websites rangierten im Oktober 2007 die Seiten von Google zusammengefasst mit 583 Mio. Unique Visitors auf Platz 1. Täglich werden von Google etwa 1,2 Mrd. Suchanfragen bearbeitet, was einem weltweiten Suchdienstmarktanteil von 58.5% entspricht. In Deutschland bediente das Unternehmen -ebenfalls als beliebteste Website- im Oktober 2007 23 Mio. Besucher.[59] Laut brandchannel.com, der Internetvertretung von Interbrand, wurde Google 2006 von den Befragten zum vierten Mal in Folge zur weltweit einflussreichsten Marke gewählt.[60] Platz zwei ging an Apple. Auf Rang drei landete das von Google aufgekaufte Videoportal YouTube.

[...]


1 vgl. MACHILL; WELP (2003), S. 138

2 vgl. http://www.comscore.com/press/data.asp, Internetquellen ohne Verfasserangabe werden in dieser Arbeit ausschließlich mit Hilfe von Internet-Links (URLs) zitiert.

3 vgl. Anhang 9

4 vgl. VAN EIMEREN und FREES (2007), S.369

5 SPECK (2007a), S.115

6 vgl. BAACKE (1999)

7 vgl. eprofessional (2003), S. 8

8 vgl. MACHILL; WELP (2003), S. 166-175, 341-345, eprofessional (2003), S. 8

9 vgl. FALLOWS (2005), S. 13f, vgl. MACHILL; WELP (2003), S. 149

10 vgl. FALLOWS (2005), S. 2

11 vgl. SCHMIDT-MÄNZ (2007), S. 5

12 vgl. MACHILL; WELP (2003), S.72

13 STUBER (2004), S.13

14 technische Fachbegriffe werden im Glossar erklärt (siehe Anhang 1 : Glossar)

15 vgl. vgl. VON BISCHOPINCK und CEYP (2007), S.17

16 vgl. GLÖGGLER (2003), S.2

17 vgl. VON BISCHOPINCK und CEYP (2007), S.20

18 vgl. KENT (2006), S.31

19 vgl. VON BISCHOPINCK und CEYP (2007), S.22 ff

20 vgl. FRIES (2007), S.23

21 Danny Sullivan war Herausgeber des renommierten Informationsdienst http://searchenginewatch.com/

22 vgl. Yahoo!: http://searchmarketing.yahoo.com/srchsb/ssb.php und Mirago: http://de.mirago.com/werben/wasistpaidinclusion.htm

23 vgl. VON BISCHOPINCK und CEYP (2007), S.24

24 vgl. GLÖGGLER (2003), S.11

25 vgl. VON BISCHOPINCK und CEYP (2007), S.25

26 vgl. FRIES (2007), S. 23

27 vgl. VON BISCHOPINCK und CEYP (2007), S.30

28 vgl. bspw. http://www.suchlexikon.de/

29 vgl. GLÖGGLER (2003), S. 25-63

30 vgl. GLÖGGLER (2003), S. 25

31 vgl. VON BISCHOPINCK und CEYP (2007), S.32

32 vgl. GLÖGGLER (2003), S. 26

33 vgl. GLÖGGLER (2003), S. 40

34 vgl. GLÖGGLER (2003), S. 45ff

35 vgl. GLÖGGLER (2003), S. 57ff

36 vgl. GLÖGGLER (2003), S. 42

37 vgl. GLÖGGLER (2003), S. 57ff

38 vgl. GLÖGGLER (2003), S. 96

39 vgl. GRIMMER (2005), S.26

40 bspw. beziehen AOL und T-Online ihre Suchergebnisse von Google

41 http://www.webhits.de/deutsch/index.shtmPwebstats.html (12.12.07), Internetquellen ohne direkte Verfasserangaben werden in dieser Arbeit ausschließlich mit Weblinks und Datumsangabe zitiert.

42 http://www.webhits.de/deutsch/index.shtmPwebstats.html (12.12.07)

43 vgl. http://www.heise.de/newsticker/Yahoos-europaeische-Angebote-auf-dem-Pruefstand-- /meldung/99189/from/rss09 (13.12.07)

44 vgl. http://www.luna-park.de/fileadmin/lp/img/beziehungsgeflecht_suchmaschinen_gross_0407.jpg (12.12.07)

45 vgl. VON BISCHOPINCK und CEYP (2007), S.54

46 AdWords ist ein Anzeigenplazierungssystem, das auf Kontextsensitivität beruht: Nach Eingabe (fast) jeder Suchanfrage werden rechts neben den natürlichen Suchergebnissen (teilweise auch darüber) speziell gekennzeichnete Textanzeigen eingeblendet, die mit der Suchwörtern in Bezug stehen.

47 vgl. http://www.google.de/help/features.html

48 vgl. http://www.google.de/intl/de/options/ (11.12.07)

49 vgl. Alby und Karzauninkat (2007), S.32

50 http://www.google.de/corporate/ (04.02.08)

51 vgl. OVK Online-Report (2007)

52 vgl. OVK Online-Report (2007)

53 vgl. http://www.emarketer.com/Report.aspx?code=emarketer_2000453 (04.02.08)

54 vgl. BERNAU und HÖFINGHOFF (2008), bzw. http://www.techcrunch.com/2007/10/05/googles- share-of-us-online-ads-hits-40-percent/ (04.02.08)

55 Google weist einzelne Länder nur dann in der Segment-Berichterstattung des Geschäftsberichts aus, wenn diese mindestens zehn Prozent des weltweiten Google-Umsatzes generieren.

56 vgl. bspw. http://www.horizont.net/aktuell/digital/pages/protected/show-74386.html (04.02.08)

57 „(to) google“ ist sowohl im Duden als auch im amerikanischen Webster’s Dictionary und im englischen Oxford Dictionary aufgeführt.

58 vgl. Wise und Malseed (2006), S.22

59 vgl. http://www.comscore.com/press/data.asp (03.01.08)

60 gefragt wurde: “Welche Marke hatte 2007 den größten Einfluss auf ihr Leben?”

Ende der Leseprobe aus 168 Seiten

Details

Titel
Suchmaschinenkompetenz - Was wissen wir wirklich über Suchmaschinen?
Untertitel
Eine Untersuchung am Beispiel von Google
Hochschule
Hochschule Pforzheim  (Fakultät für Wirtschaft und Recht)
Note
1,00
Autor
Jahr
2008
Seiten
168
Katalognummer
V94034
ISBN (eBook)
9783638071642
Dateigröße
1825 KB
Sprache
Deutsch
Schlagworte
Suchmaschinenkompetenz, Suchmaschinen
Arbeit zitieren
Martin Gaulke (Autor:in), 2008, Suchmaschinenkompetenz - Was wissen wir wirklich über Suchmaschinen?, München, GRIN Verlag, https://www.grin.com/document/94034

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Suchmaschinenkompetenz - Was wissen wir wirklich über Suchmaschinen?



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden