Lade Inhalt...

Auf den Spuren von Webseitenbesuchern

Sammlung, Analyse und Verwendung personenbezogener Daten im Internet

Seminararbeit 2010 18 Seiten

Informatik - Wirtschaftsinformatik

Leseprobe

Gliederung

Kurzfassung

Summary

Schlüsselwörter

Abkürzungen

1 EINFÜHRUNG

2 SAMMLUNG
2.1 METHODEN
2.1.1 Logfile-Auswertung
2.1.2 Zählpixel
2.1.3 Cookie
2.1.4 Weitere Methoden
2.2 WERKZEUGE
2.3 WELCHE DATEN WERDEN ERHOBEN?
2.3.1 Benutzerdaten
2.3.2 Zugriffsquellen
2.3.3 Content
2.3.4 eCommerce

3 ANALYSE
3.1 ANALYSE KONKRETER BEISPIELWERTE
3.2 DATEN KOMBINIEREN

4 MAßNAHMEN
4.1 WERBEKAMPAGNEN PLANEN
4.2 MAßNAHMEN ZUR OPTIMIERUNG

5 PROBLEMATIK
5.1 MESSMETHODEN
5.2 INTRANSPARENZ
5.3 DATENSICHERHEIT UND DATENSCHUTZ

Abkürzungen

Abbildung in dieser Leseprobe nicht enthalten

Kurzfassung

Webseitenbesucher hinterlassen Spuren. Diese Spuren gilt es zu sammeln, zu analysieren und sinnvoll zu nutzen. Diese Einführung zum Thema Webanalyse gibt einen Überblick über Methoden zur Datenerhebung, Marketing-Maßnahmen und aktuelle informationstechnische Werkzeuge. Dabei stehen der praktische Nutzen und die Anwendbarkeit im Vordergrund. Anschließend werden das Thema anhand eines konkreten Praxisbeispiels und Problematiken besprochen.

Summary

Website visitors left their footprints. These footprints have to be collect, ana- lyze and utilize appropriate. This introduction to web analytics is an overview of methods for data collection, marketing efforts and current information technology tools. The practical usefulness and applicability in the foreground. Then, the topic will be explained using a concrete practical example and issues will be discussed.

Schlüsselwörter

Analyse - Computer - Internet - Webseiten - Webanalyse - Google Analytics - Omniture SiteCatalyst - Auswertung - Marketing - Analyse - Web Intelligence - Zählpixel - Cookies - Logfile - Benutzerdaten - Zugriffsquellen - Google Adwords

1 Einführung

Seit jeher ist es von grundlegender Wichtigkeit, seine Zielgruppe genau zu kennen, um deren Bedürfnisse zu erkennen und diese befriedigen zu können. Diese Kenntnis wird einerseits durch Erfahrung aus dem Umgang mit der Zielgruppe, andererseits durch Marktforschung und -analyse gewonnen.

Der Leiter eines dörflichen Supermarkts erlangt seine Kenntnisse durch den persönlichen Kundenkontakt, das städtische Kaufhaus durch die Ermittlung und Auswertung der Verkaufszahlen und der Betreiber einer Webseite durch die Auswertung von Bewegungsdaten. Sowohl die Änderung der Öffnungszeiten eines Supermarktes wegen Flaute im Mittagsgeschäft, als auch das Angebot neuer Getränkesorte im Kiosk aufgrund mehrfacher Kundenbitte - die Erkenntnis der Notwendigkeit dieser Maßnahmen wird mithilfe von mehr oder wenigen präzisen Kundendaten erlangt.

Bei Web-Analyse handelt es sich um die Weiterentwicklung klassischer Informationsauswertungsmethoden. Es geht immer darum, Daten zu sammeln, auszuwerten und daraus Schlüsse zu ziehen.

Beim Surfen im Internet hinterlässt der Webseitenbesucher Spuren. Es werden Dateizugriffe zusammen mit dem Zugriffszeitpunkt protokolliert, technische Daten des Computers des Webseitenbesuchers ausgelesen oder Klickpfade des Besuchers aufgezeichnet. Einsatzmöglichkeiten sind z.B. die Ermittlung hoher Abbruchraten zur Aufdeckung von System-Problemen, die Erfolgsmessung von Werbemaßnahmen oder die Bestimmung der inhaltlichen Relevanz einzelner Seiten.

In dieser Studienarbeit werden alle wichtigen Aufgabenbereiche der Web-Analyse beschrieben. Anhand einer Fallstudie wird die praktische Anwendung erläutert, abschließend wird auf Problematiken eingegangen.

2 Sammlung

2.1 Methoden

2.1.1 Logfile-Auswertung

Im „Logfile“ eines Servers werden alle Serverzugriffe protokolliert. Jeder Dateizugriff führt zur Erweiterung des Logfiles um eine Zeile. Alle Log-Dateien sind ähnlich aufgebaut, unabhängig vom Servertyp (z.B. Apache, IIS). Die Organisation w3.org hat einen weltweiten Standard für den Aufbau von Logfiles festgelegt.

Abbildung 1 zeigt den typischen Aufbau:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Typischer Aufbau eines Logfile

Nach der IP-Adresse des zugreifenden Rechners folgen Benutzername und Passwort, falls keine existieren, werden wie in Abbildung 1 Bindestriche dargestellt. Es folgt der Zeitpunkt des Zugriffs, die Zugriffsmethode (hier „GET“), die angeforderte Datei, das Übertragungsprotokoll, der Status (200 = Ok) und die Dateigröße (hier 628 Byte). Mithilfe dieser Daten kann die Popularität einzelner Webseiten und Webseitenelemente ermittelt werden. Kommt es zu Konversationen auf der Webseite (z.B. Bestellungen, Teilnahme an Gewinnspielen, Anmeldungen zu Newslettern), können mithilfe der Log- Daten betriebswirtschaftliche Kennzahlen gewonnen werden, wie der Umsatz pro Besu- cher (allgemein: Konversation pro Besucher = Konversationsrate) oder die Kosten pro Besucher, falls kostenpflichtige Werbung für die Webseite geschaltet wird. Zu berücksichtigen ist, dass kein Eintrag in die Log-Datei erfolgt, wenn die komplette Webseite aus dem Cache-Speicher des Clients aufgerufen wird.

Zur Logfile-Auswertung steht kostenlose Software in großem Umfang bereit.

Aufgrund der sehr beschränkten Daten findet diese Form der Datensammlung in der Praxis kaum statt, eine Protokollierung von Klickpfaden ist beispielsweise nicht mög- lich.

2.1.2 Zählpixel

Beim Zählpixel handelt es sich um ein transparentes Bild mit den Abmessungen 1x1 Pixel, das sich irgendwo auf der Webseite befindet und beim Webseitenaufruf für den Besucher unauffällig automatisch mitgeladen wird. Über entsprechenden HTML-Code kann der Aufruf des Zählpixels erzwungen werden, sodass auch die Seitenaufrufe registriert werden, die über den Cache des Clients stattfinden.

Durch den Einsatz von Javascript lassen sich neben den Informationen, die im Logfile gespeichert werden auch Informationen zur technischen Ausstattung des Clients sammeln, z.B. verwendeter Browser, Bildschirmauflösung, Java-, Flash-Version. Hier wird mit Aufruf des Zählpixels ein Skript ausgeführt, das die entsprechenden Daten ausliest und zum Server übermittelt.

Eine praktische Anwendung findet die Datensammlung mit Zählpixeln vor allem im Affiliate- und eMail-Marketing, da dort die Möglichkeit Logfiles auszulesen nicht unmittelbar besteht. In der klassischen Webanalyse spielt das Zählpixel heutzutage nur noch in Kombination, z.B. mit Cookies eine Rolle, da wie bei den Logfiles keine Rückschlüsse über vorher besuchte Seiten möglich sind.

2.1.3 Cookie

Cookies sind die am weitesten verbreitete Technik um Daten zur Webanalyse zu erhe- ben1. Ein Cookie ist eine Textdatei, die z.B. beim Aufruf einer Webseite auf dem Client-Rechner gespeichert wird. Man unterscheidet Session-Cookies und permanente Cookies. Im Session-Cookie werden üblicherweise ausschließlich Wiedererkennungsda- ten gespeichert, z.B. eine eindeutige ID, um seitenübergreifend während der kompletten „Session“ auf gespeicherte Daten Zugriff zu behalten. In Webshops findet so beispiels- weise die Zuordnung zwischen Warenkorb und Client-Rechner statt. Session-Cookies werden nach Beendigung der Session automatisch vom Browser gelöscht. Die Identifi- kation des Client-Rechners ist nur während der Session möglich. Permanente Cookies werden für ein vom Webseitenbetreiber festgelegten Zeitraum auf dem Client-Rechner gespeichert. Dadurch ist eine Wiedererkennung des Client-Rechners auch nach mehre- ren Tagen, Wochen oder Monaten möglich. Vorteil für den User ist der sitzungsübergreifende Login. Allerdings besteht die Gefahr, dass bei der Rechnernut- zung durch mehrere Personen Nutzerdaten für andere einsehbar bleiben. Der Webseitenbetreiber hat den Vorteil, dass der Client-Rechner schon beim ersten Seiten- aufruf erkannt wird und die Webseite entsprechend gestaltet werden kann, z.B. mit Werbung, die den bisher festgestellten User-Interessen entsprechen. Außerdem lassen

Data Analysis: Scientific Modeling and Practical Application, vgl. Sokal (2008), S. 430ff.

permanente Cookies Rückschlüsse auf die Besuchshäufigkeit und den Zeitraum zu, der vergeht, bis eine Transaktion stattgefunden hat.

2.1.4 Weitere Methoden

Neben den oben beschriebenen gängigen Methoden existieren noch weitere, die in der Praxis allerdings keine große Rolle spielen2.

Z.B. lässt sich der Klickpfad auch über die URL mitgeben. Dazu hängt jede besuchte Seite einen weiteren Wert an die URL der Folgeseite dynamisch an. Die wahrscheinlich effektivste, aber auch umstrittenste Möglichkeit der Datenerhebung ist die Zwangsregistrierung auf einer Webseite. Hier können Klickverlauf, Verweilzei- ten und technische Daten einer konkreten Person zugeordnet werden. Obwohl diese Technik nach § 4 (1) BDSG unzulässig ist („Die Erhebung, Verarbeitung und Nutzung personenbezogener Daten sind nur zulässig, soweit … der Betroffene eingewilligt hat.“), wird sie eingesetzt.

2.2 Werkzeuge

Google Analytics ist das am häufigsten eingesetzte Web-Analyse-Werkzeug3. Der Grund dafür ist zum einem der freien Verfügbarkeit und kostenlosen Verwendung und zum anderen der einfachen Implementierung und intuitiven Bedienung geschuldet. Außerdem bietet Google Analytics hochinnovative Features, die ihresgleichen suchen, z.B. die Funktion „Radar“, die automatisierte Benachrichtigungen versendet, sobald etwas Außergewöhnliches vorfällt.

Auch wenn für Einbau und Verwendung kaum Kosten anfallen, ist der Preis für den Einsatz von Google Analytics nicht zu vernachlässigen: Zum einen gewährt der Websei- tenbetreiber Google kompletten Einblick in seine Daten, was bei kommerziellen Seiten Einsicht in wesentliche Teile der Buchhaltung bedeutet (neben Kundendaten werden z.B. Umsatzzahlen und Marketingdaten gespeichert), zum anderen geht der Webseiten- betreiber - zumindest in Deutschland - rechtlich ein großes Risiko ein; bislang ist nicht eindeutig geklärt, ob es sich bei der gespeicherten IP-Adresse um ein personenbezoge- nes Datum handelt. Alle erhobenen Daten werden automatisch und ohne Einwilligung des Besuchers in die USA zu Google übertragen und auf deren Servern gespeichert, was Data Analysis: Scientific Modeling and Practical Application, vgl. Sokal (2008), S. 430ff. Xamit Studie Webstatistiken im Test, vgl. Petersdorf / Lepperhoff (2010), S. 10 einen mehrfachen Verstoß gegen das Bundesdatenschutzgesetz darstellt4, setzt man voraus, dass die IP-Adresse personenbezogen ist.

Zwei Funktionen von Google Analytics stellen Besonderheiten dar, die in dieser Form von keinem anderen Anbieter zu Verfügung gestellt werden können. Zum einen ist Google adwords - das SEM-Werkzeug zur Erstellung und Verwaltung von Textanzei- gen im Internet - komplett in Google Analytics integriert, was ein einfaches Controlling der SEM-Maßnahmen ermöglicht, zum anderen kann Google durch die hohe Verbrei- tung seiner Software branchenübergreifend Vergleichs-Werte zur Verfügung stellen, sodass ein direkter Vergleich der eigenen Webseite mit dem weltweiten Branchendurch- schnitt möglich ist.

Während die beiden letztgenannten Funktionen in dieser Ausprägung Google vorbehalten sind, bieten andere Anbieter, die Software verkaufen oder vermieten, den Vorteil die Daten nach aktueller Rechtsprechung rechtskonform zu erheben und zu speichern. Desweiteren sind diese Softwares deutlich flexibler, sodass die Software genau die Daten zur Verfügung stellt, die das Unternehmen benötigt.

Beispielsweise bietet die Software Omniture SiteCatalyst von Adobe die Möglichkeit zielgruppengenaue Auswertungen zu erstellen, was weitere Erkenntnisse mit sich bringt und sehr spezifische Marketingaktivitäten ermöglicht.

Alle modernen Werkzeuge zur Webseitenanalyse verwenden Cookies als Trackingme- thode.

2.3 Welche Daten werden erhoben?

2.3.1 Benutzerdaten

Jeder Anbieter greift auf dieselben Quellen zu. Die wichtigsten Metriken unterscheiden sich softwareübergreifend nicht.

Anhand von Cookies und IP-Adressen lassen sich Besucherdaten sammeln. Jede IP- Adresse verrät den ungefähren Standort des verwendeten Computers, sodass Land, Region und Stadt problemlos dargestellt werden können. Anhand der Tatsache, ob der Nutzer bereits einen Cookie besitzt, lässt sich erkennen, ob es sich um einen neuen oder wiederkehrenden Nutzer handelt. Liegt ein Cookie vor, lässt sich der Zeitraum errech- nen, der seit dem letzten Besuch vergangen ist. Mit diesen Daten lassen sich bereits weitreichende Aussagen treffen und Trends erkennen.

[...]

Details

Seiten
18
Jahr
2010
ISBN (eBook)
9783656194583
Dateigröße
717 KB
Sprache
Deutsch
Katalognummer
v194381
Institution / Hochschule
FOM Essen, Hochschule für Oekonomie & Management gemeinnützige GmbH, Hochschulleitung Essen früher Fachhochschule
Note
1,3
Schlagworte
spuren webseitenbesuchern sammlung analyse verwendung daten internet

Autor

Zurück

Titel: Auf den Spuren von Webseitenbesuchern