Nutzungsanalyse des Netzgestützten Lernprogramms - Integration in der Ingenieur-Analysis. Interpretationen und Auswertungen der aufgezeichneten Logfiles des Wintersemesters 2000/2001


Diplomarbeit, 2002

89 Seiten, Note: 1


Leseprobe


Inhaltsverzeichnis:

Vorwort

1 Themenstellung
1.1 Gegenstand der Untersuchung
1.2 Zielsetzung
1.3 Gliederung

2 Forschungsfeld

3 Forschungsstand

4 Forschungsmethodischer Ansatz

5 Technische Umsetzung der Logfile-Auswertung
5.1 Die Logdatei
5.1.1 Was ist eine Logdatei?
5.1.2 Übliche Server und Formate von Logdateien
5.1.3 Fehler in Logdateien
5.1.4 Aufbau einer Logdatei
5.2 Wichtige Begriffe der Auswertung
5.2.1 Besucher
5.2.2 Visits
5.2.3 PageViews
5.3 Das Analysetool „WebSuxess“
5.4 Schwierigkeiten bei der serverseitigen Auswertung
5.4.1 Frames
5.4.2 Zugriffszeiten
5.4.3 Proxy-Server und Cache-Speicher
5.4.4 Reichweite der Erfassung
5.4.5 Unpräzise Aussagen
5.4.6 Erhebungsmethode

6 Die Auswertung
6.1 Ziele der Auswertung
6.1.1 Optimierung des Lernprogramms
6.1.2 Aufschlüsse über die Funktionalität anhand des Nutzungsverhalten der User
6.1.3 Feststellung der beliebtesten Seiten
6.2 Untersuchungsvariablen
6.2.1 Abgegrenzter Zeitraum
6.2.2 Geladene Objekte (Hits)
6.2.3 Seitenaufrufe
6.2.4 Kenngrößen der Besuche
6.2.5 Besucher
6.2.6 Tageswerte
6.3 Zeitenanalyse
6.3.1 Stundenanalyse
6.3.2 Wochentagsanalyse
6.3.3 Untersuchung der Einzeltage
6.3.4 Wochenanalyse
6.3.5 Monatsanalyse
6.4 Seiten- und Navigationsanalyse
6.4.1 Einführungsbereich
6.4.2 Theoriebereich
6.4.3 Anwendungsbereich
6.4.4 Übungsbereich
6.4.5 Geschichtsbereich
6.5 Besucheranalyse
6.6 Navigationsanalyse
6.7 Browseranalyse
6.8 Kampagnenanalyse
6.9 Vor- und Nachteile der Logfileanalyse
6.9.1 Vorteile
6.9.2 Nachteile

7 Zusammenfassung und Interpretation 79

8 Anhang
8.1 Datenbeispiele
8.2 Datenträger / CD-Rom

9 Literaturverzeichnis

Vorwort

Zunächst möchte ich darauf hinweisen, dass es für diesen Bereich im Internet noch kaum Vergleichbares gibt. Noch schlechter ist es mit entsprechender Literatur bestellt, die sich mit der Auswertung von Logfiles für Online-Lernprogramme beschäftigt.

Viele aufklärende Gespräche und Hilfestellungen in technischer Hinsicht und Realisierbarkeit fanden daher vor allem mit einer Person statt, die ich hier kurz erwähnen möchte. Christian Clos ist Projektleiter der Heidelberger Druckmaschinen-Werke und in dem Bereich EDV bereits seit 16 Jahren selbständig. Ich beschäftige mich mit Computer seit der „Zeit des C64 von Commodore“ und betreibe selbst einen gut funktionierenden Internetshop . Das Wissen ist also zum großen Teil von verschiedenen menschlichen Quellen zusammengetragen worden und nur zu einem geringen Teil aus fachspezifischer Literatur, da es wie gesagt nur sehr wenig davon gibt.

Der „Hauptansprechpartner“ für die technische Umsetzung bzw. für die Gültigkeit und Richtigkeit der zu bewertenden Daten war Herr Dominik Eberlein, der als wissenschaftlicher Mitarbeiter am Lehrstuhl für Mathematik der Technischen Universität München tätig ist. Er lieferte die Informationen, die zur Datenauswertung zu beachten waren (serverseitige Aufzeichnungsprotokolle, Abweichungen, etc.), da er maßgeblich an der Programmentwicklung bzw. dessen Programmierung beteiligt war und ist. Mit Frau Michaela Ramm wurde die Feinzielabstimmung der Arbeit vorgenommen, d.h. die Grobziele wurden aufgegriffen und daraufhin überprüft, ob diese technisch zu realisieren sind und dann ggf. geändert bzw. angepasst werden mussten.

Am Beginn einer solchen Arbeit habe ich Erwartungen bzw. Vorstellungen, welche Ergebnisse sich herausstellen könnten. Diese berufen sich oftmals auf eigene Erfahrungen und Unterhaltungen mit anderen Personen.

Aus der folgenden Arbeit erhoffe ich Aufschluss darüber zu finden, wie ein Online-Lernprogramm bei Studierenden „ankommt“ und welche Zugriffe zum einen von eigenen Studenten und zum anderen von externen Personen verzeichnet werden können.

Bei extern Zugreifenden ist immer die Frage zu stellen, wie sie auf das Programm gestoßen sind. Hierbei dürften die Einträge und Anmeldungen bei verschiedenen Suchmaschinen mit speziellen Suchbegriffen entscheidend sein.

Weiterhin ist interessant, zu welchen Zeiten im Allgemeinen auf das Programm zugegriffen wurde und ob sich die Vermutung bestätigen lässt, dass sich die Abrufs-/ Besuchszahlen erhöhen, wenn in den Vorlesungen der Studenten (die wahrscheinlich die Hauptnutzergruppe des Programms darstellen) die gleiche Thematik bearbeitet wird.

Bezüglich der Auswertungssoftware (hier: WebSuxess der Firma Exody) soll herausgestellt werden, ob durch deren Funktionalität aufschlussreiche Zusammenhänge zwischen Abruftendenzen, Programmstrukturierung, Nutzergruppe, etc. hergestellt werden können.

Da das Online-Lernprogramm in zwei Versionen geteilt wird (Demo- und Vollversion), ist zu beobachten, welche der beiden häufiger frequentiert ist und warum dies gegebenenfalls der Fall sein könnte.

Für die gesamte Analyse ist zudem nicht unerheblich, wie oft auf das Lernprogramm insgesamt zugegriffen wurde, da nur durch eine hohe Besucherzahl eine generelle Tendenz, die es gilt herauszustellen und allgemeingültige Aussagekraft erzielt werden kann.

Im Detail möchte ich herausarbeiten, wie die einzelnen Arbeitsbereiche (Theorie, Anwendung, etc.) bei den Nutzern Anklang finden.

Auf diese Art und Weise müsste es möglich sein festzuhalten, ob sich Analysen aufgrund von Logfiles generell als sinnvoll erweisen.

1 Themenstellung

1.1 Gegenstand der Untersuchung

In folgender Arbeit geht es grundsätzlich um das Online-Lernprogramm „Integration in der Ingenieur-Analysis“, das vom Mathematiklehrstuhl der Technischen Universität München im Internet angeboten wird.

Im Verlauf dieser Arbeit soll die Frequentierung der einzelnen Programmteile näher untersucht werden.

Im Zeitalter der technischen Innovationen nehmen die Informations- und Kommunikationssysteme in unserer Gesellschaft einen zentralen Stellenwert ein. Sie zielen auf eine zunehmende Flexibilität und Anpassungsfähigkeit verschiedener Organisationssysteme. In Zuge dieser Entwicklung und der immer größer werdenden Informationsflut bzw. des Informationsreservoirs stellt sich die Frage, wie diese Informationsmengen verarbeitet und aufgenommen werden können. Dies betrifft auch das universitäre Umfeld mit seinen Lerninhalten. Es wird versucht, ständig neue und bessere Wege zu finden, Wissen zu vermitteln.

Mit dem Projekt des Online-Lernprogramms wird versucht, verschiedene, bereits bekannte Komponenten der Wissensvermittlung sowie Lernstrategien, wie beispielsweise das Ansprechen verschiedener Lernbereiche (visuell, auditiv, motorisch), mit neuen Kommunikationstechniken (Internet, virtuell–interaktiv) zu verknüpfen. In diesem Fall wird besonderer Wert auf die virtuell-visuelle Aufarbeitung der Daten und zugleich ortsvariablen Informationsdarbietung gelegt.

Diese Kombination zeichnet u.a. das vorliegende, entwickelte Programm aus.

Dieses Programm wird an der Technischen Universität München (TUM) seit 1998 zur Unterstützung der viersemestrigen Vorlesungsreihe „Höhere Mathematik“ als ein studienbegleitendes Lernprogramm für Ingenieure, Naturwissenschaftler und Informatiker verwendet. Die Strukturierung des Lernprogramms stützt sich dabei stark auf das zweibändige Lehrbuch „Höhere Mathematik“, welches von den Vorlesungs-Dozenten, Kurt Meyberg und Peter Vachenauer, verfasst wurde.[1]

Von der erstmals 1998 eingesetzten Pilotversion bis hin zum endgültigen Programm, wie es unter http://www-hm.ma.tum.de [2] einzusehen ist, wurde es in Zusammenarbeit von Medienzentrum der Technischen Universität München und dem Mathematischen Institut entwickelt.

Es liegen jedoch noch keine wissenschaftliche Ergebnisse darüber vor, die sich speziell mit dieser Art der Wissensdarbietung auseinandersetzen und dadurch belegen könnten, dass ein Fortschritt der Lernstoffbewältigung erzielt werden könnte. Lernstoffbewältigung steht jedoch nicht allein im Vordergrund, sondern wird hier vielmehr als Überbegriff verschiedener Faktoren dieser Herausforderung gesehen. Die Frage müsste also lauten: „Wie können effektiv Lerninhalte vermittelt werden?“

Durch das hier entstandene Programm wurde für die Benutzergruppe eine Möglichkeit des Lernens geschaffen, die verschiedene Wege zur Erreichung der Lernziele integriert.

Motivation wird beispielsweise u.a. dadurch erreicht, dass eine Verbindung Lernstoff-Kommunikationsform (Internet) stattfindet. Des weiteren wird durch Animationen mathematischer Zusammenhänge der visuelle Lernkanal besonders angesprochen, wozu Bücher nicht in der Lage sind. Lediglich Filme könnten diesen Effekt erreichen, wobei diese wesentlich unflexibler und zudem nicht interaktiv sind.

Gerade durch die Interaktivität wird erreicht, dass der Lernende aktiv am Lernprozess beteiligt ist und aufgefordert wird, sich mit der Materie auseinander zusetzen.

Allein dadurch, dass sich die heranwachsenden Generationen, vor allem diejenigen, die sich den naturwissenschaftlichen Bereichen widmen, verstärkt mit Informations- und Kommunikationssystemen beschäftigen, und sogar in ihren Alltag fest integriert haben, kann davon ausgegangen werden, dass eine Lernstoffvermittlung mittels dieser neuen Systeme auf hohe Resonanz / Motivation stößt. Der Lernstoff wird somit direkt in ein bereits verinnerlichtes Kommunikationssystem integriert und somit die Schwelle der Neuartigkeit herabgesetzt. Natürlich gilt es, diese Thesen zu belegen. Dies soll u.a. durch verschiedene Analysen, die im Zusammenhang mit speziell diesem Programm, angestellt werden.

Somit wird geprüft, ob es überhaupt Sinn macht, solche Entwicklungen weiter zu verfolgen bzw. voranzutreiben indem die Resonanz und die Beurteilung der Studenten zu dem benutzten Programm ausgewertet werden. Zudem kann mittels einer Logfileanalyse das „Bewegungsverhalten“ des Nutzers im Programm beobachtet werden und auf wichtige Details der Programmnutzung geschlossen werden.

Nur wenn festgestellt ist, dass ein generelles Interesse in der Zielgruppe vorhanden ist, sollte man sich mit dieser Art der Lernstoffvermittlung und den Einzelheiten der technischen Umsetzung intensiver auseinandersetzen.

Bei der Struktur der Arbeit lehnte ich mich sehr stark an den Aufbau des Analysewerkzeugs von Exody „WebSuxess“. Dieses Programm wurde aufgrund des Ratschlags von Michael Adler ausgewählt. Es wird häufig von größeren Firmen eingesetzt um Ihre Webseiten hinsichtlich von Werbestrategien zu untersuchen.

Als Hauptvorteil und Entwicklungsanlass der vorlesungsbegleitenden, multimedialen Umsetzung wird in erster Linie die wirkungsvolle Integration vieler anschaulicher Bilder und Animationen angesehen, wie sie in einem herkömmlichen Lehrbuch nicht möglich sind. Der Benutzer kann sich außerdem im Gegensatz zur Vorlesung zeit- und ortsunabhängig selbständig Lerninhalte aneignen und vertiefen.

Das vollständige Programm wurde in den ersten vier Wochen des WS 2000/2001 in die Vorlesungen und Übungen der höheren Mathematik für Maschinenwesen bzw. Chemie-Ingenieurwesen zielgerichtet eingebunden, so dass die Studenten aktiv auf dieses Angebot hingewiesen wurden. Die Zielgruppe des Online-Lernprogramms beschränkt sich allerdings nicht allein auf die in diesen Vorlesungen unterrichteten Studenten, sondern kommt allen Studierenden naturwissenschaftlicher Fächer vor allem im ersten Semester zugute.

1.2 Zielsetzung

Das globale Ziel der Arbeit ist die Verbesserung der internetbasierten Lernsoftware. Sie gliedert sich in zwei Teile:

Teil A: Sylvia Binner: Auswertung und Analyse der Einschätzungen von Studierenden mittels Fragebogen
Teil B: Jörg Brummer: Auswertung und Interpretation des netzgestützten Lernprogramms mittels Logfiles

Absicht dieser zweiteiligen Arbeit ist eine Nutzungsanalyse dieses Online-Lernprogramms, um aus den Ergebnissen Schlussfolgerungen für mögliche Verbesserungen, Weiter- oder Neuentwicklungen der Lernmöglichkeiten mit Hilfe von Informations- und Kommunikationssysteme zu erlangen.

Hierfür werden, neben einer schriftlichen Befragung der Benutzergruppe, welche von meiner Studienkollegin Sylvia Binner zu diesem Thema zeitgleich durchgeführt wurde, die zugrundeliegenden Logdateien der Monate September, Oktober, November, Dezember 2000 und Januar 2001 herangezogen.

Es soll festgestellt werden, wie das Programm innerhalb eines Zeitabschnitts benutzt wird.

Die protokollierten Daten zeigen nicht nur die Zugriffszeiten, sie liefern vielmehr Bewegungs- bzw. Abrufmuster der Website. Diese wiederum können Aufschlüsse über die Funktionalität und die Häufigkeit der Seitenabrufe geben. Die aus den aufgezeichneten Daten gewonnenen Erkenntnisse sollen helfen, das Programm zu optimieren (Gestaltung, Benutzerführung, Erreichbarkeit, etc.).

Aus dem Hintergrund heraus, dass nur eine gewissenhafte und detaillierte Auseinandersetzung mit neuen Techniken zu brauchbaren Ergebnissen führen kann, muss dies im Rahmen verschiedener Arbeiten geschehen. Diese Arbeit stellt einen Teilbereich dieser Auseinandersetzung dar.

1.3 Gliederung

Nach der Klärung, in welchem Umfeld die Arbeit stattfinden soll, werden in den darauffolgenden Punkten Fragen aufgeführt, die die Bearbeitung des Themas begründen bzw. erklären sollen. Danach wird kurz aufgezeigt, inwieweit sich andere Arbeiten mit dieser Thematik bereits auseinandergesetzt haben und gegebenenfalls deren Ergebnisse dargestellt.

Anschließend wird der forschungsmethodische Ansatz erläutert, d.h. mit welcher Methode, wie und warum aus der empirischen Sozialforschung gearbeitet wird.

Den Kern der Arbeit bildet die Klärung der technischen Bereiche zum grundsätzlichen Verständnis der Logdatei und die Auswertung und Interpretation der einzelnen Analysen selbst.

Abschließend werden die gewonnenen Erkenntnisse in Kurzform zusammengetragen und hinsichtlich der Ausgangsfragestellungen interpretiert.

Auswertungsziele sind dann detailliert in Kapitel 6.1 Ziele der Auswertung zusammengefasst.

2 Forschungsfeld

Die hier abgefasste Arbeit wurde vom „Medienzentrum der Technischen Universität München“[3] beauftragt. Den Grund hierfür liefert das hier zu untersuchende Lernprogramm „Integration in der Ingenieur-Analysis“, das vom Medienzentrum zusammen mit dem Lehrstuhl für Mathematik der Technischen Universität München entwickelt wurde. Mit Hilfe dieser Arbeit soll eine Klärung versucht werden, inwieweit ein solches Hilfsmittel in der bestehenden Art und Weise (Art: Online-Lernprogramm, Weise: Struktur und Aufbau) bei den Studenten Anklang findet bzw. wie analog dazu das entsprechende Besucherverhalten aussieht.

Neben einigen Vorbesprechungen, in denen die Richtung der Arbeit auf das entsprechende Ziel hin im groben Rahmen festgelegt wurde, wurden während der Erarbeitungsphase die Grobziele in kleinen Schritten zu Feinzielen formuliert. Hier entstanden auch immer wieder kleinere konstruktive Veränderungen der anfänglichen Zielsetzungen, die sich in der technischen Umsetzung nicht realisieren ließen.

Die Untersuchungen dieser Arbeit findet ausschließlich mit den Daten statt, die von den Logfiles gespeichert wurden. Es ist jedoch schon im Vorfeld zu sagen, dass das Programm, nicht vermarktet wurde. Dies bedeutet, dass man nicht versuchte, es möglichst weiträumig zu verbreiten, also gute Positionierungen in Rankinglisten oder leichte bzw. gute Auffindbarkeit in Suchmaschinen zu erreichen, da eine kommerzielle Nutzung eher eine untergeordnete Rolle spielt. Vielmehr wird hier auf Benutzer an der „eigenen“ Universität gebaut (eigene Studenten) und somit durch einen kleingesteckten Kreis an Usern eine erwünschte Vorselektierung (=Zielgruppe) erreicht. Durch den Einsatz des Programms während der Vorlesung wurden die Hauptnutzer zudem mit der Software vertraut gemacht. Dies ergibt durch die parallele Nutzung der Software die Grundlage für die auszuwertenden Logfile-Dateien.

Hier handelt es sich um eine „Rechnerarbeit“, da durch den Rechner die Daten aufgezeichnet, gespeichert, ausgetauscht/verschickt und ausgewertet wurden. Dies bedeutet, dass die Bearbeitungskette der auszuwertenden Daten in den verschiedenen Stufen stets an einem Rechner, wenn auch an verschiedenen, geschehen ist.

Durch diese Arbeit war es erst möglich, die angesammelten Daten in Zusammenhang zu bringen und zu interpretieren.

Durch die Neuartigkeit dieser Interpretation und dem hohen Innovationspotential der Thematik „Online-Lernprogramme“ habe ich mich mit den Recherchen sehr viel im Internet bewegt, um Vergleichbares bezüglich der Kombination „Online-Lernprogramm“ und dessen Auswertung zu finden.

Bei der Recherche wurde überwiegend mit der Suchmaschine von „Google“[4] gearbeitet, da sich diese als besonders komfortabel und effizient bezüglich der eingegebenen Suchbegriffe erwiesen hat.

Meine Nachforschungen haben ergeben, dass Analysen für Online-Lernprogramme auf der Basis von Logfiles bis dato weder in der Literatur noch im Internet durchgeführt wurden.

Solche Logfile-Auswertungen werden in erster Linie im wirtschaftlichen Bereich herangezogen, um beispielsweise das Kaufverhalten von Kunden in Online-Shops zu erforschen bzw. die Positionierung einzelner Artikel zu bewerten, um den Shop zu optimieren.[5]

3 Forschungsstand

Im Folgenden wird ein Überblick über den derzeitigen Forschungsstand gegeben und kurz darüber berichtet, zu welchen Ergebnissen bereits ähnliche Untersuchungen gekommen sind.

Zu solchen detaillierten Nutzungsprofilen gibt es bislang noch keine Untersuchungen in Bezug auf Lernprogramme. Der Grund dafür dürfte wohl eher in der Neuigkeit der Programme, als in deren Unattraktivität liegen. Zudem stehen häufig in diesem Bereich nicht ausreichend finanzielle Mittel und personelle Kapazitäten zur Verfügung.

Durch den hohen Spezifitätsgrad ( Kombination von Design, pädagogischem Hintergrundwissen der Lernstoffvermittlung, Programmierfähigkeiten, inhaltlichen mathematischen Kenntnissen) wird zudem nur das Interesse einer kleinen Gruppe geweckt, so dass das Interesse an der Entwicklung solcher Programme nur auf wenige Personengruppen verteilt ist.

Hierbei habe ich feststellen müssen, dass in dieser Zusammensetzung keine Ergebnisse auffindbar und vorhanden waren, schon bei der Suche nach Online-Lernprogrammen gibt es keine Aufbereitungen in ähnlichem Umfang, Thematik und Interaktivität. Es handelt sich entweder um Programme, die zum Download zur Verfügung stehen, also Offline-Lernprogramme, oder es fehlt an Interaktivität bzw. war diese sehr eingeschränkt. Des Weiteren waren die meisten Programme für Schulen ausgelegt.

Um einige Beispiele zu nennen:

Es gibt u.a. Programme zur Einübung der Rechtschreibung[6] zum Downloaden, Programme zum Erlernen von Sprachen[7] (z.B. einen Französisch-Trainer[8], der online-interaktiv funktioniert), Programme im medizinischen Bereich[9] (jedoch rein statisch also nicht interaktiv), bei denen man sich in speziellen Themengebieten Wissen anlesen kann.

Mathematische Zusammenhänge betreffend stehen interaktive Programme überwiegend dem schulischen Lernbereich zur Verfügung, z.B. das Erlernen von Binomischen Formeln[10] aber auch eine Auswahl an verschiedenen Programmen[11], die eine interaktive Abfrage ermöglichen.

Eine bereits verfasste Diplomarbeit „Evaluation eines netzgestützten Lernprogramms – Erhebung, Auswertung und Analyse der Einschätzung von Studierenden“[12] von Sigrid Weber bezüglich der Pilotversion des zu untersuchenden Programms, liegt bereits vor. Hierzu wurden 22 Studenten eingeladen, die Wünsche, Anregungen und Kritiken an das Multimedia-Programm richteten.

Auf Grund dieser Erhebungen wurde festgestellt, dass die graphischen (auch Animationen) Elemente durchwegs als positiv empfunden wurden und dies mit der übersichtlichen Menüführung häufig den Grund für die Verwendung des Online-Moduls darstellte.

Einen weiteren positiven Aspekt für den Gebrauch des Lernprogramms stellte seine Zeit- und Ortsunabhängigkeit dar. Als negativ dagegen wurde bei der Pilotversion die Online-Hilfe und die schlechte Bedienerfreundlichkeit der Übungen kritisiert. Daraufhin fand eine Überarbeitung statt. (vgl. WEBER 1998, Seite 67)

Diese empirischen Untersuchungen entstanden in einem festen Umfeld, d.h. die Studenten wurden eingeladen, um das Programm eine bestimmte Zeit zu testen. Danach mussten sie einen Fragebogen über einzelne Programmbereiche beantworten. Dieses feste Umfeld war im Rahmen meiner Arbeit nicht gegeben.

Des Weiteren verweise ich auch auf Kapitel 2 dieser Arbeit.

4 Forschungsmethodischer Ansatz

Im Rahmen der computergestützten Datenerhebung soll nun auf die Charakteristik der Methodologie im Zusammenhang mit der Datenerhebung im Internet eingegangen werden. Das neue Medium hat sowohl die Unterscheidung in qualitative und quantitative, als auch die Differenzierung in reaktive und nichtreaktive Methoden übernommen.

In unserem Fall handelt es sich um eine rein automatisierte Beobachtung und grundsätzlich nonreaktive Datenerhebungsmethode.

Die automatisierte Beobachtung nutzt die Tatsache, dass im Netz sämtliche Interaktionsprozesse in einer digitalen Form erfolgen und somit automatisch und vollständig aufgezeichnet werden können. Diese Möglichkeit ist erst aufgrund der technischen Funktionsweise des Internets ermöglicht worden. (vgl. http://www.clientsensor.de/almanach/ almanach.php3?suchbegriff=Logfile-Analyse)

Im Rahmen ihrer Anwendungsmöglichkeiten zur Datenerhebung im Internet stellt die automatische Aufzeichnung eine auffallend unaufwendige und komfortable Datenerhebungsmethode dar.

Über das Wegfallen von Aufmerksamkeitsschwankungen und Selektionseffekten, wie sie bei menschlichen Beobachtungen anfallen hinaus, können vor allem die bei technischen Aufzeichnungen typischen Problembereiche beim automatisierten Aufzeichnen vernachlässigt werden. Auch lassen sich die mitgeloggten digitalen Beobachtungsprotokolle unmittelbar einer weiteren Bearbeitung durch beispielsweise Analyseprogramme zuführen.

Das Verhalten von Personen ist also nicht nur in bewusst produzierten kommunikativen Botschaften beobachtbar, sondern auch im Aufruf der verschiedenen Systemfunktionen, die in sogenannten Logfiles protokolliert werden. Diese Logdateien enthalten dabei bestimmte Kennwerte, mit denen der Zugriff auf die entsprechenden Webseiten innerhalb des Online-Lernprogramms beschrieben werden kann. Dabei lassen sich diese Logdaten an drei unterschiedlichen Orten auf nicht-reaktive Weise erheben. Zum einen auf der Seite des Clients, zum anderen auf der Seite des Servers und schließlich auf dem Bindeglied dieser beiden „Kommunikationspartner“, dem Proxy-Server.

Unter diesen genannten Aufzeichnungsmöglichkeiten, stehen in unserem Fall nur die serverseitigen Daten für die Auswertung zur Verfügung.

Serverseitige Protokolldateien beobachten das Verhalten aller Personen, die auf den jeweiligen Server (Mathematik-Lernprogramm) zugreifen. Auf diese Weise lassen sich die spezifischen Verhaltensstrukturen im World Wide Web untersuchen, jedoch nicht die einzelner Nutzer.

Die Zwischenschaltung von sogenannten Proxy-Cache-Server (die genauere Funktionsweise wird in Kapitel 5.4.3 näher beschrieben) weist durch die Art der automatischen Beobachtung einen gravierenden Nachteil auf. Gerade vielbesuchte Seiten werden zwischengespeichert und bleiben somit von der serverseitigen Logdatei-Aufzeichnung ausgeschlossen. Dies führt zu einer Unterrepräsentation gerade jener Seiten, die häufiger genutzt werden. (vgl. Janetzko 1999: S.157ff; Weichbold 2000; Bosnjak 1997: S.32).

5 Technische Umsetzung der Logfile-Auswertung

5.1 Die Logdatei

5.1.1 Was ist eine Logdatei?

Jeder Zugriff (Hit) auf den Web-Server wird in einer Datei (Logdatei) chronologisch protokolliert. Man kann daraus Zeit, Datum und zugegriffene Datei ersehen, ebenso wie den Host-Namen bzw. die IP-Adresse des Computers, von dem aus auf die Web-Site zugegriffen wurde, sowie einige weitere Informationen. Diese Logdateien sind die Grundlage für Analyse-Tools (hier: WebSuxess) bzw. für Datenbanken, um das Besucherverhalten auf der Web-Site zu analysieren, da hier viele Detailinformationen abgespeichert werden. Um nur einige zu nennen:

- Wann erfolgte der Zugriff (Datum und Uhrzeit)?
- Welche exakte Seite innerhalb der Webpräsenz (URL) wurde abgerufen?
- Von welchem Link, bzw. welcher Suchmaschine (URL) erfolgte das Ansteuern der Web-Site?
- Welcher Browser wurde benutzt?

Unabhängig davon, ob ein eigener Web-Server betrieben wird oder Festplattenspeicher auf einem Server des Providers (virtueller Server, Web-Hosting) angemietet wird, sollte der Provider auf jeden Fall die Logdateien zur Verfügung stellen, um Untersuchungen vornehmen zu können. Diese Logdateien müssen auf dem PC gespeichert werden, auf dem WebSuxess eingesetzt wird. Weitere Informationen über unterschiedliche Formate der Logdateien finden Sie im folgenden Abschnitt.

5.1.2 Übliche Server und Formate von Logdateien

WebSuxess unterstützt u.a. Logdatei-Formate Webservern. „Leider protokollieren Web-Server nicht alle im gleichen Format. Im Laufe der Zeit sind so eine ganze Reihe von Formaten für Logdateien entstanden. Die folgende Übersicht zeigt die von WebSuxess unterstützten Logdatei-Formate:“[13]

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 5.1-1: Verschiedene Formate von Logdateien und die dazugehörigen typischen Webserver (Quelle: Exody, WebSuxess: Anwendungshilfe <Logdatei-Formate>)

Alle Besucherzugriffe auf der zu untersuchenden Webseite werden von dem Web-Server in sogenannten Logdateien protokolliert. Bei der mir vorliegenden Aufzeichnung handelt es sich um das Combined Logfile Format, dies kann z.B. so aussehen:

cip3-12.cip.bauwesen.tu-muenchen.de - - [11/Jan/2001:08:37:50 +0000] "GET /pics/blue_arrow.gif HTTP/1.1" 200 54 "http://www-hm.ma.tum.de/" "Mozilla/4.0 (compatible; MSIE 5.5; Windows 98)"[14]

Speichert der Web-Server die Logdateien nach dem Common Log File Format, werden in der Datei Access.log (o.ä.) nur die Zugangsinformationen mitgeschrieben. Die entsprechende Zeile sähe dann so aus:

cip3-12.cip.bauwesen.tu-muenchen.de - - [11/Jan/2001:08:37:50 +0000] "GET /pics/blue_arrow.gif HTTP/1.1" 200 54

Die im Unterschied zum Combined Logfile Format hier nicht mitgeschriebenen Daten finden Sie in der Datei Referrer.log[15] ("http://www-hm.ma.tum.de/" ) bzw. in der Datei Agent.log[16] ("Mozilla/4.0 (compatible; MSIE 5.5; Windows 98)").

5.1.3 Fehler in Logdateien

Das Analysetool kann aus verschiedenen Gründen Fehler in den Logdateien melden.
Ein häufig verbreiteter Fehler betrifft das Zeitfeld. Damit WebSuxess die Visits richtig erkennen kann, wird erwartet, dass die Zugriffe auf den Server in exakter zeitlicher Reihenfolge in der Logdatei protokolliert werden. Manchmal wird allerdings die Uhr des Servers umgestellt, etwa wenn sie vor- oder nachgeht. Die Uhr kann auch bei der Umstellung zwischen Sommer- und Winterzeit automatisch umgestellt werden. Diese Fehler (Fehlermeldung: 'absteigende Einträge im Zeitfeld') wurden in dem zu untersuchenden Fall nicht festgestellt. (vgl. Exody, WebSuxess: Anwendungshilfe <Logdatei-Formate>, Version 4 Service Release 2)
Ein weiterer Zeitfehler kann auftreten, wenn die Uhr des Benutzers nicht richtig eingestellt ist (siehe hierzu Kapitel 5.4.2 Zugriffszeiten).

Verschiedentlich kann auch beobachtet werden, dass Web-Server nach 23 Uhr mit 24, 25, ... weiterprotokollieren. Auch in diesem Fall würde WebSuxess eine oder mehrere Zeilen als fehlerhaft melden. In der Gesamtanalyse kann somit ein ungültiges Datum für den letzten Zugriff angezeigt werden. Auch dieser Fehler ist bei den Aufzeichnungen nicht vorgekommen.

5.1.4 Aufbau einer Logdatei

Die Logdatei ist die chronologische Aufreihung der vom Server verzeichneten Zugriffe (Hits). Anhand eines Eintrages soll das Prinzip und die einzelnen Bedeutungen erläutert werden. Man muss sich dabei allerdings vorstellen, dass an einem Tag mehrere tausend solcher Zeilen von der Logdatei verzeichnet werden. Das hier verwendete Combined Logfile Format wurde von einem Apache Server aufgezeichnet.

Anhand eines exemplarischen Eintrags in der Logdatei, sollen die einzelnen Komponenten/Bestandteile in unten stehendem Beispiel erläutert werden.

Beispiel: cip3-12.cip.bauwesen.tu-muenchen.de - - [11/Jan/2001:08:37:50 +0000] "GET /pics/blue_arrow.gif HTTP/1.1" 200 54 "http://www-hm.ma.tum.de/" "Mozilla/4.0 (compatible; MSIE 5.5; Windows 98)"

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 5.1-2: Formatierung eines Logfile-Eintrags

5.2 Wichtige Begriffe der Auswertung

5.2.1 Besucher

Ein ‚ Besucher’ der Web-Site ist jemand, der sich die Web-Seiten ansieht.
WebSuxess verwendet die IP-Adressen oder den Host-Namen des Rechners, von dem aus der Besucher auf die Web-Seiten zugegriffen hat, um die Besucher zu identifizieren. Das hat verschiedene Konsequenzen.
Zum einen werden dadurch nicht wirklich Menschen, sondern nur Rechner identifiziert. Wenn also ein Rechner mit einer statischen IP-Zuweisung von mehreren Besuchern verwendet wird (wie das z.B. in Zipp-Pools an Universitäten der Fall ist), so tauchen sie in der Auswertung nur als ein ‚Besucher’ auf. Wenn andererseits eine Person verschiedene Rechner verwendet, wird sie von WebSuxess entsprechend der Zuordnung ‚Besucher zu IP-Adresse’ oder ‚Host-Namen’ nicht als ein ‚Besucher’, sondern als ‚mehrere Besucher’ in den Auswertungen aufgeführt. Zum anderen weisen Online-Dienste ihren Benutzern meistens keine feste IP-Adresse zu, sondern vergeben die IP-Adressen dynamisch bei der Einwahl in den Online-Dienst. Das hat zur Folge, dass die ‚Besucher’, die über einen Online-Dienst ins Internet gelangen, nicht eindeutig identifiziert werden können. In der Regel wird der Provider, der den Internetdienst zur Verfügung stellt, erkannt.

Eine dynamische Verteilung von IP-Adressen wird auch von einigen Firewalls vorgenommen. ‚Besucher’, die hinter einem Netz mit Firewall arbeiten, können daher ebenfalls nicht eindeutig identifiziert werden.
Trotz dieser Einschränkungen erhält man dennoch einen guten Überblick über die ‚Besucher’ der Web-Site bzw. deren Bewegungsmuster, das sie beim Surfen auf den Seiten hinterlassen. (vgl. Exody, WebSuxess: Anwendungshilfe <Besucher>, Version 4 Service Release 2)

5.2.2 Visits

Wenn Besucher Seiten der Web-Site betrachten, beginnen sie auf einer Seite und lesen eventuell noch einige Weitere, bevor sie zu einer anderen Web-Site wechseln oder den Browser ganz ausschalten. Diese zusammengehörenden PageViews (Seitenabrufe; siehe Abschnitt 5.2.3) eines Benutzers werden als Visit bezeichnet.
Wenn dieselben Besucher am nächsten Tag wieder Seiten auf der gleichen Web-Site lesen (dabei spielt die IP-Adresse keine Rolle), handelt es sich um neue Visits. Ein Besucher kann also mehrere Visits entstehen lassen. Ein Visit kann wiederum aus mehreren PageViews bestehen. Da die Verbindung zwischen Browser und Web-Server bei jedem Zugriff neu aufgebaut wird, befinden sich keine Informationen über Visits in der Logdatei. Das Analyseprogramm verwendet daher ein sogenanntes 'Visit Timeout', welches auf 600 Sekunden, also 10 Minuten voreingestellt ist. Das bedeutet, dass ein Visit als beendet angesehen wird, sobald von dem entsprechenden Besucher 10 Minuten lang kein weiterer PageView erfolgt.

5.2.3 PageViews

PageViews (PVs) werden erzeugt, sobald ein Besucher auf der Website surft und mittels Navigationsleiste oder Links von einer Seite zur anderen springt, um das Angebot anzusehen. Dabei ist es nicht relevant, wie viele Seiten er besucht. Der Wert ‚PageViews pro Visit’ gibt an, wie viele Seiten im Schnitt pro Besuch angesehen wurden. Gebräuchlich ist auch häufig der Begriff Pageimpressions.

5.3 Das Analysetool „WebSuxess“

Bei der Protokollierung der Zugriffe auf eine Website werden sehr viele Daten aufgezeichnet. Um die Wirtschaftlichkeit der Auswertung zu wahren, können die Daten nicht „per Hand“ ausgewertet werden. Auf dem Markt gibt es unterschiedlichste Hilfsprogramme (Tools), die die Daten erfassen und grafisch umsetzen. Diese Programme arbeiten oft mit unterschiedlichen Bezeichnungen, obwohl dasselbe gemeint ist (Bsp.: Pageimpressions = PageViews). Für die Nutzungsanalyse dieser Arbeit wählte ich, wie bereits genannt, das Analyseprogramm WebSuxess der Firma Exody, zugleich habe ich auch deren Syntax übernommen. Die Auswertung dieser Arbeit lehnt sich stark an die Struktur des verwendeten Programms (Begriffszuordnung), wobei die Interpretation der Teilergebnisse selbst vollzogen werden muss.

Bei der intensiven Auseinandersetzung mit dem verwendeten Analyse-Programm ‚WebSuxess’ stellte ich fest, dass sich gelegentlich interne Abweichungen der ermittelten Werte ergeben, obwohl diese identisch sein müssten. Nach Rücksprache mit einem Techniker der Firma Exody, die das Programm vertreibt, konnte mir von diesem keine zufriedenstellende Auskunft darüber gegeben werden, warum diese Fehler entstehen.

Da es sich allerdings meist um geringe Abweichungen handelt, die keinen relevanten Einfluss auf die herauszustellenden Seitenabruftendenzen haben, können somit dennoch zufriedenstellende Aussagen getroffen werden. Zur Verdeutlichung eines solchen Fehlers stelle ich folgendes Beispiel exemplarisch heraus:

Bei der Auflistung der abgerufenen Seiten des Online-Mathematik-Programms wird u.a. die Weiterleitungsseite wie folgt aufgelistet (Tabelle 5.3-1:):

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 5.3-1: Auszug aus der Werte-Auflistung der einzelnen Webseiten des Online-Lernprogramms (Datenquelle: CD-Rom: ../Tabellen/Seitenanalyse/seiten.xls)

5.4 Schwierigkeiten bei der serverseitigen Auswertung

5.4.1 Frames

Frames (=Rahmen) teilen den Bildschirminhalt in verschiedene Bereiche auf. Dies wird häufig dann verwendet, wenn in diesen einzelnen Bereichen verschiedene Inhalte dargestellt werden sollen. Frames werden oft für die Navigation der gesamten Website benutzt, d.h. in einem Fenster werden die Inhalte der Seiten in einer Art Gliederung angezeigt. Wählt man einen Gliederungspunkt aus, so wird in einem anderen Frame der gewünschte Inhalt angezeigt, ohne die Gliederungsstruktur zu verlieren.

Wechselt man von einer Seite ohne Framedarstellung auf eine Seite mit Framedarstellung, so werden mit einem Mausklick zwei (oder mehrere) HTML-Seiten gleichzeitig geladen.

Diese Fehldarstellung der PageViews macht sich bei dem Mathematikprogramm der Technischen Universität München jedoch kaum bemerkbar, da das verwendete Navigationsframe meist nur einmal vom Server geladen wird und sich dann im Zwischenspeicher (Cache) des zugreifenden Rechners befindet.

5.4.2 Zugriffszeiten

Das Problem der Zugriffszeiten stellt sich wie folgt dar: Der Webserver erkennt die eingestellten Systemzeiten des jeweils zugreifenden Rechners. Ist das Systemdatum verstellt (statt des tatsächlichen Datums und der tatsächlichen Uhrzeit falsche Daten eingegeben), so werden auch diese falschen Daten vom Webserver erfasst und protokolliert. Diese verstellten Daten gehen unberichtigt in die Analyse mit ein, so dass die Auswertung zeitlich verfälscht wird. Im Allgemeinen kann man jedoch davon ausgehen, dass beim Zugriff einer größeren Menge an Rechnern das Gros die richtige Zeit eingestellt hat und der statistische Fehler zu vernachlässigen ist. Außerdem soll in diesem Zusammenhang noch einmal betont werden, dass die Auswertung nur eine Tendenz darstellen soll und daher keine „absoluten“ Werte liefern kann!

5.4.3 Proxy-Server und Cache-Speicher

Probleme können dann entstehen, wenn die Zugriffe über einen Proxy-Server erfolgen, oder Seiten im Cache-Speicher des lokalen Rechners abgelegt werden. In diesem Fall erfolgt kein direkter Zugriff auf den Web-Server, entsprechend gibt es auch keine Einträge im Logfile.

Dies bedeutet konkret, dass Daten, die normalerweise für die Datenerhebung relevant wären, nicht erfasst bzw. unterschlagen werden.

Hier noch eine kurze Erläuterung zu diesem Phänomen:

„Bewegt“ man sich mit seinem Browser im Internet, so werden die einzelnen abgerufenen Seiten mit ihren Inhalten - beispielsweise Bilder oder Textelemente – auf der lokalen Festplatte zwischengespeichert, der sog. Cache-Speicher. Wählt man sich nun ein späteres Mal erneut ins Internet ein und will die gleichen Seiten wie schon zuvor wieder besuchen, so greift der Browser – je nach Einstellung – nicht auf das „www“ zurück sondern holt sich die Daten aus dem Cache-Speicher, um den Aufbau der Seiten zu beschleunigen. Das Gleiche wie der Cache-Speicher auf der lokalen Festplatte stellen die Proxy-Server im großen Stil beim Zugangs-Provider (z.B. das Leibnitz Rechenzentrum) dar. Dieser stellt einen „Zwischenspeicher“ (Proxy-Server) zur Verfügung, der die zuletzt bzw. am häufigsten abgefragten Internetseiten abspeichert. Bei einem erneuten Zugriff auf diese Seiten werden diese zuerst (falls vorhanden) aus dem Zwischenspeicher genommen. Dieses Vorgehen soll zum einen einer Überlastung des Internets vorbeugen, zum anderen die Geschwindigkeit des Seitenaufbaus bei den Benutzern erhöhen.

Will man diese Probleme vermeiden, müsste auf eine clientseitige[17] Datenerhebung ausgewichen werden. Hierzu wäre es nötig, ein spezielles Programm zur Aufzeichnung der Zugriffe auf dem Client zu installieren. Bei der clientseitigen Erhebungsmethode werden alle Zugriffe eines einzelnen Benutzers erfasst, dafür wäre jedoch keine Aussage über die Statistik der Gesamtzugriffe auf die Seiten des TU-Mathematik-Programms möglich. Nachteil dabei ist der wesentlich größere Erhebungsaufwand und ggf. der Verlust des nicht-reaktiven Charakters der Logfileanalyse.

5.4.4 Reichweite der Erfassung

Spricht man von Reichweite der Datenerfassung, so ist zwischen Bruttoreichweite und Nettoreichweite zu unterscheiden. Die Logfileanalyse kann nur Aussagen über die Bruttoreichweite des Onlineangebots machen, d.h. über die Gesamtzahl der Zugriffe. Nicht erfasst wird dagegen die Zahl der einzelnen Nutzer einer Seite (Nettoreichweite).

5.4.5 Unpräzise Aussagen

Bei der maschinellen Auswertung bleibt im Gegensatz zur personellen zudem unklar, warum ein User die Seite ggf. mehrfach aufgerufen hat (z.B. starkes Interesse, Probleme beim Laden der Internetseite, etc.). Auch über die Qualität der Nutzung (z. B. hohe oder geringe Aufmerksamkeit) ist im Rahmen der reinen Logfileanalyse letztlich keine Aussage möglich.

Außerdem kann oftmals derselbe User nicht per se identifiziert werden, wenn er sich an verschiedenen Tagen bzw. mit Unterbrechungen auf dem Server einloggt, um das Programm weiter zu bearbeiten. Denn es werden ihm je nach Provider unterschiedliche/variable IP-Adressen zugewiesen. Im Klartext bedeutet dies, dass dieser Anwender für die elektronische Erfassung per Logfile einen neuen Besucher darstellt und somit auch erneut gezählt wird.

Es ist also festzuhalten, dass aus den Logfile-Einträgen keine Zusammenhänge über bestimmte Abrufreihenfolgen und den Besuchern herausgelesen werden können, da es nicht möglich ist, diese zu identifizieren. Ruft beispielsweise ein User, der bereits in früheren Besuchen Programmteile abgearbeitet hat, Teile des Programms auf, die für „Erstbesucher“ unüblich wären, so bleibt der Rückschluss auf dieses Surfverhalten verschlossen.

5.4.6 Erhebungsmethode

Auch bei der Logfileanalyse sollte die Wahl der Erhebungsmethode von speziellem Untersuchungsinteresse geleitet sein: Interessieren Aussagen über das aggregierte Verhalten aller User der Website, bietet sich die serverseitige Erfassung an. Sollen hingegen individuelle Nutzungsmuster einzelner User untersucht werden, dann ist eine clientseitige Erfassung zu empfehlen.

In diesem Fall musste ich mich für eine serverseitige Erfassung entscheiden, da diese wesentlich einfacher durchzuführen ist und die Daten bereits aufgezeichnet waren. Bei einer clientseitigen Erfassung müssten bereits im Vorfeld der Datenaufzeichnung/-auswertung Programme installiert werden, die es ermöglichen, denselben User beim erneuten Besuch der Plattform zu identifizieren. Dieser erhöhte Aufwand steht in einem ungünstigen Verhältnis zur Relevanz der dadurch erfassten Daten.

[...]


[1] Meyberg,K.; Vachenauer, P.: Höhere Mathematik. Berlin, Heidelberg, New York; Springer-Verlag 1993

[2] Stand: 1. Oktober 2001

[3] Medienzentum der Technischen Universität München, Lothstraße 17, 80335 München

[4] Google: http://www.google.de, 2002

[5] OxygenMedia: http://www.oxygenmedia.de/kunden/crm_1.htm, 2000

[6] CHIP ONLINE: http://www.chip.de/downloads_updates/download_starten_61645.html?t=1014977518&v=3600&s=
de3c08bb05bae27d4dc154d700969d94, 2002

[7] Neue Mediengesellschaft Ulm mbH: http://www.com-online.de/freizeit/sprachen/onlinekurse.html, 1995-2001

[8] Kiss, Markus: http://www.markus-kiss.de/vokabeltrainer/, Nov. 2001

[9] Kreativität & Wissen: http://www.kreawi.de/Service/Links/links_h.htm, Januar 2002

[10] Rittershofer, Andreas: http://www.dbg.rt.bw.schule.de/lehrer/ritters/mathe/binform/binform.htm, 1996

[11] mathe online: http://www.mathe-online.at/tests.html, Feb 2001

[12] Weber, Sigrid: „Evaluation eines netzgestützten Lernprogramms - Erhebung, Auswertung und Analyse der Einschätzung von Studierenden“, München 1998

[13] Exody, WebSuxess: Anwendungshilfe <Logdatei-Formate>, Version 4 Service Release 2

[14] aus der mir vorliegenden Logdatei im Januar 2001: CD-Rom: ../Logdateien/access_log_3.log

[15] Unter Referrer wird der letzte Link verstanden, der vor dem ‚Betreten’ der Web-Site aufgerufen wurde. Diese Informationen werden in der Datei Referrer.log gefunden, sofern der Web-Server nach dem Common Logfile Format mitschreibt.

[16] In der Datei Agent.log werden Informationen darüber gespeichert, welche Browser unter welchem Betriebssystem auf die Web-Site zugegriffen haben, wenn der Server die Logdateien nach dem Common Logfile Format protokolliert.

[17] benutzerseitig

Ende der Leseprobe aus 89 Seiten

Details

Titel
Nutzungsanalyse des Netzgestützten Lernprogramms - Integration in der Ingenieur-Analysis. Interpretationen und Auswertungen der aufgezeichneten Logfiles des Wintersemesters 2000/2001
Hochschule
Technische Universität München  (Lehrstuhl für Pädagogik)
Note
1
Autor
Jahr
2002
Seiten
89
Katalognummer
V5176
ISBN (eBook)
9783638131537
Dateigröße
1940 KB
Sprache
Deutsch
Schlagworte
Nutzungsanalyse, Netzgestützten, Lernprogramms, Integration, Ingenieur-Analysis, Interpretationen, Auswertungen, Logfiles, Wintersemesters
Arbeit zitieren
Joerg Brummer (Autor:in), 2002, Nutzungsanalyse des Netzgestützten Lernprogramms - Integration in der Ingenieur-Analysis. Interpretationen und Auswertungen der aufgezeichneten Logfiles des Wintersemesters 2000/2001, München, GRIN Verlag, https://www.grin.com/document/5176

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Nutzungsanalyse des Netzgestützten Lernprogramms - Integration in der Ingenieur-Analysis. Interpretationen und Auswertungen der aufgezeichneten Logfiles des Wintersemesters 2000/2001



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden