Methoden der Softwaredistribution bei mobilen Endgeräten

Projektbericht


Projektarbeit, 2010

95 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 Grundlagen
2.1 Mobile Computing
2.2 Mobile Endgeräte und ausgewählte Betriebssysteme
2.3 Ausgewählte Aspekte der empirischen Sozialforschung
2.3.1 Phaseneinteilung innerhalb der Forschung
2.3.2 Methoden der Datenerhebung
2.4 Ausgewählte Aspekte der statistischen Datenanalyse
2.4.1 Statistische Skalenniveaus
2.4.2 Statistische Lageparameter
2.4.3 Statistische Streuungswerte
2.4.4 Weitere statistische Analyseinstrumente

3 Softwaredistribution bei mobilen Endgeräten
3.1 Akquisitorische Distribution und ausgewählte Geschäftsmodelle
3.2 Physische Distribution der mobilen Anwendungen
3.2.1 Übertragung überdas Mobilfunknetz
3.2.2 Übertragung über Bluetooth
3.2.3 Übertragung über ein WLAN
3.2.4 Übertragungüber NFC
3.2.5 Übertragung überden Computer
3.3 Herausforderungen

4 Vorbereitung und Durchführung der Nutzerbefragung
4.1 Formulierung und Präzisierung des Forschungsproblems
4.1.1 Forschungsfragen
4.1.2 Abgeleitete Hypothesen
4.2 Planung und Vorbereitung der Datenerhebung
4.2.1 Eingrenzung der Zielgruppe
4.2.2 Ablauf der Datenerhebung
4.2.3 Erhebungsinstrument
4.2.4 Forschungsdesign
4.2.5 Realisation einer repräsentativen Stichprobe
4.2.6 Pretest
4.3 Datenerhebung

5 Auswertung der Nutzerbefragung
5.1 Rahmenbedingungen für die Auswertung
5.1.1 Vorgehensweise bei der Auswertung
5.1.2 Gewonnene Daten
5.1.3 Merkmale der Stichprobe
5.2 Nutzung von Distributionsarten und ihre Gründe (F1)
5.2.1 Hypothese1
5.2.2 Hypothese2
5.2.3 Weitere Erkenntnisse
5.3 Bevorzugung bestimmter Distributionsarten (F2)
5.3.1 Hypothese3
5.3.2 Hypothese 4
5.3.3 Weitere Erkenntnisse
5.4 Erfahrungen der Teilnehmer bei der Installation mobiler Anwendungen (F3)
5.4.1 Hypothese5
5.4.2 Hypothese 6
5.4.3 Weitere Erkenntnisse
5.5 Auswirkungen demografischer Faktoren auf den Installationsvorgang (F4)
5.5.1 Hypothese7
5.5.2 Hypothese 8
5.5.3 Weitere Erkenntnisse

6 Implikationen der Ergebnisse für zukünftige Softwaredistributionsprozesse

7 Fazit und Ausblick

8 Literaturverzeichnis

9 Anhang

9.1 Fragebogen

9.2 Verteilung innerhalb der Items

9.3 Weitere Diagramme

Abbildungsverzeichnis

Abbildunq 1: Klassifizierunq der Systeme der drahtlosen Kommunikation

Abbildunq 2: Klassifikation mobiler Endqeräte

Abbildunq 3: Linksseitiqer Ablehnunqsbereich der Student-t-Verteilunq

Abbildunq 4: Übertraqunq überdas Mobilfunknetz

Abbildunq 5: Übertraqunq übereinen Bluetooth-Hotspot

Abbildunq 6: Übertraqunq über Bluetooth in Verbindunq mit einem PC

Abbildunq 7: Übertraqunq über ein WLAN

Abbildunq 8: NFC-Datenübertraqunq

Abbildunq 9: Übertraqunq mithilfe eines Speichermediums

Abbildunq 10: Übertraqunq über USB

Abbildunq 11: Altersverteilunq der Teilnehmer

Abbildunq 12: Verteilunq mobiler Endqeräte

Abbildunq 13: Häufiq qenutzte Übertraqunqsweqe

Abbildunq 14: Häufiq qenutzte Übertraqunqsweqe detailliert

Abbildunq 15: Genutzte Tarife für Datendienste

Abbildunq 16: Nutzunq von Übertraqunqsweqen in Abhänqiqkeit von Tarif und Endqeräteausstattunq

Abbildunq 17: Bereits qenutzte Installationsweqe

Abbildunq 18: Von den Befraqten qewünschte Übertraqunqsarten

Abbildunq 19: Zahlunqsbereitschaft für mobile Anwendunqen

Abbildunq 20: Bewertunq der Szenarien nach Schulnoten

Abbildunq 21: Beurteilunq der Szenarien im Verqleich

Abbildunq 22 Relevanzabhänqiqe Nutzunq

Abbildunq 23: Anzahl erfolqreicher Installationen

Abbildunq 24: Erfolqreiche bzw. nicht erfolqreiche Installationen

Abbildunq 25: Gründe für eine Nichtnutzunq mobiler Anwendunqen

Abbildunq 26: Bezuqsquellen der mobilen Anwendunqen

Abbildunq 27: Anteil erfolqreicher Installationen nach Übertraqunqsmedium

Abbildunq 28: Durchschnittliche Anzahl der Installationen nach Endqerätetyp

Abbildunq 29: Gründe für die Wahl eines Übertraqunqsweqes

Abbildunq 30: Bewertunq des Installationsprozesses nach Übertraqunqsmedium

Abbildunq 31: Zusammenhanq Technikaffinität und Anteil erfolqreicher Installationen

Abbildunq 32: Technikwahl in Abhänqiqkeit von der Technikaffinität

Abbildunq 33: Anzahl durchqeführter Installationen pro Nutzer

Abbildunq 34: Technikaffinität nach Geschlecht

Abbildung 35: Bezugsquelle nach Endgerät

Abbildung 36: Technikaffinität nach Gerätehersteller

Abbildung 37: Geschlechtsabhängige Bewertung der Szenarien

Abbildung 38: Überdurchschnittliche Nutzung mobilerAnwendungen

Tabellenverzeichnis

Tabelle 1: Betriebssysteme mobiler Endgeräte

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Mobile Endgeräte sind mittlerweile so weit verbreitet, dass statistisch gesehenjeder Deutsche mindestens ein Handy hat (vgl. Bitkom 2007, S. 11). Ebenso haben sich die technischen Mög­lichkeiten dieser Endgeräte in den letzten Jahren stark verbessert, sodass eine vielseitige An­wendung der mobilen Endgeräte möglich ist (vgl. Roth 2005, S. 1). Sie sind nun nicht mehr nur auf Telefonate und das Schreiben von Kurzmitteilungen beschränkt, sondern erlauben auch die Nutzung von Kameras, Musikabspielfunktionen, Spielen sowie dem mobilen Inter­net und mobilen Anwendungen. Bislang war die Installation mobiler Anwendungen jedoch nicht weit verbreitet, begründet durch hohe Datenübertragungskosten, geringe Nutzerakzep­tanz und die Komplexität der Anwendungsentwicklung (vgl. Caus, Christmann & Hagenhoff 2010, S. 1).

Die Distribution und Installation (Teil des Deployments, siehe Kapitel 3) dieser Anwendun­gen gestaltet sich aufgrund der heterogenen Systemlandschaft mobiler Endgeräte (bezogen auf Bedienung, Softwareplattformen und Funktionalitäten) und der Übertragungsmöglichkei­ten schwierig. Oftmals muss eine Anwendung speziell für einen Endgerätetyp angepasst wer­den. Entgegen diesen Herausforderungen und dem Trend der Web-Anwendungen (z. B. Google Docs), ist es jedoch weiterhin sinnvoll, bei mobilen Endgeräten installierbare Soft­ware einzusetzen. So können diese Anwendungen auch genutzt werden, um lokal Informatio­nen zu speichern oder falls keine Funkverbindung zum stetigen Datenabruf vorhanden ist.

Dank des Erfolges des iPhone von Apple (vgl. AdMob 2009, S. 6ff.) sowie seiner Konkurren­ten und durch die rasche Entstehung neuer Online-Shops für Anwendungen wird die Nutzung von zusätzlichen Programmen immer beliebter (vgl. Müller 2009). Diese Anwendungen kön­nen Benutzer in ihrer Mobilität positiv unterstützen, da diese so unterwegs trotzdem beruflich und privat arbeiten können (vgl. ebenda).

Bislang wurde nur eine empirische Nutzererhebung zu diesem Themengebiet durchgeführt (vgl. Caus, Christmann & Hagenhoff 2010), die neben einer konkreten Softwareinstallation auch weitere Installationsvarianten bewerten ließ. Diese Nutzerstudie war jedoch auf 50 Teil­nehmer beschränkt. Diese Arbeit stellt eine Erhebung vor, die ausgehend von der genannten Studie, den Schwerpunkt auf die Akzeptanz verschiedener, auch neuartiger Softwaredistribu­tionswege legt und einen größeren Nutzerkreis berücksichtigt. So werden Informationen ge­sammelt, die genutzte Distributionsarten, Erfahrungen während der Installation und Zu­kunftswünsche betreffen, aber auch Distributionsverfahren bewertet.

Der Aufbau dieser Arbeit ist wie folgt: Zunächst werden die Grundlagen des Mobile Compu­ting sowie der empirischen Sozialforschung erläutert (Kapitel 2). Anschließend wird näher auf die Problematik der Softwaredistribution bei mobilen Endgeräten eingegangen (Kapitel 3). Es folgt die Beschreibung des Forschungsdesigns (Kapitel 4), bevor auf die Ergebnisse der Studie eingegangen wird (Kapitel 5). Abschließend erfolgt ein Ausblick in die Zukunft (Kapi­tel 6) und eine Zusammenfassung (Kapitel 7).

2 Grundlagen

Nachfolgend werden die für diese Studie relevanten Themen grundlegend dargestellt. Die Nutzung mobiler Anwendungen ist in den Kontext des Mobile Computings eingebettet, wel­ches einen Oberbegriff für alle Arbeiten, die mit einem mobilen Computer ausgeführt werden können, darstellt. Mobile Endgeräte und ihre Betriebssysteme bilden die Grundlage für die Installation von mobilen Anwendungen. Weiterhin werden statistische Aspekte erläutert, die für die Gestaltung und Auswertung der Studie relevant sind.

2.1 Mobile Computing

In der heutigen Gesellschaft ist Mobilität (siehe auch Kapitel 3.2), in diesem Kontext die räumliche Bewegung eines Nutzers mit seinem mobilen Endgerät (vgl. Kaspar 2006, S. 43), unabkömmlich. So werden heutzutage u. a. Mobiltelefone und Notebooks eingesetzt, um je­derzeit überall erreichbar zu sein, aber auch um unterwegs arbeiten zu können („always on“). Diese Mobilität wurde erst durch kleinere und leistungsfähigere mobile Endgeräte und den Ausbau der Mobilkommunikationsnetze ermöglicht. Das Forschungsfeld Mobile Computing greift dieses auf und befasst sich einerseits mit den Systemen der Mobilkommunikation, ande­rerseits aber auch mit den dazu notwendigen mobilen Endgeräten und ihren Anwendungen (vgl. Roth 2005, S. 1). In diesem Unterkapitel erfolgt eine Auseinandersetzung mit dem ersten Aspekt, während sich das nächste Unterkapitel mit mobilen Endgeräten und ihren Betriebs­systemen beschäftigt.

Der Begriff des Mobile Computing kann nicht eindeutig von anderen Begriffen abgegrenzt werden, da diese oftmals ähnliche Konzepte darstellen (vgl. Roth 2005, S. 2; Fuchß 2009, S. 13ff.). So lassen sich in der Literatur in diesem Zusammenhang auch häufig die Begriffe Ubiquitous („allgegenwärtiges“) Computing, Pervasive („durchdringendes“) Computing und Nomadic Computing finden. Ubiquitous Computing wurde 1991 von Mark Weiser ein­geführt und erläutert, wie der Computer vom Alltag des Menschen Besitz ergreift und sein Erscheinungsbild drastisch ändert (vgl. Weiser 1991). Pervasive Computing ist eher technik­orientiert und stellt die Frage der technischen Umsetzung der Durchdringung („pervasion“) des Alltages durch das Computing in den Vordergrund (vgl. Fuchß 2009, S. 14). Nomadic Computing legt seinen Schwerpunkt auf die Mobilität des Nutzers mit seinem mobilen End­gerät. Hier geht es eher um den Systemgedanken: die Unterstützung der mobilen Nutzer mit Infrastruktur und Systemen, unabhängig von Ort und Zeit (vgl. Fuchß 2009, S. 17f.).

Das Ziel von Mobile Computing hingegen ist, „den Benutzer und dessen Anwendungen mit effektiven rechnerunterstützten Konzepten, Verfahren und Lösungen zu versorgen, die es ihm ermöglichen, in einem heterogenen Umfeld mit stets unsicherer Verbindungslage (private) Daten und Informationen zu lesen und zu bearbeiten, und dies unabhängig von Ort und Zeit‘ (Fuchß 2009, S. 17). Demzufolge kann Mobile Computing als Disziplin verstanden werden, welche die Realisation der drei oben genannten Konzepte ermöglicht (vgl. Fuchß 2009, S. 17).

Mobilkommunikation

Mobilkommunikation ist weitestgehend als drahtlose Kommunikation aufzufassen[1], also als Informationsaustausch zwischen Computersystemen ohne physische Verbindung (vgl. Kuhn 2003, S.18). Unter dem Begriff der drahtlosen Kommunikation lassen sich verschiedene Sys­teme klassifizieren, von denen eine Auswahl nachfolgend kurz vorgestellt wird. Dabei erfolgt die Systematisierung nach ihrer Reichweite, wie es neben Roth (2005) auch Baumgarten (2002) vorschlägt (vgl. Baumgarten 2002, S. 110).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Klassifizierung der Systeme der drahtlosen Kommunikation (nach Roth 2005, S. 27)

Die Mobiltelefonie ist einer der populärsten Dienste für mobile Endgeräte. Die Mobilfunknet­ze sind deutschlandweit fast flächendeckend ausgebaut und in Zellen angeordnet. Eine Ver­bindung dieser Zellen erfolgt durch ein drahtgebundenes Trägernetzwerk (vgl. Roth 2005, S. 26). Mobilfunknetze erlauben den Benutzern, von jedem Ort aus zu telefonieren, Kurzmittei­lungen zu verschicken und auf das mobile Internet zuzugreifen. Die in der Grafik genannten Systeme GSM und UMTS werden in Kapitel 3.2 erläutert.

WLAN (Wireless Local Area Network, siehe Kapitel 3.2), als drahtloses lokales Netz, wird vermehrt eingesetzt, um eine Verbindung mit drahtgebundenen Heim-/Firmennetzwerken herzustellen und um das Internet zu nutzen. Durch sie wird eine kostenintensive und aufwän­dige Raumverkabelung gespart und ein flexibleres Netzwerk erstellt. So bieten beispielsweise Hotels oder Cafés WLAN-Hotspots an, die (gegen Gebühr) mit dem eigenen mobilen Endge­rät genutzt werden können.

Für die Vernetzung der Computer-Zubehör (bspw. Tastatur, Maus) werden Wireless Personal Area Networks (WPAN) eingesetzt. Diese basieren entweder auf Funk (Bluetooth) oder Infra­rot (IrDA) (Erläuterung ebenso in Kapitel 3.2) und sind nur für die Überbrückung weniger Meter geeignet.

Besonderheiten, die sich durch die Mobilkommunikation in drahtlosen Netzen ergeben, sind vielschichtig. Zum einen muss garantiert werden, dass angebotene Dienste in neuen Umge­bungen automatisch gefunden und genutzt werden können, um einen nahtlosen Übergang zu gewährleisten. Andererseits muss auch die Heterogenität der Endgeräte bedacht werden; so müssen genutzte Dienste an die Leistungsfähigkeit des jeweiligen Endgeräts angepasst wer­den (vgl. Roth 2005, S. 30). Auch die Nutzererwartungen, die aus der Nutzung drahtgebunde­ner Kommunikationsmedien resultieren, sind zu bedenken. Sie erwarten hohe Datenraten, niedrige Fehlerraten, einen bequemen Zugang zu dem Netz und sichere Übertragungen (vgl. Roth 2005, S. 15). Gerade diese Anforderungen sindjedoch bei der drahtlosen Kommunikati­on aufgrund ihrer physikalischen Besonderheiten problematisch.

2.2 Mobile Endgeräte und ausgewählte Betriebssysteme

Mobile Endgeräte ermöglichen es ihren Nutzem, „Dienste über ein drahtloses Netzwerk oder lokal verfügbare mobile Anwendungen zu nutzen“ (Roth 2005, S. 387). Um dies zu gewähr­leisten, müssen mobile Endgeräte drei zentrale Anforderungen erfüllen: Nutzung einer eige­nen unabhängigen Stromversorgung, angemessene Größe für leichte Transportabilität und Nutzung einer mobilen Datenanbindung (vgl. Turowski & Pousttchi 2004, S. 57). Lehner (2003) nennt weitere wichtige Eigenschaften mobiler Endgeräte, wie z. B. die Ortsunabhän­gigkeit, die Erreichbarkeit, die sofortige Verfügbarkeit, die Lokalisierbarkeit und die Persona- lisierung (vgl. Lehner 2003, S. 11).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Klassifikation mobiler Endgeräte (nach Roth 2005, S. 389)

Roth schlägt obige Klassifikation mobiler Endgeräte vor. Im Rahmen dieses Projektberichts werden schwerpunktmäßig Handhelds betrachtet, so dass auch nur diese nachfolgend kurz erläutert werden. Begründet wird dies dadurch, dass auf mobilen Standardcomputern zumeist dieselben Betriebssysteme und Anwendungen wie auf stationären Computern installiert sind und sie sich hinsichtlich ihrer Potentiale und Herausforderungen der Übertragung und Instal­lation nur wenig von stationären PCs unterscheiden.

Neben der Übertragung von Sprache erlauben heutige Mobiltelefone (o. a. Handys) auch die Übertragung von Daten, beispielsweise in Form von Kurznachrichten (SMS, Short Message Service) oder durch eine Verbindung mit dem Internet. Weiterhin dienen sie oftmals auch als Musikabspielgerät, Kamera und Terminplaner. Sie verfügen über ein spezielles Handybe- triebssystem (siehe unten) und eine Telefontastatur. Auch ist ein Datenaustausch mit PC oder anderen Handys über zahlreiche Schnittstellen (siehe Kapitel 3.2) möglich.

Der PDA (Personal Digital Assistant) ist ein mit einem Touchscreen oder einer Tastatur aus­gestattetes Gerät, das hauptsächlich als Organizer, also z. B. zur Terminplanung oder zur E­Mail-Verwaltung, genutzt wird. Das Display ist größer als das eines Mobiltelefons, was die Darstellung mehrerer Elemente erlaubt. Die Bedienung des Touchscreens erfolgt mit einem speziellen Stift, mit dessen Hilfe auch Handschrifteingaben vorgenommen werden können (vgl. Roth 2005, S. 392). Die Tastatur ist meist ausklappbar und ähnelt einer PC-Tastatur. Auch verfügt ein PDA über Kommunikationsschnittstellen, um einen Datenabgleich mit ei­nem Computer zu ermöglichen. PDAs nutzen ein PC-ähnliches Betriebssystem (vgl. Turowski & Pousttchi 2004, S. 65f.).

Das Smartphone vereint die Vorteile beider genannten Geräte und trägt somit zur gesteigerten Mobilität bei. Es wird als ein Gerät definiert, das hauptsächlich als Mobiltelefon genutzt wird, jedoch auch über ein PDA-ähnliches Betriebssystem verfügt (vgl. Turowski & Pousttchi 2004, S. 69). Weiterhin haben Smartphones ausreichend Speicherplatz, um zusätzliche An­wendungen installieren zu können und sie erlauben die Nutzung der Telefonfunktionalität auch in weiteren installierten Programmen (vgl. Fuchß 2009, S. 20). Smartphones verdrängen heutzutage normale Mobiltelefone und PDAs vom Markt. Als Vorreiter gilt hier das iPhone von Apple, das die Bedienung u. a. über einen Touchscreen bekannt gemacht hat.

Durch diese Dreiteilung der Handheld-Arten wirkt die Vielfalt der mobilen Endgeräte schon recht komplex, erweitert wird sie jedoch noch durch die verschiedenen erhältlichen Modelle, ihre vorhandenen Schnittstellen und ihre eingesetzten Betriebssysteme und Software.

Mobile Betriebssysteme

Fundamentale Funktionen mobiler Endgeräte, wie u. a. die Vermittlung zwischen Anwen­dungsprogrammen und dem Nutzer bzw. der Hardware, werden von dem Betriebssystem (Operating System, OS) realisiert (vgl. Mertens et al. 2005, S. 22). Für mobile Endgeräte existiert eine Vielzahl von Betriebssystemen (siehe Tabelle 1), so dass in dieser Systemland­schaft keine homogene Unterstützung und Kommunikation mit Anwendungsprogrammen gewährleistet werden kann.

Betriebssysteme für mobile Endgeräte müssen weiterhin an die technischen Möglichkeiten dieser angepasst sein (vgl. Roth 2005, S. 395f.). So spielt die Bildschirmgröße und deren Auf­lösung für die Gestaltung der Benutzeroberfläche eine große Rolle. Auch ist es schwierig, mehrere geöffnete Fenster gleichzeitig auf dem kleinen Bildschirm darzustellen. Ein weiterer Faktor ist die Interaktionsrate. Nutzer von mobilen Endgeräten erwarten, dass die gewählte Anwendung sofort verfügbar ist und sie nicht mehrere Sekunden zum Start benötigt. Auch die verschiedenen Eingabemöglichkeiten (Touchscreen, „normale“ oder eingeschränkte Tastatur) müssen bei der Betriebssystem- und Anwendungsentwicklung bedacht werden, so dass die Software mit verschiedenen Eingabemöglichkeiten umgehen können sollte. Da die mobilen Endgeräte meist mit Batteriestrom versorgt werden, ist die Energieversorgung nur beschränkt möglich. Software sollte daher möglichst energiesparend realisiert werden. Schließlich ist auch die verminderte Rechenleistung und Speichergröße der mobilen Endgeräte zu berück­sichtigen, indem ressourcenschonende Software entwickelt wird.

In der folgenden Tabelle werden kurz verschiedene Betriebssysteme mobiler Endgeräte vor­gestellt, die momentan weit verbreitet sind oder die neuere Bedienkonzepte verfolgen (vgl. AdMob 2009, S. 4; Kremp 2009). Ein Anspruch auf Vollständigkeit (sowie Tagesaktualität) wird nicht erhoben. Die Klassifizierung erfolgt nach Abhängigkeit von Geräteherstellern.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Betriebssysteme mobiler Endgeräte

Aus der Tabelle ersichtlich wird die Vielfalt der existierenden Betriebssysteme für mobile Endgeräte und die unterstützten Programmiersprachen, in denen Programme realisiert werden können.

2.3 Ausgewählte Aspekte der empirischen Sozialforschung

Die empirische Sozialforschung beschreibt den Prozess einer systematischen Erhebung von Daten der Soziologie, um unterschiedliche Typen von Forschungszielen zu erreichen, wie explorative oder deskriptive Untersuchungen, die Prüfung von Hypothesen und Theorien, sowie Evaluationsstudien (vgl. Diekmann 2006). Dieser Prozess lässt sich in mehrere von einender abzugrenzende Phasen einteilen und umfasst die Möglichkeit der Anwendung unter­schiedlicher Erhebungsmethoden. In dieser Forschungsarbeit wurden das Vorgehen und die Phaseneinteilung nach Diekmann gewählt, da diese in der Forschung akzeptiert und in der Literatur verbreitet sind.

2.3.1 Phaseneinteilung innerhalb der Forschung

Der Untersuchungsablauf sieht nach Diekmann fünf Phasen vor (vgl. Diekmann 2006, S. 162):

I. Formulierung des Forschungsproblems
II. Planung und Vorbereitung der Erhebung
III. Datenerhebung
IV. Datenauswertung
V. Berichterstattung

Die erste Phase, die Formulierung des Forschungsproblems, besteht aus der klaren Erfassung der zu untersuchenden Grundgesamtheit und der Art der Informationen, die aus ihr gewonnen werden sollen. Diese können aus einem praktischen Problem resultieren, von einem Auftrag­geber vorgegeben sein oder ein allgemeines Interesse an einem soziologischen Sachverhalt widerspiegeln. Es werden im Vorfeld der Untersuchung Forschungsfragen formuliert, die einen solchen Sachverhalt beschreiben, also deskriptiver Natur sind (siehe Kapitel 4.1.1). Weiterhin können zusätzlich Hypothesen aufgestellt werden, die mit Hilfe der gewonnenen Daten bestätigt oder verworfen werden sollen (siehe Kapitel 4.1.2).

Die Phase der Planung und Vorbereitung der Erhebung beinhaltet die Konstruktion des Erhe­bungsinstruments, die Festlegung der Untersuchungsform, das Strichprobenverfahren sowie einen Pretest. Dabei hängt die Wahl des Erhebungsinstruments (siehe Kapitel 4.2.3) in erster Linie von der Untersuchungsform und dem Forschungsdesign (siehe Kapitel 4.2.4) ab. Beim Stichprobenverfahren wird die Population definiert, sowie Art und Umfang der Stichprobe festgelegt (siehe Kapitel 4.2.5). Anschließend wird das Erhebungsinstrument in einem Pretest anhand einer ausgewählten Stichprobe auf Objektivität und Reliabilität hin überprüft und an­schließend ggf. überarbeitet.

Die Phase der Datenerhebung ist der praktische Teil der Forschungsarbeit und erfolgt je nach Erhebungsinstrument aktiv oder passiv. Dabei steht das Sammeln einer ausreichenden Menge von auswertbaren Daten im Vordergrund, um repräsentative Ergebnisse erhalten (siehe Kapi­tel 4.3).

Die Datenauswertung, also die Datenanalyse (siehe Kapitel 5), ist der entscheidende Teil der Forschungsarbeit und befasst sich mit der statistischen Auswertung der gesammelten Daten. Dies beinhaltet den Aufbau eines analysefähigen Datenfiles inklusive einer Fehlerkontrolle bzw. Fehlerbereinigung, sowie die Bildung von Indizes, Itemanalysen, Skalenwerte und Zu­sammenhangsanalysen.

2.3.2 Methoden der Datenerhebung

Für die Erhebung von Daten werden Instrumente benötigt, die in der Lage sind, die erforderli­chen Daten zu liefern. Zudem müssten die Daten in einer auswertbaren Form bereitgestellt werden können. Dies gilt es bei der Wahl des Erhebungsinstruments unter anderem zu be­rücksichtigen. Beispiele für Erhebungsinstrumente sind die Befragung, die Beobachtung, die Inhaltsanalyse oder nicht-reaktive Erhebungsmethoden (vgl. Diekmann 2006). Diese werden nachfolgend kurz erläutert und speziell die Befragung näher beleuchtet.

2.3.2.1 Beobachtung

Bei der Beobachtung handelt es sich um eine passive Form der Datenerhebung. Die Daten werden dabei rein durch die Beobachtung gewisser Fakten oder Situationen gewonnen, ohne dass die Untersuchenden direkten Einfluss auf die Beobachtung nehmen können. Da bei die­ser Art oftmals die Überprüfung von Hypothesen das Ziel der Datenerhebung ist, muss spezi­ell darauf geachtet werden, dass keine Verzerrung der Daten aufgrund selektiver Wahrneh­mung stattfindet. Dieser Effekt tritt dann auf, wenn die Untersuchenden besonders auf die der Hypothese entsprechenden Antworten fokussiert sind, daher unbewusst häufiger zutreffende Informationen notieren und somit keine neutrale Datenaufnahme stattfindet. Ebenso kann das Problem der Fehlinterpretation eines beobachteten Geschehens auftreten, welches zu fehler­haften Daten führen kann (vgl. Diekmann 2006, S. 458). Eine Minimierung der Verzerrung und Fehlinterpretation könnte jedoch dadurch erreicht werden, dass neutrale Personen mit der Datenerhebung beauftragt werden, die einerseits die Hypothesen nicht kennen und anderer­seits konkrete Beobachtungsanweisungen erhalten.

2.3.2.2 Inhaltsanalyse

Die Inhaltsanalyse ist nach Diekmann (2006) eine systematische Erhebung und Auswertung von Texten, Bildern und Filmen. Der Kern der Inhaltsanalyse ist somit nicht die Erstellung von analysefähigen Datensätzen, sondern die Auswertung bereits vorhandener Dokumente im Bezug auf die zu erforschenden Fragestellungen. Sie beinhaltet Techniken, die der Systematik und der intersubjektiven Nachvollziehbarkeit, also der Objektivität, dienen. Die Inhaltsanaly­se kann in verschiedenen Formen durchgeführt werden, bspw. als Frequenzanalyse, Kontin­genzanalyse oder Bewertungsanalyse. Während die Frequenzanalyse ausschließlich Häufig­keiten von auftretenden Merkmalen betrachtet, wie z. B. Worthäufigkeiten oder Begriffe in­nerhalb von Texten, werden bei der Kontingenzanalyse mit Hilfe der Häufigkeiten Assoziati­onsstrukturen in Texten oder anderen inhaltsanalytischen Materialien ermittelt. Mit ihr wer­den Abhängigkeiten (siehe Kapitel 2.4.4) zwischen einzelnen Merkmalen bestimmt. Die Be­wertungsanalyse hingegen misst die Intensität von Bewertungen, die beispielsweise von Pro­banden in Texten gegenüber bestimmten Sachverhalten vorgenommen werden (vgl. Diek­mann 2006, S. 481ff.).

2.3.2.3 Nicht-reaktive Erhebungsmethode

Diese Art von Erhebungsmethoden befasst sich in erster Linie nicht mit der Untersuchung von Inhalten, wie z. B. Antworten auf formulierte Fragen, sondern mit der Reaktion der Pro­banden auf gestellte Fragen oder auf bestimmte Situationen. Ziel ist es somit, Abhängigkeiten (siehe Kapitel 2.4.4) zwischen der Art der Fragestellung bzw. der Situation und der Antwort bzw. Art der Antwort des Probanden festzustellen. Bei dieser Methode werden absichtliche Verfälschungen der Messergebnisse durch den Messvorgang bewirkt und die Intensität dieser Verfälschungen untersucht (vgl. Diekmann2006, S. 517ff.).

2.3.2.4 Befragung

Die klassische Methode zur Datenerhebung ist die Befragung. Sie kann sowohl quantitativ als auch qualitativ erfolgen. Dabei werden Probanden zu vorher festgelegten Gesichtspunkten durch eine bestimmte Form der Kommunikation befragt. Die Antworten der Befragten ver­körpern die gewonnenen Daten. Unterschieden werden können drei Typen von Befragungen: das persönliche Interview, das telefonische Interview sowie die schriftliche Befragung. Alle drei Befragungstypen können im Grad der Strukturierung variieren, was bei starker Standardi­sierung einer quantitativen Methode und bei Unstrukturiertheit einer qualitativen Methode entspricht.

Das persönliche Interview wird auch face-to-face-Interview genannt und war in der Vergan­genheit die am meisten genutzte Befragungsmethode. Aufgrund des mit ihr verbundenen ho­hen Zeitaufwands und der eingeschränkten Repräsentativität hat sich im Laufe der Zeit die Gewichtung in Richtung der telefonischen Interviews verschoben. Vorteile bietet das persön­liche Interview bei qualitativen Befragungen oder bei Untersuchungen der Mimik und Gestik, sowie der Reaktionen der Probanden, da bei dieser Methode der Blickkontakt zwischen Pro­band und Untersuchendem möglich ist. Größter Nachteil der persönlichen Befragung ist die mangelnde Repräsentativität, die Möglichkeiten einschränkt die gewonnenen Informationen auf die Grundgesamtheit (beispielsweise alle Menschen) umzulegen.

Das telefonische Interview bietet dem Untersuchenden die Möglichkeit in kurzer Zeit viele Stichprobenwerte zu ermitteln, aber auch eine repräsentative Stichprobe zu erzeugen, da durch die Reichweite des Telefons eine repräsentative Zufallsauswahl leichter zu gewährleis­ten ist. Mit Hilfe der telefonischen Befragung werden heutzutage viele quantitative Umfragen durchgeführt. Vorteile aber auch Nachteile bietet das telefonische Interview im Bereich der Anonymität der Befragten, da einerseits die Identität des Befragten unbekannt ist und er so aufrichtiger sein kann, andererseits besteht die Gefahr, dass der Proband Antworten gibt, die weniger der Realität entsprechen. Welcher Fall dabei eintritt, hängt jedoch überwiegend von der Art der Frage ab. So ist mit höherer Aufrichtigkeit zu rechnen, wenn die „Kosten“ einer wahrheitsgetreuen Antwort einen gewissen individuellen Schwellenwert nicht überschreiten. Bei für den Befragten unangenehmen Fragen ist eher mit verzerrten Antworten zu rechnen.

Die schriftliche Befragung wird meist in Form eines Fragebogens durchgeführt. Er besteht aus einer bestimmten Anzahl von Fragen, die schriftlich formuliert werden. Es können so­wohl Antworten vorgegeben, als auch offene Fragen ohne Antwortvorgabe gestellt werden. Dies macht den schriftlichen Fragebogen zu einem flexibel einsetzbaren Werkzeug der empi­rischen Forschung. Nachteil des schriftlichen Fragebogens ist die oft fehlende Möglichkeit des Befragten, Rückfragen zu stellen, falls die Fragestellung irreführend oder undeutlich ist. Daher ist besonders bei schriftlichen Befragungen im Vorfeld die korrekte und eindeutige Formulierung der Fragen wichtig. Auch ein oder mehrere Pretests sind notwendig um Ver­ständnisfehler im Fragebogen zu minimieren oder gar auszumerzen. Desweiteren bietet die schriftliche Befragung viele Vorteile. Zu nennen ist einerseits die Möglichkeit der Sicherstel­lung der Repräsentativität der Ergebnisse, da Fragebögen nicht ortsabhängig sind, andererseits maximieren korrekt formulierte Fragebögen die Durchführungsobjektivität, was wiederum objektive Ergebnisse fördert. Ein weiterer Vorteil eines Fragebogens ist der fehlende Zeit­druck, da der Befragte sich die Zeit für die Beantwortung der Fragen selbst einteilen und be­stimmen kann. So können überhastete Antworten aufgrund des Zeitdrucks vermieden werden (vgl. Diekmann 2006, S. 371ff.).

Zusammenfassend können alle Befragungsarten beliebig miteinander kombiniert werden, was zu einer individuell angepassten Befragung führt. So kann je nach Bedarf ein Kompromiss zwischen Standardisierung und Unstrukturiertheit sowie Quantität und Qualität getroffen werden. Weiterhin können die Vorteile der einzelnen Methoden dadurch individuell ausge­nutzt werden.

2.4 Ausgewählte Aspekte der statistischen Datenanalyse

Unter deskriptiver Datenanalyse werden im Allgemeinen alle statistischen Methoden, For­meln und graphischen Verfahren verstanden, die zur Beschreibung beobachteter Daten eines Merkmals in einer Grundgesamtheit oder Stichprobe dienen (vgl. Zucchini et al. 2009, S. 41).

2.4.1 Statistische Skalenniveaus

Werden innerhalb der empirischen Untersuchung Daten gesammelt, müssen diese vor einer Auswertung erst identifiziert und klassifiziert werden. Diese Klassifizierung muss bereits bei der Wahl des Erhebungsinstruments berücksichtigt werden. Abhängig von dieser Einteilung sind ebenso die weiteren Schritte bei der Auswertung dieser Daten, da nicht alle Operationen mit jeder Merkmalsausprägung möglich sind. Je nach Klasse sind so auch unterschiedliche Lage- und Streuungsparameter bestimmbar. Bei der Klassifizierung wird konkret die Skalie­rung der Daten bestimmt, die unterschieden werden nach nominalskalierten Daten, ordinalskalierten Daten oder metrischen Daten.

Nominalskaliert: Unter nominalskalierten Daten werden qualitative Merkmale verstanden, deren Ausprägungen keiner festen allgemeingültigen Reihenfolge unterliegen. Ebenso ist es nicht möglich ein Verhältnis zwischen den einzelnen Ausprägungen zu erfassen. Beispiele für solche Merkmale sind das Geschlecht, dass nur die Ausprägungen „männlich“ und „weiblich“ annehmen kann, oder die Antwort auf eine geschlossene Frage, die nur die Werte „Ja“ oder „Nein“ annimmt. Die Ausprägungen sind fast ausschließlich diskret, werden nur durch ihre Namen unterschieden, werden meist nicht durch Zahlen repräsentiert und lassen sich daher nicht quantitativ messen.

Ordinalskaliert: Ordinalskalierte Daten werden auch rangskalierte Merkmale genannt. Im Gegensatz zu nominalskalierten Daten lassen sich die Ausprägungen rangskalierter Merkmale in eine klare allgemeingültige Reihenfolge bringen. So ist es möglich, eine Ausprägung in einer Skala einzuordnen und von anderen Ausprägungen abzugrenzen. Ebenso wie bei nomi­nalskalierten Merkmalen können ordinalskalierte Merkmale nicht zueinander ins Verhältnis gesetzt werden, d. h. es ist nicht möglich, durch eine Faktorisierung von einer Ausprägung auf eine andere zu schließen. Beispiele finden sich dazu in Evaluationen, bei denen Sachverhalte mit bspw. einer Fünfer-Skala mit den Ausprägungen „sehr gut“, „gut“, „mittel“, „schlecht“ und „sehr schlecht“ vertreten sind oder bei einer Bewertung mithilfe von Schulnoten.

Metrisch: Unter metrischen Daten werden quantitative Merkmale verstanden, die sich nicht bereits einer der oben genannten Klassen zuordnen lassen. Die Merkmalsausprägungen besit­zen eine Ordnung und lassen sich zueinander ins Verhältnis setzen. Es sind Merkmale die sich häufig zählen oder messen lassen. Sie können sowohl diskrete als auch stetige Merkmale um­fassen. Ein Gewicht in Kg, ein Längenmaß oder eine Anzahl sind einfache Beispiele für met­rische Merkmale (vgl. Zucchini et al. 2009, S. 41ff.).

2.4.2 Statistische Lageparameter

Zur Beschreibung von Daten werden in der deskriptiven Statistik Kennzahlen verwendet. Diese kennzeichnen die Verteilung der Daten im Datensatz, wobei unterschieden wird zwi­schen Lage- und Streuungsparametern. Lageparameter beschreiben auf welchen Bereich einer Skala sich die Daten verteilen. Die bekanntesten sind der Modalwert, der Mittelwert und der Median.

Der Modalwert gibt die Merkmalsausprägung an, die im Datensatz am häufigsten auftritt. Er kann sowohl bei metrischen sowie auch bei nominal- und ordinalskalierten Daten ermittelt werden, istjedoch meist nur im Falle diskreter Daten sinnvoll.

Der Mittelwert wird auch als Durchschnitt bezeichnet und markiert den Schwerpunkt der Da­ten. Er ist empfindlich für sogenannte Ausreißer und wird meist in Verbindung mit metri­schen Daten verwendet, da diese in Form von Zahlen ausgeprägt sind und miteinander im Verhältnis stehen. Bei ordinalskalierten Merkmalen ist die Berechnung eines Mittelwertes nur sinnvoll, wenn es sich bei den Ausprägungen um Zahlen (bzw. Ausprägungen die in Zahlen umgewandelt werden können) handelt und die Differenzen zwischen den Ausprägungen in etwa gleich sind. Für nominalskalierte Daten ist der Mittelwert nicht anwendbar.

Der Median wird auch Zentralwert genannt und ist der Wert, der in der Mitte liegt, wenn die einzelnen beobachteten Ausprägungen geordnet in einer Reihe geschrieben werden. Er gibt an, in welchem Bereich sich die häufigsten Werte befinden. Er ist unempfindlich gegenüber Ausreißern und kann sowohl bei metrischen als auch bei ordinalskalierten Daten verwendet werden (vgl. Zucchini et al. 2009, S. 49f).

2.4.3 Statistische Streuungswerte

Unter Streuungsparametern werden Kennzahlen verstanden, welche die Verteilung bzw. die Streuung der Daten im Allgemeinen oder im Bezug zu ihrem Mittelwert beschreiben. Zu ih­nen gehören die Spannweite, die Varianz und die Standardabweichung.

Die Spannweite (oder auch Spanne) ist die Differenz zwischen höchstem und niedrigstem Wert der beobachteten Ausprägungen. In dieser Form kann sie jedoch nur für numerische Merkmalsausprägungen verwendet werden. Bei nichtnumerischen Werten werden als Spann­weite der höchste und niedrigste Wert als Information angegeben.

Die Varianz bilden die durchschnittlichen quadrierten Abweichungen der Ausprägungen vom Mittelwert. Ähnlich wie die Spannweite misst sie die Streuung der Daten, jedoch ausgehend vom Mittelwert der Daten. Hohe Varianzen sind oft Anzeichen auf stochastische Zusammen­hänge. Sie können nur für metrische Daten sinnvoll eingesetzt werden.

Die Standardabweichung ist die Quadratwurzel der Varianz und misst damit ebenso die Streuung der Daten um den Mittelwert. Sie gibt den Betrag der durchschnittlichen Abwei­chungen der Beobachtungen vom Mittelwert an. Damit ist sie als eigenständige Größe einfa­cher zu interpretieren als die Varianz (vgl. Zucchini et al. 2009, S. 51ff).

2.4.4 Weitere statistische Analyseinstrumente

Kennzahlen geben zwar einen ersten Anhaltspunkt wie sich beobachtete Stichprobendaten verteilen, können aber keine Zusammenhänge zwischen einzelnen Items aufzeigen. Da es in der empirischen Forschung unerlässlich ist, Einfluss und Wirkung von Variablen auf be­stimmte Situationen und Sachverhalte zu untersuchen, um Aussagen darüber treffen zu kön­nen, müssen statistische Analyseinstrumente verwendet werden. Je nach zu überprüfender Aussage werden dabei unterschiedliche Instrumente gewählt, die geeignet sind korrekte Er­gebnisse zu liefern. Die am häufigsten verwendeten Instrumente werden nachfolgend erläu­tert.

2.4.4.1 Schätzung und Abhängigkeit

In der empirischen Forschung wird grundsätzlich mit Stichproben gearbeitet, da eine Untersu­chung der Grundgesamtheit meist nicht möglich oder zu aufwändig bzw. zu kostenintensiv ist. Der Vorteil der Praktikabilität durch eine verhältnismäßig kleine Stichprobe im Vergleich zur Grundgesamtheit wird teilweise kompensiert durch die Tatsache einer Schätzung. Je grö­ßer die Stichprobe ist, desto genauer kann somit die Aussage über die Grundgesamtheit ge­troffen werden bzw. umso sicherer ist der Wahrheitsgehalt der Aussage. Grundsätzlich muss jedoch an dieser Stelle festgehalten werden, dass keine Aussagen, die aufgrund einer Stich­probe getroffen werden, zu einhundert Prozent richtig sind. Eine Irrtumswahrscheinlichkeit ist bei allen diesen Ergebnissen einzukalkulieren. Die maximale Irrtumswahrscheinlichkeit wird auch Signifikanzniveau genannt und wird mit dem griechischen Buchstaben α ausgedrückt. Sie ist ein individuell festlegbarer Wert, der sichje nach Risikoaversion meist im Bereich von 0,1% bis 10% bewegt.

Soll innerhalb der Forschung ein Zusammenhang zwischen zwei Variablen untersucht wer­den, wird in der Praxis auf die Korrelation und damit auf die Berechnung eines Korrelations­koeffizienten zurückgegriffen. Der Korrelationskoeffizient kann Werte zwischen -1 und 1 annehmen und ist ein Maß für die lineare Abhängigkeit zweier Variablen, also wie sich die eine Variable A verhält, wenn die andere Variable B erhöht [verringert] wird. Steigt [fallt] A, spricht man von einer positiven Korrelation, fällt [steigt] A, ist die Korrelation negativ. Kor­relierte Daten sind somit abhängig, da vom Wert einer Variablen auf den Wert der anderen geschlossen werden kann. Umgekehrt gilt der Zusammenhang jedoch nicht, denn abhängige Daten sind nicht zwingend auch korreliert, da der Korrelationskoeffizient nur ein Maß für lineare Abhängigkeit ist und beispielsweise eine quadratische Abhängigkeit von ihm nicht erfasst wird. Aus demselben Grund kann auch bei einer Korrelation ungleich Null nicht auf Unabhängigkeit der Variablen geschlossen werden (vgl. Zucchini et al. 2009, S. 345ff).

Nachgewiesene Abhängigkeiten (z. B. Korrelationen) sind notwendige Bedingung für kausale Zusammenhänge zweier Variablen. Ein kausaler Zusammenhang ist immer dann gegeben, wenn das Eintreten eines Ereignisses Auslöser eines anderen Ereignisses ist, z. B. der Wert einer Variable A einen Wert der Variable В nach sich zieht. Abhängigkeiten sindjedoch nicht hinreichend für kausale Zusammenhänge, da ein gemeinsames Auftreten zweier Variablen auch durch eine dritte Variable verursacht sein könnte. Somit ist in der empirischen For­schung immer zu berücksichtigen, dass von Abhängigkeit nicht auf kausale Zusammenhänge geschlossen werden kann (vgl. Zucchini et al. 2009, S. 9).

2.4.4.2 Signifikanztest

Hypothesen sind ein wichtiger Bestandteil der empirischen Forschung. Mit Hilfe der statisti­schen Analyse sollen Hypothesen geprüft und als wahrscheinlich oder unwahrscheinlich, als (statistisch) richtig oder als falsch identifiziert werden. Klassisches Analyseinstrument ist dafür der Hypothesentest, auch Signifikanztest genannt. Mit diesem Test können Hypothesen überprüft werden, die sich auf Werte einer Variablen beziehen, d. h. Aussagen, die über die Höhe der durchschnittlichen Variablenwerte der Grundgesamtheit getroffen werden. Dabei wird die sogenannte Nullhypothese überprüft und in Beziehung zur Beobachtung gesetzt.

Ergebnis des Signifikanztests ist eine standardisierte Prüfgröße in einer statistischen Vertei­lungsfunktion, wie z. B. die Standard-Normalverteilung oder die Student-t-Verteilung. Die Höhe der Prüfgröße ist dann ausschlaggebend für das Annehmen oder Ablehnen einer Hypo­these. Dazu wird mit Hilfe des individuell festgelegten Signifikanzniveaus ein Ablehnungsbe­reich bestimmt, der je nach Nullhypothese linkseitig, rechtseitig oder beidseitig unterhalb der Verteilung liegt und dessen Fläche dem Signifikanzniveau α entspricht (siehe Abbildung 3).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Linksseitiger Ablehnungsbereich der Student-t-Verteilung (vgl. Zucchini et al. 2009)

Liegt die Prüfgröße, die einen Wert auf der X-Achse annimmt, innerhalb des Ablehnungsbe­reichs, wird die Nullhypothese verworfen. Liegt sie außerhalb des Ablehnungsbereichs kann die Hypothese nicht verworfen werden, wasjedoch nicht bedeutet, dass die Hypothese korrekt ist. Um statistisch nachzuweisen, dass eine Hypothese zutrifft, muss die Gegenhypothese (oder auch Alternativhypothese) verworfen werden. Üblicherweise wird daher eine Aussage, die es nachzuweisen gilt, als Altemativhypothese formuliert, um anschließend die Nullhypo­these zu verwerfen.

Gilt eine Hypothese als statistisch nachgewiesen, verbleibt lediglich die Irrtumswahrscheinlichkeit als Restrisiko. Dieser sogenannte P-Wert gibt die Wahrscheinlich­keit an, unter der Nullhypothese einen (noch) extremeren Wert zu erhalten als die Prüfgröße und ist somit die Wahrscheinlichkeit, die Nullhypothese zu verwerfen, obwohl sie wahr ist. Je kleiner der P-Wert ist, umso wahrscheinlicher ist, dass die Alternativhypothese korrekt ist. Somit unterstützen kleine P-Werte die getroffenen Aussagen (vgl. Zucchini et al. 2009, S. 241ff.).

2.4.4.3 Varianzanalyse

Soll eine Hypothese überprüft werden die zwei Variablen betrifft, ist ein klassischer Signifikanztest dafür nicht ausreichend. Mit der Varianzanalyse jedoch kann überprüft wer­den, ob die Erwartungswerte einer Variablen bei allen Ausprägungen einer zweiten Variablen identisch sind. Gewöhnlicherweise handelt es sich bei der zweiten Variablen um eine diskrete Variable. Es werden dabei zwei Modelle miteinander verglichen: das Modell, bei dem alle Ausprägungen der zweiten Variablen unterschiedliche Erwartungswerte in der ersten Variab­len besitzen und das Modell, bei dem alle Ausprägungen der zweiten Variablen nur einen gemeinsamen Erwartungswert haben. Damit kann beispielsweise untersucht werden, ob eine Abhängigkeit zwischen den beiden Variablen besteht. Die Nullhypothese dieses Tests lautet „Das einfachere Modell ist korrekt“ und meint damit das Modell mit dem gemeinsamen Er­wartungswert.

Ergebnis der Varianzanalyse ist wiederum eine Prüfgröße in der F-Verteilung, weshalb die Varianzanalyse auch F-Test genannt wird. Bei diesem Test existiert nur ein Ablehnungsbe­reich auf der rechten Seite der Verteilung in der Größe des gewählten Signifikanzniveaus. Fällt die Prüfgröße in den Ablehnungsbereich, so wird die Nullhypothese verworfen und so­mit wird das einfachere Modell abgelehnt. Das andere Modell mit unterschiedlichen Erwar­tungswerten wäre so statistisch nachgewiesen, bei einer Irrtumswahrscheinlichkeit in Höhe des P-Wertes. Soll also eine Abhängigkeit beider Variablen nachgewiesen werden, ist ein kleiner P-Wert notwendig. Große P-Werte hingegen sind hinreichend für eine Prüfgröße au­ßerhalb des Ablehnungsbereichs, somit kann die Nullhypothese nicht verworfen werden und damit ist keine Abhängigkeit zwischen den beiden Variablen nachweisbar.

3 Softwaredistribution bei mobilen Endgeräten

Mobile Anwendungen, um deren Distribution es sich hier handelt, sind auf mobilen Endgerä­ten installiert und können über drahtlose Kommunikationsnetzwerke mit anderen Computer­systemen kommunizieren (vgl. Lehner 2003, S. 5). Dabei wird unterschieden, wie und wann die Daten zum Endgerät geschickt werden. Fragt der Anwender durch seine installierte An­wendung gezielt Informationen beim Anbieter-Server an, so nennt man dieses Pull-Prinzip. Werden die Daten jedoch ohne Einfluss des Nutzers an seine mobile Applikation versendet, so handelt es sich um ein Push-Verfahren (vgl. Lehner 2003, S. 148). Dieses lässt sich auch auf die Softwaredistribution übertragen, wie in Kapitel 3.2 gezeigt wird.

Es wird unterschieden, ob die Anwendung auf dem Endgerät installiert ist oder sie über einen Browser als Webanwendung aufgerufen wird. Die Browserdarstellung hat den Vorteil, dass die Anwendung plattformunabhängig entwickelt werden kann, jedoch kann sie nicht offline genutzt werden und bietet nur beschränkten Zugriff auf Systemkomponenten, wie z. B. die Nutzerschnittstelle (vgl. Maaß & Pietsch 2009, S. 1447f.). Daher werden im Rahmen dieser Arbeit vordergründig installierbare Anwendungen für mobile Endgeräte betrachtet.

Diese mobilen Anwendungen können einerseits direkt für ein bestimmtes Betriebssystem (siehe Kapitel 2.2), oder, sofern das Endgerät dieses unterstützt, bspw. mit Java Micro Edition (JavaME) entwickelt werden, um nicht von einem bestimmten Betriebssystem abhängig zu sein (vgl. Roth 2005, S. 419). Jedoch muss bei der Nutzung von JavaME bedacht werden, dass es verschiedene Versionen für unterschiedliche Endgeräte zu nutzen gilt. Diese Versio­nen erhalten ein bestimmtes Konfigurationsprofil, so dass sie nur auf Endgeräten mit demsel­ben Profil vollständig lauffähig sind. Deshalb muss eine mobile Anwendung entsprechend für das jeweilige Endgerät angepasst werden, was wiederum Mehraufwand bedeutet und dem eigentlichen Ziel der Universalität entgegen steht. Weiterhin ist auch der Zugriff auf System­komponenten eingeschränkt (vgl. Weßendorf2006, S. 51ff.)

Distribution

Der Distributionsbegriff ist in der Betriebswirtschaft in die physische und die akquisitorische Distribution aufgeteilt (vgl. Olbrich 2006, S. 218). So beinhaltet die engste Definition, die physische, den technischen Güterumschlag, also den Transport vom Hersteller zum Kunden. Der akquisitorische Distributionsbegriff hingegen ist eher tätigkeitsorientiert. Er umfasst,,die Summe der (Marketing-)Aktivitäten aller Wirtschaftssubjekte, die an der Überführung eines

Wirtschaftsguts vom Hersteller zum Verbraucher beteiligt sind.“ (Olbrich 2006, S. 218). Hier fallen also auch Werbung und weitere Maßnahmen, um die Kundenaufmerksamkeit zu erre­gen, hinein.

Bezogen auf die Distribution von Software wird in dieser Arbeit eher mit der technischen Definition gearbeitet, also der Übermittlung der Software vom Anbieter-Server zum mobilen Endgerät des Kunden. Begründet wird die Wahl der Definition durch die Vielfalt der techni­schen Übertragungswege und der Heterogenität an Endgeräten, deren Einfluss auf die Soft­waredistribution hier erhoben werden soll.

Weiterhin ist in diesem Zusammenhang aber auch der Begriff des Deployments relevant, der alle Aktivitäten einschließt, die dazu dienen, ein Softwaresystem für die Nutzung vorzuberei­ten (vgl. Carzaniga et al. 1998, S. 3f.). Im Rahmen des Deployments von Software sind hier mit Distribution alle Release-Aktivitäten gemeint, die das Zusammenstellen des Softwaresys­tems (Bereitstellung) und den Transport zum Nutzer enthalten, sowie die Installationsaktivitä­ten, die dazu dienen, die Software für die Nutzung auf dem Endgerät zu speichern.

Zunächst wird kurz auf die akquisitorische Sicht der Distribution eingegangen, da dadurch die enge Verzahnung mit der physischen Definition veranschaulicht werden soll. Anschließend werden gängige physische Distributionsvarianten vorgestellt.

3.1 Akquisitorische Distribution und ausgewählte Geschäftsmodelle

Die akquisitorische Distribution beschäftigt sich, wie oben schon erwähnt, vor allem mit Marketingaktivitäten rund um die Überführung einer Software vom Hersteller zum Nutzer. Hierzu zählt auch die Wahl der Absatzwege und -organe, also auch die Entscheidung zwi­schen direktem oder indirektem Vertrieb (vgl. Runia 2007, S. 195). Beispielhaft sollen im Folgenden kurz verbreitete und innovative Geschäftsmodelle vorgestellt werden, die teilweise die Unterstützung von Übertragungswegen einschränken und somit auch für die physische Distribution von Bedeutung sind.

Symbian Horizon soll in Zukunft dazu dienen, Anwendungen für Symbian-fähige Endgeräte auf einer zentralen Plattform zu verlinken und die Erlösverteilung abzuwickeln (vgl. Heise 2009). Da Anwendungen für das Symbian OS in verschiedenen Stores erworben werden kön­nen (z. B. bei den Handyherstellern Nokia und Samsung und dem amerikanischen Mobil­funknetzbetreiber AT&T), ist es nicht nur für die Nutzer unübersichtlich, sondern auch für Software-Entwickler schwierig, den Überblick zu behalten, welche Programme sie in welchen.

[...]


[1] Sie kann auch drahtgebunden sein, wenn es nur vorübergehend ist. Dies ist bspw. bei Reisen der Fall: hier wird die Modemdose in Hotels genutzt. Der Schwerpunkt liegt hier also nicht auf der drahtlosen Kommunikation, sondern auf der Mobilität der Benutzer (vgl. Roth 2005, S. 7).

Ende der Leseprobe aus 95 Seiten

Details

Titel
Methoden der Softwaredistribution bei mobilen Endgeräten
Untertitel
Projektbericht
Hochschule
Georg-August-Universität Göttingen  (Wirtschaftswissenschaftliches Institut)
Note
1,3
Autoren
Jahr
2010
Seiten
95
Katalognummer
V190526
ISBN (eBook)
9783656155225
ISBN (Buch)
9783656155379
Dateigröße
3804 KB
Sprache
Deutsch
Anmerkungen
Veröffentlicht und Vorgestellt 2011 auf der "10th International Conference on Mobile Business (ICMB 2011)" in Como. Titel: Empirical Analysis of Usage and Acceptance of Software Distribution Methods on Mobile Devices
Schlagworte
methoden, softwaredistribution, endgeräten, projektbericht
Arbeit zitieren
Martin Zelazny (Autor:in)Saskia Geisler (Autor:in), 2010, Methoden der Softwaredistribution bei mobilen Endgeräten, München, GRIN Verlag, https://www.grin.com/document/190526

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Methoden der Softwaredistribution bei mobilen Endgeräten



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden