Moderatoreffekte in der Theorie des geplanten Verhaltens - Eine Metaanalyse


Diplomarbeit, 2010

100 Seiten, Note: 1,0


Leseprobe


Inhalt

Abbildungsverzeichnis

Tabellenverzeichnis

1. Einleitung

2. Metaanalysen in den Sozial- und Verhaltenswissenschaften
2.1 Ablauf einer Metaanalyse
2.2 Kritische Betrachtung von Metaanalysen

3. Die Theorie des geplanten Verhaltens

4. Untersuchungsgegenstand und Forschungshypothesen

5. Datenerhebung und Auswahl der Zusammenhangsmaße

6. Datenaufbereitung
6.1 Kategorisierung der Studien nach Art des untersuchten Verhaltens
6.2 Bewertung der Operationalisierung
6.3 Einlesen der Daten
6.3.1 Exkurs: Problem abh ä ngiger Stichproben in der Metaanalyse 37
6.4 Transformation der beobachteten Korrelationen in gewichtete Effektstärken
6.5 Durchführung der Minderungskorrektur
6.6 Transformation der minderungskorrigierten Korrelationen ingewichtete Effektstärken

7. Analyseverfahren
7.1 Homogenitätstest, mittlere Effektstärken, fixed- & random-effect-models
7.2 Konfirmatorische Prüfung des TpB - Modells mit Strukturgleichungsverfahren

8. Ergebnisse & Diskussion
8.1 Mittlere Effektstärken und Auswirkung der Minderungskorrektur: Gesamtdatensatz
8.2 Mittlere Effektstärken und Auswirkung der Minderungskorrektur: Subgruppen nach Verhaltenskategorien
8.3 Mittlere Effektstärken zwischen Intention und Verhalten nach Art der Verhaltensmessung
8.4 Konfirmatorische Prüfung des TpB - Modells mit Strukturgleichungsverfahren und Auswirkung der Minderungskorrektur: Gesamtdatensatz
8.5 Konfirmatorische Prüfung des TpB - Modells mit Strukturgleichungsverfahren: Subgruppen nach Verhaltenskategorien

9. Zusammenfassung und Ausblick

10. Literatur

Abbildungsverzeichnis

Abbildung 1: Typischer Ablauf einer Metaanalyse

Abbildung 2: Schematische Darstellung von funnel plots zur Prüfung eines

publication bias

Abbildung 3: Die Theorie des geplanten Verhaltens

Abbildung 4: Die Theorie des geplanten Verhaltens: Konzept verhaltensrelevanten Überzeugungen (belief based measures)

Abbildung 5: Modell 1 - MASEM Gesamtdatensatz ohne Minderungskorrektur

Abbildung 6:Modell 2 - MASEM Gesamtdatensatz mit Minderungskorrektur

Abbildung 7: Modell 3 - MASEM Ernährungsverhalten

Abbildung 8: Modell 4 - MASEM - Freizeitverhalten

Abbildung 9: Modell 5 - MASEM Gesundheitsverhalten

Abbildung 10: Modell 6 - MASEM Leistungsorientiertes Verhalten

Abbildung 11: Modell 7 - MASEM Sozialverhalten

Abbildung 12: Modell 8 - MASEM Sportliche Betätigungen

Abbildung 13: Modell 9 - MASEM Suchtverhalten

Abbildung 14: Modell 10 - MASEM Umweltverhalten

Tabellenverzeichnis

Tabelle 1: Kategorisierung der Studien nach Art des Verhaltens

Tabelle 2:Kategorisierung der Studien nach Art der Verhaltensmessung: Beobachtung vs. Selbstbericht und Messung zum selben Zeitpunkt vs. Messung zum späteren Zeitpunkt

Tabelle 3: Durchschnittliche Reliabilitäten derTpB-Konstrukte

Tabelle 4: Gesamtdatensatz - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 5: Mittlere Effektstärken und Anzahl Effektstärken nach Manning (2009: 668)

Tabelle 6: Mittlere Effektstärken und Anzahl Effektstärken nach Armitage & Conner (2001: 481)

Tabelle 7: Ernährungsverhalten - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 8: Freizeitverhalten - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 9: Gesundheitsverhalten - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 10: Leistungsorientiertes Verhalten - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 11: Sozialverhalten - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 12: Sportliche Betätigungen - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 13: Sportliche Betätigungen nach Hagger et al. (2002: 16) - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 14: Suchtverhalten - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 15: Umweltverhalten - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 16: Verkehrsverhalten - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 17: Selbstberichtetes Verhalten vs. beobachtetes Verhalten - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

Tabelle 18: Verhaltensmessung zum späteren Zeitpunkt vs. Verhaltensmessung zum selben Zeitpunkt - Mittlere Effektstärken, Anzahl Effektstärken und Stichprobengrößen

1. Einleitung

Vor zirka 30 Jahren haben Icek Ajzen und Martin Fishbein die Grundlagen eines theoretischen Ansatzes konzipiert, der sich bis heute zu einem der am häufigsten untersuchten Erklärungsmodelle zur Vorhersage und Untersuchung menschlichen Verhaltens basierend auf Einstellungen entwickelt hat: Die Theorie der überlegten Handlung (Ajzen & Fishbein 1980) und ihre Erweiterung, die Theorie des geplanten Verhaltens (Ajzen 1988, 1991).

Die Forschung zum Zusammenhang zwischen Einstellungen und Verhalten hat in der Sozialpsychologie eine lange Geschichte und muss sich seither immer wieder kontroversen Diskussionen über die tatsächliche Beziehung zwischen Einstellungen und Verhalten stellen. McGuire (1986) hat die wechselreiche Historie des Einstellungskonzepts in der Sozialpsychologie nachgezeichnet und drei charakteristische Phasen ihrer Entwicklung ausgemacht: Die erste in den 1920er und 1930er Jahren, die vorrangig durch Arbeiten auf dem Gebiet der Einstellungsmessung geprägt war, die zweite in den 1950er und 1960er Jahren, in denen Untersuchungen zur Einstellungsänderung in den Fokus rückten und letztlich die dritte Phase seit den 1980er Jahren, in der sich die Forschung immer mehr auf Analysen von Einstellungssystemen konzentriert.

Immer wieder finden sich im Laufe dieser Geschichte Berichte über sehr niedrige bis nicht-signifikante Beziehungen zwischen den Konstrukten Einstellung und Verhalten. Wicker (1969) ist nach seiner Literaturauswertung zur Einstellungs-Verhaltens-Relation zu dem viel zitierten Schluss gekommen:

„Taken as a whole, these studies suggest that it is considerably more likely that attitudes will be unrelated or only slightly related to overt behaviors than that attitudes will be closely related to actions. Product-moment correlation coefficients relating the two kind of responses are rarely above .30, and often are near zero.” 1.

McGuire (1986: 92) ist in diesem Kontext sogar soweit gegangen, von einem Skandal zu sprechen und folgert: „Low attitude-action correlation has remained a scandal of social psychology ever since.“ Solche Ergebnisse haben jedoch nicht zu einer Abkehr vom Konzept der Einstellungs-Verhaltens-Forschung geführt, sondern vielmehr dazu beigetragen, Konzepte und Modelle zu modifizieren und Operationalisierungen zu optimieren. Die Fragen, welche Variablen Einfluss auf den Grad der Übereinstimmung zwischen Einstellung und Verhalten nehmen und welche Prädiktoren eine genauere Verhaltensvorhersage erlauben, hat zur Entwicklung von integrativen Vorhersagemodellen geführt, wie der Theorie des geplanten Verhaltens. Aus der Sicht von Ajzen und Fishbein sind niedrige Korrelationen zwischen Einstellung und Verhalten, wie von Wicker (1969) dargestellt, kein Beleg für eine nicht-existente Beziehung zwischen den beiden Konstrukten, diesbezüglich schreiben sie:

„From the perspective of our approach, low attitude-Behavior relations are neither unexpected, nor do they imply that attitudes are irrelevant for the prediction of behavior“ (Fishbein & Ajzen 2010: 256).

So stellt sich in der Sozial- und Verhaltensforschung auch zunehmend die Frage, inwieweit Ergebnisse von Literaturübersichten wie von Wicker (1969) einer objektiven, empirischen Untersuchung überhaupt stand halten, die nur auf der schlichten Aggregation empirischer Arbeiten, ohne Anwendung einer klaren wissenschaftlichen Methodik beruhen. Diese Problematik hat letztlich zur Entwicklung objektiver, replizierbarer Verfahren zur Integration einzelner Forschungsergebnisse geführt, die heute allgemein in dem Begriff Metaanalyse zusammengefasst werden. Anwendungen metaanalytischer Verfahren zur Untersuchung der Einstellungs-Verhaltens-Beziehung zeigen, dass diese weder sehr niedrig noch nicht-signifikant sind und zudem Erklärungen für die Varianz unterschiedlicher Forschungsergebnisse liefern (Eckes & Six 1994, Kim & Hunter 1993). Eine jahrelang bestehende sozialpsychologische Lehrmeinung, dass Einstellungen bestenfalls in einer schwachen Beziehung zum Verhalten stehen, kann und muss damit revidiert werden. Dieses Beispiel zeigt, dass durch die Anwendung metaanalytischer Verfahren sichere Aussagen über Populationswerte getroffen, zudem Varianzen zwischen einzelnen Forschungsergebnissen erklärt werden und so letztlich Fehlschlüsse vermieden werden können.

Ziel der vorliegenden Arbeit ist die metaanalytische Untersuchung der Theorie des geplanten Verhaltens. Dabei werden nicht nur einzelne Untersuchungsergebnisse metaanalytisch integriert, sondern auch Erklärungen für Varianzen zwischen den Einzelergebnissen, so genannte Moderatoreffekte, empirisch geprüft. Als Effektstärkenmaße werden die Korrelationen zwischen den Variablen Einstellung zum Verhalten, subjektive Norm, wahrgenommener Verhaltenskontrolle, Intention und Verhalten herangezogen.

Zu Beginn werden zunächst Geschichte und Stellung von Metaanalysen in den Sozial- und Verhaltenswissenschaften aufgezeigt. In diesem Rahmen wird der grundlegende Ablauf und Anspruch von Metaanalysen nach heutigem Forschungsstand skizziert, sowie Kritiken an metaanalytischen Verfahren diskutiert. Darauf folgt eine Beschreibung der Theorie des geplanten Verhaltens, um dem/der LeserIn den Rahmen des Untersuchungsgegenstandes zu verdeutlichen. Daraus abgeleitet werden im Anschluss explizite Forschungshypothesen formuliert, die die Grundlage der darauf folgenden empirischen Untersuchung bilden. Diese Forschungshypothesen umfassen die Prüfung von Moderatoreffekten, von denen angenommen wird, dass sie Einfluss auf die Beziehungen zwischen den Variablen der Theorie des geplanten Verhaltens haben. Erwartete Moderatoren sind die Art des untersuchten Verhaltens, die Verminderung der Korrelationen durch Messfehler, die Art der Verhaltensmessung sowie die Einhaltung des Kompatibilitätsprinzips.

Der darauf folgende empirische Teil bildet nach Erklärung des Forschungsgegenstandes und der Hypothesen den zweiten Abschnitt dieser Arbeit. Zunächst wird das Datenerhebungsverfahren beschrieben sowie die Auswahl der Zusammenhangsmaße dargelegt. Danach werden alle Vorarbeiten zur metaanalytischen Datenanalyse ausführlich und transparent wiedergegeben. Dies umfasst die Kategorisierungen und Bewertungen der einzelnen Studien hinsichtlich der aufgestellten Forschungshypothesen, das Einleseverfahren der Daten in das Statistikprogramm SPSS, die Transformation der Daten in gewichtete Effektstärken sowie die Durchführung der Minderungskorrektur zur Messfehlerbereinigung.

Im Anschluss werden die angewendeten metaanalytischen Verfahren vorgestellt und testtheoretisch begründet. Zum einen wird hierbei beschrieben, wie die mittleren Effektstärken berechnet werden und wie sie hinsichtlich des Homogenitätstests zu interpretieren sind. Zum anderen wird das Verfahren der Strukturgleichungsmodelle mit dem die Konstruktzusammenhänge im Gesamtmodell geprüft werden vorgestellt und aufgezeigt, wie die resultierenden Modellfit-Maße zu verstehen sind. Darauf folgt die Darstellung und Diskussion der Forschungsergebnisse. Die Ergebnisse werden dabei hinsichtlich der aufgestellten Forschungshypothesen diskutiert sowie mit Ergebnissen aus früheren Metaanalysen zur Theorie des geplanten Verhaltens verglichen. Abschließend erfolgt eine zusammenfassende Betrachtung der wesentlichen Ergebnisse dieser Arbeit. Die Forschungshypothesen werden in den Kontext der Frage, wie gut die Theorie des geplanten Verhaltens die jeweilige Untersuchungsgegenstände und Verhaltensweisen voraussagt, kritisch diskutiert. Es wird darüber hinaus versucht, die in dieser Arbeit verwendete Methodik der Metaanalyse aufzugreifen und einen Ausblick für Erweiterungs- und Verbesserungsmöglichkeiten der TpB für die zukünftige Forschung zu geben.

2. Metaanalysen in den Sozial- und Verhaltenswissenschaften

Das Ziel wissenschaftlicher Forschung ist die Produktion von kumulativem Wissen. Dies beinhaltet die Entwicklung von Theorien zur Erklärung der Phänomene welche im Fokus eines Wissenschaftsgebietes stehen. Aufbauend auf bereits vorhandenem Wissen, werden Theorien entwickelt, geprüft, gestützt, modifiziert oder auch falsifiziert, je nach aktuellem Forschungsstand - so die Vorstellung.

In den letzten Jahrzehnten hat sich jedoch ein explosionsartiger Anstieg wissenschaftlicher Publikationen in nahezu allen wissenschaftlichen Disziplinen gezeigt, aufgrund dessen es selbst für ExpertenInnen eines Forschungsgebietes nicht mehr möglich ist, den aktuellen Stand der Forschung zu überblicken. Hinzu kommt, dass zu gleichen Fragestellungen oftmals mehrere Untersuchungen vorliegen, die abweichende oder sogar konträre Ergebnisse hervorbringen. Dies zeigt sich auch im Bereich der Verhaltens- und Sozialwissenschaften. Bis Mitte der 70er Jahre hatte sich eine unüberschaubare Anzahl von Studien zu verschiedenen Fragestellungen der Theorieentwicklung oder sozialpolitischen Entscheidungen angehäuft. Ergebnisse unterschiedlicher Studien sind dabei typischerweise uneinheitlich oder gar widersprüchlich gewesen. Letztlich ist dadurch das Vertrauen in diesen Wissenschaftszweig an sich verletzt worden, Forschungsgelder sind in diesen Bereichen gekürzt worden. Forscher selbst haben den Wert ihrer Arbeit hinterfragt und Artikel veröffentlicht, in denen sie Zweifel äußern, ob die Verhaltens- und Sozialwissenschaften prinzipiell überhaupt in der Lage seien, kumulatives Wissen zu generieren und allgemein gültige Antworten auf sozial wichtige Fragen bereit zu stellen (Cronbach 1975, Gergen 1982 und Meehl 1978) 2.

Aus dieser Situation ist immer mehr die Notwendigkeit entstanden, objektive Analyseverfahren zu entwickeln, um Einzelergebnisse systematisch zu kombinieren und so Gründe für die Variabilität der Forschungsergebnisse zu untersuchen. Dabei genügt es nicht, empirische Arbeiten in Form von Übersichtsarbeiten, so genannten narrativen Reviews, zusammenzufassen. Narrative Reviews gelten aufgrund ihrer fehlenden klaren wissenschaftlichen Methodik in der Fachwelt generell als subjektiv gefärbt und nicht replizierbar (Hunter & Schmidt 2004: 17ff). So kann mit diesem Verfahren nur eine begrenzte Anzahl von Forschungsbefunden bearbeitet und interpretiert werden, was bei der ständig wachsenden Anzahl von wissenschaftlichen Publikationen immer einen Selektionsprozess voraussetzt. Die Auswahl und Gewichtung der Forschungsergebnisse obliegt der interpretativen Sichtweise des Reviewers. Narrative Reviews sind deshalb selten in der Lage, widersprüchliche Forschungsergebnisse zu erklären (Eckes & Six 1994: 255f, Mullen 1989: 4ff, Wagner & Weiß 2004: 480f). Narrative Reviews können wertvolle Informationen für den systematischen Vergleich von Theorien oder Ansatzpunkte für die inhaltliche Interpretationen empirischer Befunde liefern. Sie verlieren jedoch ihre Aussagekraft, wenn es um die objektive Quantifizierung von Studienergebnissen geht, wie zum Beispiel die Übertragbarkeit bestimmter Forschungsergebnisse auf die Population. So hat sich in den letzten drei Jahrzehnten in der empirischen Forschung ein neuer methodischer Forschungszweig entwickelt, der erstmal von Glass (1976) als Metaanalyse bezeichnet wurde. Glass definiert dabei den Begriff Metaanalyse als „ statistical analysis of a large collection of analysis results from individual studies for the purpose of integrating the findings” (Glass 1976: 3).

Bei metaanalytischen Verfahren basiert die Integration von Forschungsergebnissen im Gegensatz zum narrativen Review nicht nur auf verbaler Ebene, sondern anhand von statistischen Indikatoren. Bei Metaanalysen werden statistische Effektstärkenschätzungen 3 durchgeführt, mit dem Ziel, sicherere Aussagen über die „wahre“ Größe und Variabilität von Effekten zu erlangen, als dies mit Einzeluntersuchungen möglich wäre (Bortz & Döring 2006: 672f, Lipsey & Wilson 2001: 3f).

Primärstudien die auf kleinen Stichproben beruhen kommen häufig zu konträren Ergebnissen (Hunter & Schmidt 2004: 3ff). Gerade in den Sozial- und Verhaltenswissenschaften sind kleine Stichproben aber typisch. Es ist in der Regel nicht möglich repräsentative Stichproben zu erheben und deswegen ist die Wahrscheinlichkeit von Fehlschlüssen sehr hoch. Hunter & Schmidt (2004: 8ff) diskutieren die Überschätzung von Signifikanztests in Einzelstudien und verweisen auf die hohe Fehlerwahrscheinlichkeit durch Beta-Fehler und kommen zu dem Schluss:

„The belief that such studies are worthless is based on two false assumptions: (1) The assumption that every individual study must be able to justify a conclusion on it’s own, without reference to other studies, and (2) the assumption that every study should be analyzed using significance tests. One of the contributions of metaanalysis has been to show that no single study is adequate by itself to answer a scientific question. Therefore, each study should be considered as a data point to be contributed to a later meta-analysis” (Hunter & Schmidt 2004: 12).

So tragen Metaanalysen auch zur Theorieentwicklung bei. Genauso wie bei Primärstudien können mit Hilfe metaanalytischer Techniken hypothesentestende Fragestellungen verfolgt werden und kausale Beziehungen zwischen einzelnen Variablen untereinander geprüft werden. Der Zusatznutzen von Metaanalysen besteht jedoch nicht nur darin, sicherere Schlussfolgerungen über die „wahren“ Zusammenhänge zu ermitteln. Vielmehr können Metaanalysen auch Informationen darüber liefern, unter welchen Vorraussetzungen die Beziehungen zwischen verschiedenen Variablen variieren, also Moderatoreffekte bestimmt werden. Um kausale Beziehungen zu prüfen werden auch in Metaanalysen Methoden der Pfadanalyse und der Strukturgleichungsmodelle verwendet, basierend auf den berichteten Korrelationen oder Kovarianzen in einzelnen Primärstudien. Diese Methoden können zwar nicht aufzeigen ob eine Theorie stimmt, die Theorie kann aber anhand der Daten falsifiziert werden. Darauf aufbauend können wiederum weitere Annahmen geprüft werden und jede Prüfung bedeutet einen neuen Erkenntnisgewinn (Hunter & Schmidt 2004: 22ff). Dabei muss nicht jede in eine Metaanalyse integrierte Primärstudie alle zu untersuchenden Konstruktbeziehungen berichten. Die Populationskorrelationen zwischen verschiedenen Konstrukten beziehungsweise Variablen können einzeln metaanalytisch geschätzt und dann genutzt werden, um mit Strukturgleichungsverfahren die kausalen Zusammenhänge des theoretischen Gesamtmodells zu prüfen (Viswesvaran & Ones 1995: 866ff). Dieses Verfahren wird auch in dieser Arbeit angewendet und ausführlich in den Kapiteln 7 und 8 beschrieben.

Anwendungen von metaanalytischen Verfahren haben gezeigt, dass die Forschungsergebnisse in den Sozial- und Verhaltenswissenschaften nicht annähernd so widersprüchlich sind, wie ihnen unterstellt wurde und das durchaus nützliche und generalisierbare Schlüsse aus der bereits existierenden Forschung abgeleitet werden können (Hunter & Schmidt 2004: 20). Die Entwicklung von metaanalytischen Verfahren hat letztlich zur Anerkennung geführt, dass die Generierung von allgemein gültigem, kumulativem Wissen auch in den Sozial- und Verhaltenswissenschaften möglich ist. Hedges (1987) hat durch Anwendung metaanalytischer Verfahren sogar belegen können, dass Forschungsergebnisse der Psychologie nicht weniger verifizierbar sind als Forschungsergebnisse der Physik. Seine Anwendung metaanalytischer Analysen mit Studien aus 13 Bereichen der Psychologie und 13 Bereichen der Physik hat gezeigt, dass die Variabilität der Ergebnisse zwischen den Studien in beiden Fachgebieten gleich hoch ist. Letztlich zeigt dies, dass es bei der Synthese empirischer Befunde keine prinzipiellen Differenzen zwischen verschiedenen wissenschaftlichen Disziplinen gibt. Auch in den Naturwissenschaften wird keine Forschungsfrage einzig und allein durch eine Studie als beantwortet angesehen. Im medizinischen Bereich ist die Anwendung von Metaanalysen zur Untersuchung der Wirksamkeit medizinischer Maßnahmen schon längst Standard (Hunter & Schmidt 2004: 28f, Wagner & Weiß 2004: 481f).

Seit den ersten erfolgreichen Anwendungen metaanalytischer Verfahren Mitte der 1970er Jahre, lässt sich eine rasante Zunahme von metaanalytischen Anwendungen ebenso wie die systematische Auseinandersetzung mit metaanalytischen Methoden beobachten. In den frühen 1980er Jahre sind zahlreiche Lehr- und Handbücher erschienen, die sich mit Konzepten, Methoden und statistischen Theorien diverser metaanalytischer Verfahren befassen, wie zum Beispiel Hedges & Olkin (1985), Hunter, Schmidt & Jackson (1982) und Rosenthal (1984) 4. Die Auseinandersetzungen und Diskussionen zur metaanalytischen Methodik haben bis heute zu weitaus differenzierten Ansätzen und Verfahren geführt, zahlreiche praxisbezogene Handbücher (zum Beispiel Hunter & Schmidt 2004, Lipsey & Wilson 2001) sowie Computerprogramme zur Durchführung von Metaanalysen sind mittlerweile erhältlich. Lipsey & Wilson (2001) bezeichnen die Veröffentlichung des „Handbook of Research Synthesis“, herausgegeben von Cooper & Hedges (1994) als einen Höhepunkt dieser Bemühungen. In diesem Handbuch, werden wichtige Aspekte und Grundprinzipien der Metaanalyse von den führenden Wissenschaftlern in diesem Feld (unter anderem Hedges, L.V., Rosenthal, R., Lipsey, M.W., Hunter, J.E., & Schmidt, F.L.) zusammengetragen. Da nicht alle unterschiedlichen Varianten von metaanalytischen Methoden in dieser Arbeit vorgestellt werden können, werden die Grundprinzipien der metaanalytischen Arbeit nun in Anlehnung an das Fünf-Stufen-Modell zur Forschungssynthese nach Cooper & Hedges (1994) allgemein skizziert.

2.1 Ablauf einer Metaanalyse

Prinzipiell kann der Ablauf einer Metaanalyse mit anderen empirischen Untersuchungsformen, wie beispielsweise einer quantitativen Untersuchung mittels Befragung, verglichen werden. So wird auch bei Metaanalysen zunächst der Untersuchungsgegenstand beziehungsweise das Forschungsproblem konkret formuliert und dessen Operationalisierung festgelegt. Im Anschluss werden Daten erhoben, kodiert, bewertet, analysiert, interpretiert und präsentiert. Der Unterschied besteht allerdings darin, dass in einer Metaanalyse die Untersuchungsergebnisse verschiedener Primärstudien anstelle von Befragten die Untersuchungsobjekte darstellen (Lispey & Wilson 1ff, Cooper & Hedges 1994: 3ff). Abbildung 1 zeigt die einzelnen Schritte die bei der Durchführung einer Metaanalyse durchlaufen werden müssen, orientiert am Fünf-Stufen-Modell zur Forschungssynthese nach Cooper& Hedges (1994: 9ff):

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Typischer Ablauf einer Metaanalyse

Zunächst muss das Forschungsproblem konkret definiert werden. Die Vorrausetzung für ein metaanalytisches Vorgehen ist dabei, dass bereits Primärforschung zum entsprechenden Forschungsproblem existiert und diese auch in Form quantitativer Daten vorliegt. Die Wahl des Forschungsgegenstandes beeinflusst unmittelbar die Form der Untersuchungsauswahl, der Datenerhebung und -analyse. Es sollen Bedingungen festgelegt werden, die relevante von irrelevanten Primäruntersuchungen hinsichtlich des Forschungsproblems unterscheiden. Dies erfordert die Definition der theoretischen Konzepte und deren Operationalisierungen. Es muss genau festgelegt werden, welche Beziehungen von welchen Variablen in einer Primärstudie untersucht werden müssen, um diese in die Metaanalyse zu integrierten. Dabei können und sollen in Metaanalysen verschiedene Operationalisierungen derselben theoretischen Konstrukte berücksichtigt werden, denn Befunde, die unabhängig von der Art der Operationalisierung bestehen, gelten als besonders robust (hohe Konstuktvalidität). Weiterhin muss die Technik bestimmt werden, mit denen die Studien analysiert werden sollen. Dabei ist es nicht nötig, dass alle Studien dieselben Effektgrößen beinhalten, da zahlreiche Transformationsregeln bekannt sind, die unterschiedliche Effektstärkentypen ineinander umwandeln können (Hall et al. 1994, Lipsey & Wilson 2001: 12ff, Wagner & Weiß 2004: 483).

Die Datenerhebung bei Metaanalysen besteht in einer systematischen und transparenten Literaturrecherche. Grundsätzlich sollen dabei möglichst alle Studien einbezogen werden die zum entsprechenden Forschungsproblem durchgeführt wurden, um systematische Verzerrungen zu vermeiden und so Repräsentativität zu gewährleisten. Dabei ist die genaue Dokumentation des Suchprozesses unabdingbar. Lipsey & Wilson (2001: 23) schlagen dafür Datenbanksoftware wie Microsoft Access vor. Dort können Literaturlisten angelegt und mit weiteren relevanten Informationen versehen werden, wie Stand der Literatursuche, Veröffentlichungsjahr, Art des Artikels, Art der Operationalisierung und so weiter. Ein solches System ist unabdingbar für die weitere metaanalytische Arbeit und hilft dem/der ForscherIn in der Fülle der Informationen den Überblick zu behalten und sein Vorgehen transparent zu machen. Der Prozess der Datenerhebung umfasst zwei Schritte: Das Finden von Literaturhinweisen zu potentiell passenden Studien und die Beschaffung von Kopien dieser Studien um relevante von nicht-relevanten Studien herauszufiltern.

Die effektivste Strategie um möglichst alle Literaturhinweise zum Forschungsproblem herauszufinden, ist möglichst vielfältige Quellen zu nutzen. Lipsey & Wilson (2001: 25) schlagen folgende Quellen vor, die zur Recherche genutzt werden sollten:

- Review Artikel (Übersichtsarbeiten oder bereits durchgeführte Metaanalysen zur Thematik)
- Literaturhinweise in Studien mit der selben Thematik
- Elektronische bibliographische Datenbanken
- Bibliographische Datenbanken (gedruckte Form)
- Relevante Fachjournale
- Konferenzprogramme und - berichte
- Autoren/innen und Experten/innen
- Regierungsbehörden

Andere Review Artikel zum selben oder ähnlichen Forschungsthema sind eine gute Quelle um in die Literaturrecherche einzusteigen, dort aufgeführte Literatur wurde bereits als relevant zur Thematik bewertet. Literaturhinweise finden sich auch in Primärstudien selbst, denn es ist üblich, dass in Studien zu bestimmten Themen andere, ähnliche Studien zitiert werden. Als eine der wichtigsten und effektivsten Methoden gilt heutzutage die Stichwortsuche in elektronischen Datenbanken, wie PsycINFO, PsychLit oder Sociological Abstracts. In der Regel gewähren Universitätsbibliotheken die kostenfreie Nutzung solcher elektronischer Datenbanken. Die meisten bibliographischen Datenbanken sind ebenfalls in gedruckter Form erhältlich. Obwohl dasselbe Material auch elektronisch verfügbar ist, kann eine zusätzliche Suche „per Hand“ nützlich sein. In gedruckter Form sind bibliographische Datenbanken meist nach verschiedenen Teilgebieten organisiert, oft können so weitere Studien, die über die elektronische Stichwortsuche nicht gefunden werden konnten, identifiziert werden. Außerdem kann mit dieser Suchtechnik eine umfassende Liste von Stichwörtern für die elektronische Suche generiert werden.

Die Suche nach relevanten Studien sollte ebenfalls in wichtigen Fachjournalen des entsprechenden Themengebietes erfolgen. Die meisten Fachjournale bieten online kostenlose Ansichten der Inhaltsverzeichnisse. Programme und Berichte von (Fach-) Konferenzen können nützliche Informationen über relevante AutorenInnen, Studien und ExpertenInnen eines Themengebietes geben. AutorenInnen, ForscherInnen und ExpertenInnen können direkt kontaktiert und um Zusendung bestimmter Studien gebeten werden. Letztlich können auch Regierungsbehörden oder staatlich beauftragte Forschungsinstitute umfangreiche Datenquellen liefern.

Das Beschaffen von Studienkopien sollte zunächst in Universitätsbibliotheken begonnen werden. Dort sind die meisten Fachartikel entweder in gedruckter oder elektronischer Form vorhanden. Die meisten Universitätsbibliotheken bieten darüber hinaus Fernleihe an. Weiterhin bietet sich die Möglichkeit an, kostenpflichtig Kopien von Studien zu bestellen, in Deutschland zum Beispiel über Subito. Problematisch ist die Beschaffung unveröffentlichter Literatur. Hier empfiehlt es sich Dissertationsarbeiten durchzusehen (Universitäten führen in der Regel Dissertationsdatenbanken) oder AutorenInnen und ForscherInnen des Gebiets zu kontaktieren, die im Rahmen der Literaturrecherche als ExpertenInnen identifiziert werden konnten (Lipsey & Wilson 2001: 23ff; Rosenthal 1994, Wagner & Weiß 2004: 484f).

Die zusammengetragenen Studien müssen dann durchgesehen und hinsichtlich ihrer Brauchbarkeit für die Metaanalyse bewertet und kodiert werden. Dabei werden alle Informationen kodiert, die zur Berechnung metaanalytischer Kennwerte nötig sind, wie Stichprobengrößen oder Zusammenhangsmaße. In diesem Rahmen werden weiterhin alle Merkmale kodiert, von denen angenommen wird, dass sie für die Erklärung der Varianz der Einzelergebnisse bedeutsam sind. Solche Moderatoren können methodischer Art sein, wie zum Beispiel die Operationalisierung der Variablen oder inhaltlicher Art sein, also aus theoretischen Überlegungen abgeleitet werden. Bestimmte Moderatoren können nicht mit Hilfe objektiver Kriterien bewertet werden, so unterliegt die Kodierung von Moderatoren einem relativ großen subjektiven Spielraum. Deshalb sollte der Kodierungsprozess stets von mehreren unabhängigen und gut geschulten Kodern durchgeführt werden, im Anschluss auf Unstimmigkeiten geprüft, (meist über das Maß der Interkoderreliabilität) und gegebenenfalls abgeglichen werden (Lipsey 1994, Lipsey & Wilson 2001: 73ff, Orwin 1994). Die Kodierung der Daten sollte computergestützt entweder mit speziellen Metaanalyseprogrammen, Datenbanksoftware oder gängigen Statistiksoftwareprogrammen erfolgen.

Die metaanalytische Datenanalyse umfasst im Wesentlichen zwei Schritte: Die Integration der Einzelergebnisse und die Untersuchung der Varianz der Einzelergebnisse. Zunächst müssen die einzelnen Befunde in standardisierte Effektstärken transformiert werden. Nur durch diese Transformationen können alle numerischen Daten verglichen und interpretiert werden. In diesem Rahmen werden die individuellen Effektstärken üblicherweise nach ihren Stichprobengrößen gewichtet und je nach metaanalytischer Technik und Fragestellung um Verzerrungen korrigiert (siehe Kapitel 6.5). Typische, in sozialwissenschaftlichen Metaanalysen verwendete, Effektstärkenmaße sind Korrelationskoeffizienten r und standardisierte Mittelwertsdifferenzen d. 5 (Lispey & Wilson 2001: 34ff). Mit den individuellen, gewichteten Effektstärken werden dann die mittleren Effektstärken berechnet. Generell gesprochen ist dabei eine Zusammenfassung der Effektstärken nur sinnvoll, wenn die einzelnen Effektstärken alle denselben Populationswert schätzen, die Effektstärken also homogen sind. Um Homogenität zu prüfen muss die Varianz zwischen den individuellen Effektstärken untersucht werden. Rührt die Varianz zwischen den einzelnen Effektstärken überwiegend von Stichprobenfehler her, liegt Homogenität vor.

Üblicherweise wird zur Prüfung der Homogenität entweder die 75% Regel nach Hunter & Schmidt (2004: 401f) angewandt oder der Homogenitätstest Q. Nach der 75% Regel wird Homogenität angenommen, wenn mehr als 75% der Varianz vom Stichprobenfehler herrühren (Lipsey & Wilson 2001: 105ff). Der Homogenitätstest Q wird in Kapitel 7.1 ausführlich dargestellt. Beim Vorliegen von Heterogenität sollte die Varianz zwischen den Effektstärken mit methodischen und inhaltlichen Moderatorvariablen untersucht werden. Anhand der Moderatorvariablen, werden die Effektstärken nach Subgruppen unterteilt und separat analysiert. Wird die Varianz in den Subgruppen gegenüber der Varianz aller Effektgrößen bedeutend kleiner, kann von einem Moderatoreffekt ausgegangen werden. Liegen die errechneten mittleren Effektstärken in Form von Korrelationen vor, können diese für weiterführende, kausalanalytische Verfahren verwendet werden (siehe Kapitel 7.2, 8.4 und 8.5 sowie Lispey & Wilson 2001: 155ff).

Bei der Präsentation und Interpretation der metaanalytischen Ergebnisse sollte die Voraussetzung der Objektivität und Replizierbarkeit stets im Vordergrund stehen. Dies erfordert die genaue und systematische Beschreibung der einzelnen oben dargestellten Schritte. Die Ergebnisse sollten in anschaulichen, nicht überlaufenen Graphiken dargestellt und hinsichtlich ihrer Implikation für Theorie und Praxis interpretiert werden, problematische Aspekte diskutiert und mögliche Ansätze für weitere Forschungsvorhaben aufgezeigt werden (Halvorsen 1994, Light et al. 1994).

2.2 Kritische Betrachtung von Metaanalysen

Die Stärke von Metaanalysen bei der Integration von Untersuchungsergebnissen resultiert wie bereits oben beschrieben, aus der quantitativen Orientierung, wodurch Replizierbarkeit und Objektivität gewährleistet werden. Prinzipiell kann mit metaanalytischen Verfahren eine unbegrenzte Anzahl von Einzelbefunden integriert werden, wodurch sichere Aussagen über Populationswerte getroffen werden können. Bei unterschiedlichen oder konträren Einzelbefunden können durch metaanalytische Verfahren Moderatorvariablen identifiziert werden. So dienen Metaanalysen nicht nur dazu den aktuellen Forschungsstand darzustellen, sondern tragen auch zum wissenschaftlichen Erkenntnisfortschritt bei (Lipsey & Wilson 2001: 5ff, Wagner & Weiß 2004: 479ff, Hunter & Schmidt 2004: 3ff).

Fast durchgängig finden sich jedoch in der Literatur Kritikpunkte beziehungsweise Schwächen, die bei Metaanalysen berücksichtigt werden müssen (Bortz & Döring 2006: 674ff, Lipsey & Wilson 2001: 7ff, Wagner & Weiß 2004: 495ff). Ein häufig genannter Kritikpunkt, das so genannte „Äpfel-Birnen-Problem“, bezieht sich darauf, dass Einzeluntersuchungen in Metaanalysen zusammengefasst werden würden, die eigentlich nicht vergleichbar sind. Die von Kritikern unterstellte mangelnde Vergleichbarkeit kann dabei aus verschiedenen Sachverhalten resultieren, wie Definitionen der unabhängigen und abhängigen Variablen, Operationalisierungen, Auswertungsmethoden oder speziellen Eigenschaften der Stichproben. Jedoch kann durch ein Zusammenfassen von Studien mit ähnlichen Eigenschaften in Subgruppen die Vergleichbarkeit hergestellt werden. Durch die Integration von Moderatorvariablen, die die Unterschiede zwischen den Studien repräsentieren, kann quantitativ untersucht werden, ob diese Variablen einen signifikanten Beitrag zur Erklärung unterschiedlicher Forschungsergebnisse leisten. Tatsächlich steht gerade in den Sozial- und Verhaltenswissenschaften die Erklärung unterschiedlicher Untersuchungsergebnisse primär im Fokus, wie in Kapitel 2 ausführlich dargelegt wird. Das „Äpfel-Birnen-Problem“ lässt sich deshalb nicht nur empirisch kontrollieren, sondern kann auch Gegenstand einer metaanalytischen Untersuchung sein.

Ein in der Literatur ebenfalls häufig diskutierter Kritikpunkt, das sogenannte „garbage in, garbage out-Problem“, bezieht sich auf Unterschiede bezüglich der methodischen Qualität der Studien, im Sinne von geringer interner Validität. Die Kritik wird darauf begründet, dass metaanalytische Ergebnisse nicht überzeugen könnten, wenn qualitativ schlechte Untersuchungen in die Analysen eingezogen werden würden. Prinzipiell können Studien minderer Qualität ausgeschlossen werden, jedoch sind dadurch Verzerrungen durch die Verringerung der Gesamtheit wahrscheinlich. Ähnlich wie auch beim „Äpfel-Birnen-Problem“ lässt sich jedoch auch das „garbage in, garbage out- Problem“ in der Metaanalyse empirisch kontrollieren. Die Studienqualität kann bei der Effektstärkenintegration als ein Gewichtungsfaktor berücksichtigt werden oder als Moderatorvariable zur Erklärung der Heterogenität in das Studiendesign eingefügt werden. Hierzu werden die Einzeluntersuchungen bezüglich relevanter Qualitätskriterien bewertet und kodiert wie beispielsweise Größe und Art der Stichprobe, Reliabilität der Messinstrumente oder Einsatz einer Kontrollgruppe. Anschließend werden diese Kriterien mit den Effektstärken in Beziehung gesetzt. Die Berücksichtigung der Qualität der Messinstrumente kann beispielsweise über die Einbeziehung von Minderungskorrekturen über die Reliabilitäten der Messinstrumente erfolgen (siehe Kapitel 6.5 & 6.6, sowie Hunter & Schmidt 2004). Der kritische Punkt hierbei ist jedoch, die Kriterien zu bestimmen, die methodisch gute und schlechte Studienqualitäten auszeichnen. „One difficulty is that, aside from a few simple canons, there is relatively little agreement among researchers on what constitutes methodological quality“ (Lipsey & Wilsnon 2001: 9). Die Verkodung von Studien nach Qualitätskriterien erlaubt einen gewissen Ermessensspielraum des/der ForschersIn, deshalb muss die Begründung und Bewertung der Qualitätskriterien besonders transparent und objektiv erfolgen, also möglichst von mehreren Kodern vorgenommen werden und auf Urteilsübereinstimmung geprüft werden (Orwin 1994).

Ein weiteres, häufig im Hinblick auf Metaanalysen vorgebrachtes, Problem betrifft systematische Verzerrungen durch bestimmte Formen von Selektivität in der Publikationspraxis. Der so genannte „publication bias“ resultiert aus der Annahme, dass vorrangig signifikante und hypothesenbestätigende Ergebnisse publiziert werden und nicht-signifikante Ergebnisse unveröffentlicht in der Schublade der ForscherInnen verbleiben (daher wird in diesem Zusammenhang auch die Bezeichnung „file drawer problem“ verwendet). Folglich wären auch die Ergebnisse von Metaanalysen verzerrt. Diesem Problem kann zum einen mit einer umfangreichen Recherchestrategie begegnet werden. In Kapitel 2.1 wurden bereits mehrere Recherchestrategien vorgestellt, mit denen auch unveröffentlichte Artikel bezogen werden können. Weiterhin stellen metaanalytische Verfahren eine Reihe von Techniken zur Verfügung, mit denen solche Verzerrungen identifiziert werden können. Ein gebräuchliches, grafisches Verfahren zur Prüfung eines publication bias ist der sogenannte „funnel plot“. Dabei werden in ein Koordinatensystem die Effektgrößen in Abhängigkeit ihrer Studiengröße (oder Standardfehler) eingetragen. Dabei wird die Tatsache genutzt, dass die Effektstärkenschätzungen mit zunehmender Stichprobengröße weniger stark um die wahre Effektstärke streuen. Liegt keine Verzerrung vor, nimmt das Streudiagramm die Form eines Trichters an. Liegt ein publication bias vor, dann enthält das Diagramm eine asymmetrische Form (Begg 1994, Bortz & Döring 2006: 697ff, Greenhouse & Iyengar 1994: 393ff). Abbildung 2 zeigt schematisch einen trichterförmigen, symmetrischen und einen asymmetrischen funnel plot.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Schematische Darstellung von funnel plots zur Prüfung eines publication bias (Bortz & Döring 2006: 698)

Metaanalysen können jedoch nicht nur durch fehlende Studienpublikationen verzerrt sein, sondern auch durch fehlende Informationen in den Studien selbst. Metaanalysen werden häufig durch mangelhaft berichtete Ergebnisse und Studiencharakteristika erschwert (fehlende statistische Kennwerte, ungenaue Beschreibung der Operationalisierung und so weiter). Mit Hilfe verschiedener Imputationsverfahren können zumindest einige statistische Kennwerte geschätzt werden (Pigott 1994). Ansonsten bleibt dem/der metaanalytischen ForscherIn nur die sehr aufwändige und oft nicht erfolgreiche Methode, die PublizistenInnen zu kontaktieren und um die fehlenden Informationen zu bitten. Auch diese Metaanalyse zur Theorie des geplanten Verhaltens ist von dem Problem fehlender Daten betroffen. Durch die überwiegend mangelhafte Beschreibung der Items konnte eine Forschungshypothese letztlich nicht geprüft werden (siehe Kapitel 4 & 6.2).

Die hier dargestellten Probleme beziehungsweise Schwächen von Metaanalysen sind die in der Literatur am häufigsten genannten. Wie aufgezeigt, gibt es zu jeder Problemstellung auch eine Vielzahl verschiedener Lösungsansätze, die hier längst nicht erschöpfend dargestellt worden sind. Wie im Einzelfall mit verschieden Problemen bei der Durchführung einer Metaanalyse verfahren wird, hängt letztlich immer vom speziellen Untersuchungsgegenstand, aber auch von objektiven Mitteln und Ressourcen des/der ForscherIn ab. Unabhängig von spezifischem Fachwissen, dass zur Durchführung einer guten Metaanalyse benötigt wird, sind die einzelnen Ablaufschritte extrem zeitaufwendig und letztlich kostenintensiv. Besonders die Literaturrecherche und Kodierung der Daten, kann sich über mehrere Jahre ziehen 6. Aufgrund dieses großen Aufwands, ist es in dieser Metaanalyse auch nicht möglich, alle Studien zur Theorie des geplanten Verhaltens mit einzubeziehen. Die Theorie des geplanten Verhaltens hat sich mittlerweile seit mehr als zwanzig Jahren etabliert und die Zahl zugehöriger Veröffentlichungen, liegt im vierstelligen Bereich. Eine kurze Darstellung der Theorie, erfolgt im nächsten Kapitel.

3. Die Theorie des geplanten Verhaltens

Die Theorie des geplanten Verhaltens (engl. Theory of Planned Behavior, kurz: TpB) ist ein statistisch umsetzbares Modell, das Verhaltensentscheidungen als Folge systematischer Verarbeitung wichtiger Verhaltenskonsequenzen annimmt. Die Theorie geht dabei vom rational handelnden Menschen aus, der Handlungen aufgrund reflektierter Bewertung von Handlungskonsequenzen ausführt oder nicht:

„…the theory of planned behavior is based on the assumption that human beings usually behave in a sensible manner; that they take account of available information and implicitly or explicitly consider the implications of their actions”(Ajzen 2005: 117).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Die Theorie des geplanten Verhaltens

Die TpB postuliert, dass Verhaltensausführung direkt nur durch die Intention, eine Verhaltensweise auszuführen und der wahrgenommene Verhaltenskontrolle determiniert wird. Die Intention repräsentiert die Motivation einer Person, ein bestimmtes Verhalten auszuführen. Dabei markiert das Entstehen einer Intention das Ende des Abwägungsprozesses von Vor- und Nachteilen unterschiedlicher Handlungsalternativen und kann daher als Indikator für die Stärke der Bemühungen und Anstrengungen gesehen werden, mit der ein Individuum bestimmte Handlungen ausführen möchte. Dabei gilt: Je höher die Intention einer Person ist ein bestimmtes Verhalten auszuführen, desto eher wird das Verhalten auch ausgeführt.

Das Konstrukt „wahrgenommene Verhaltenskontrolle“ bezieht sich auf die subjektive Einschätzung einer Person, wie einfach oder schwierig die Ausführung eines Verhaltens unter den gegebenen Rahmenbedingungen ist. Der direkte Einfluss der Verhaltenskontrolle auf das Verhalten beruht darauf, dass erfolgreiches Handeln oft nicht nur von den Intentionen einer Person abhängt, sondern ebenso von nicht- motivationalen Faktoren wie dem Zugang zu notwendigen Ressourcen wie Geld, Zeit, oder Wissen. Die Umsetzung einer Intention in Verhalten kann an der tatsächlich fehlenden, objektiven Verhaltenskontrolle scheitern. In diesem Falle ist die subjektiv wahrgenommene Verhaltenskontrolle nicht die kausale Ursache dafür, dass eine Intention nicht in tatsächliches Verhalten umgesetzt wird. Ihr direkter Einfluss auf das Verhalten basiert vielmehr darauf, dass sie als „Stellvertretervariable“ für die objektiv vorhandene Verhaltenskontrolle fungiert. Ajzen geht davon aus, dass in diesem Fall der direkte Einfluss der subjektiv wahrgenommenen Verhaltenskontrolle auf das tatsächliche Verhalten wiedergibt, wie gut eine Person die objektiv gegebene, tatsächliche Verhaltenskontrolle einschätzen kann. Nur wenn die subjektiv wahrgenommene Verhaltenskontrolle mit der tatsächlichen gegebenen Verhaltenskontrolle übereinstimmt, hat sie auch einen direkten Einfluss auf das Verhalten (Ajzen 1991:181ff, Ajzen 2005: 117ff).

Auf der zweiten Theorieebene postuliert die TpB, dass die Intention ihrerseits durch drei konzeptionell unabhängige Komponenten determiniert wird, der Einstellung zum Verhalten, der subjektiven Norm und der wahrgenommenen Verhaltenskontrolle 7. Das Konstrukt „Einstellung zum Verhalten“ ist als zusammenfassende, affektive Bewertung einer Person gegenüber einer spezifischen Verhaltensweise konzipiert. Das Konstrukt „subjektive Norm“ repräsentiert die Überzeugungen einer Person, wie wichtige Bezugspersonen die Ausführung einer spezifischen Handlung bewerten. Die subjektive Norm bildet somit den wahrgenommenen sozialen Druck einer Person ab, ein Verhalten aufzuführen oder nicht. Als antizipierte Erwartung, wie schwierig oder einfach die Ausführung einer spezifischen Handlung sein wird, hat die wahrgenommene Verhaltenskontrolle auch einen direkten Einfluss auf die Intentionsbildung. In der Regel entscheiden sich Menschen nicht für Handlungsalternativen, deren Ausführung sie als zu schwierig einschätzen. Als generelle Regel gilt auch hier: Je positiver die Einstellung zum Verhalten, je stärker die subjektive Norm und je höher die wahrgenommene Verhaltenskontrolle über ein spezifisches Verhalten, desto größer ist die Intention, dieses Verhalten auszuführen. Die Frage, mit welchem relativen Gewicht die Konstrukte zur Intentionsbildung beitragen, ist jedoch situations- und verhaltensabhängig und kann nur empirisch beantwortet werden:

„The relative importance of attitude, subjective norm, and perceived behavioral

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Die Theorie des geplanten Verhaltens: Konzept verhaltensrelevanten Überzeugungen (belief based measures)

Die Einstellung gegenüber dem Verhalten ist demnach eine Funktion von Überzeugungen (behavioral beliefs) die eine Person mit der Ausführung einer Verhaltensweise verbindet. Gemäß der Tradition des Wert-Erwartungsansatzes werden dabei analytisch zwei Komponenten dieser Überzeugungen unterschieden und multiplikativ verknüpft: subjektive Wahrscheinlichkeitszuschreibungen, dass eine Konsequenz auf die Verhaltensausführung folgt und die Bewertung dieser Verhaltenskonsequenzen zum Beispiel als gut oder schlecht, wichtig oder unwichtig.

Entsprechend setzt sich die subjektive Norm aus der multiplikativen Verknüpfung von Überzeugungen über Erwartungshaltungen spezifischer Bezugspersonen und der Bereitschaft diesen Erwartungshaltungen zu entsprechen zusammen (normative beliefs). Die wahrgenommene Verhaltenskontrolle resultiert aus Überzeugungen, wie wahrscheinlich bestimmte verhaltensfördernde beziehungsweise -behindernde Faktoren vorliegen, multipliziert mit der wahrgenommenen Verhaltenserleichterung dieser Faktoren (control beliefs) (Ajzen 2005: 123ff). Dabei betont Ajzen, dass bei der Bildung einer Einstellung, subjektiven Norm oder wahrgenommener Verhaltenskontrolle aufgrund der Begrenztheit menschlicher Informationsverarbeitungskapazität, nur wenige, bedeutsame (saliente) Überzeugungen eine Rolle spielen:

„People can hold a great many beliefs about any given behavior, but they can attend to only a relatively small number at any given moment“ (Ajzen 2005: 30).

Da die jeweils bedeutsamen, handlungsrelevanten Überzeugungen nach Art des Verhaltens, gegebenen Rahmenbedingungen und Untersuchungspopulationen variieren, betont Ajzen die Notwendigkeit, die salienten Überzeugungen vor jeder Hauptuntersuchung in einer Vorstudie empirisch zu ermitteln (Ajzen 1991: 192). Wie aus der Darstellung deutlich geworden sein dürfte, führt die TpB die Ausführung eines spezifischen Verhaltens kausal auf die mit diesem Verhalten verbundenen handlungsrelevanten Überzeugungen zurück. Aufgrund der postulierten Kette kausal miteinander verbundener Kognitionen, erhebt die TpB den Anspruch, Verhalten nicht nur zu prognostizieren, sondern auch zu erklären. Menschen bilden aufgrund direkter oder indirekter Erfahrungen Überzeugungen, welche Konsequenzen mit bestimmten Handlungen unter bestimmten Rahmenbedingungen verbunden sind und handeln entsprechend. Folglich können sich diese verhaltensrelevanten Überzeugungen durch neue Erfahrungen und veränderte Rahmenbedingungen verändern. Aus praktischer Sicht kann die Identifikation solcher verhaltensfördernder beziehungsweise verhaltenshemmender Überzeugungen unter Anwendung der Theorie des geplanten Verhaltens wichtige Ansatzpunkte für die systematische Entwicklung und Evaluation von Interventionen zur Verhaltensänderung liefern (Ajzen 2005: 136ff). Die zahlreiche Anwendung der Theorie des geplanten Verhaltens in den verschiedensten wissenschaftlichen Bereichen, sowie die mittlerweile beachtlichen Anzahl von Metaanalysen bestätigt die empirische Evidenz der Theorie (Armitage & Conner 2001, Albarracin et al. 2001, Hagger et al. 2002, Hausenblas et al. 1997, Manning 2009, Randall & Wolff 1994, Sheppard et al. 1988).

4. Untersuchungsgegenstand und Forschungshypothesen

Ziel dieser Metaanalyse ist die metaanalytische Integration von Einzelergebnissen zur Theorie des geplanten Verhaltens. Um die Robustheit der Theorie hinsichtlich unterschiedlicher Stichproben und Analyseverfahren empirisch zu prüfen, sollen dabei auch Vergleiche zu den Ergebnissen bisher durchgeführter Metaanalysen zur TpB vorgenommen werden. Im Fokus steht dabei die empirische Untersuchung von Moderatoreffekten in der Theorie des geplanten Verhaltens.

Zahlreiche Untersuchungen der verschiedensten Verhaltensweisen wurden bisher mit der TpB durchgeführt, wie Untersuchungen zu Gesundheitsverhalten, politischem Verhalten, Freizeitverhalten, ökonomischem Verhalten, Verkehrsverhalten etc. Die unterschiedlichen Verhaltensweisen die mit der TpB untersucht wurden, unterscheiden sich zum Teil sehr stark hinsichtlich ihrer Handlungskonsequenzen und werden aus unterschiedlichen Motivationen ausgeführt. Da die TpB Verhaltensentscheidungen als Folge systematischer Verarbeitung wichtiger Verhaltenskonsequenzen annimmt, sollte auch die Beziehung der einzelnen TpB-Variablen zwischen den verschiedenen Verhaltensweisen variieren. Entsprechend lautet die erste Forschungshypoteshese:

- Hypothese 1: Die Stärke der Beziehungen zwischen den TpB-Konstrukten ist abhängig von der Art des untersuchten Verhaltens.
Dabei interessieren nicht nur die bivariaten Beziehungen der einzelnen TpB-Konstrukte, sondern auch die Abhängigkeit der Konstruktzusammenhänge im Gesamtmodell von der Art des untersuchten Verhaltens. Mit Hilfe von Strukturgleichungsmodellen können die Konstruktzusammenhänge im Gesamtmodell sowie die Modellanpassung der Daten geprüft werden, hinsichtlich der Hypothese:
- Hypothese 1a: Die Konstruktzusammenhänge im Gesamtmodell sind abhängig von der Art des untersuchten Verhaltens.

[...]


1 Zitiert nach Ajzen (2005: 38)

Abbildung in dieser Leseprobe nicht enthalten

2 Zitiert nach Hunter & Schmidt (2004: 20).

3 Glass (1976) hat in seinem Pionierbeitrag für die Metaanalyse den Begriff „effect size“ (= Effektstärke) eingeführt um standardisierte, skalenfreie Mittelwertsdifferenzen zwischen Untersuchungs- und Kontrollgruppe zu bezeichnen. Mittlerweile hat sich der Begriff Effektstärke in der metaanalytischen Literatur für eine ganze Reihe weiterer statistischer Maßzahlen etabliert, wie Korrelationsmaße oder Unterschiedsmaße wie Cohen’s d (Wagner & Weiß 2004: 486).

Abbildung in dieser Leseprobe nicht enthalten

4 Zitiert nach Lipsey & Wilson (2001: 10).

Abbildung in dieser Leseprobe nicht enthalten

5 Die genaue Beschreibung aller Verfahren zur Effektstärkenberechnung sowie die Diskussion ob und welche Korrekturen durchgeführt werden, kann in diesem Rahmen nicht ausführlich dargestellt werden. Für ausführliche Diskussionen dieser Themen siehe Hunter & Schmidt (2004) sowie Lipsey & Wilson (2001).

Abbildung in dieser Leseprobe nicht enthalten

6 Manning (2009: 657) berichtet, dass die Kodierung und Dateneingabe für seine Metaanalyse zur Theorie des geplanten Verhaltens knapp 12 Jahre gedauert hat - trotz eines Assistententeams.

Abbildung in dieser Leseprobe nicht enthalten

7 In der englisch-sprachigen Fachliteratur spricht man bei diesen drei Konstrukten auch von den „direct measures“ der TpB. Die Verwendung dieses Begriffs macht die Abgrenzung zu den im Folgenden beschriebenen Messungen der verhaltensrelevanten Überzeugungen englisch:„belief based measures“ deutlich.

Ende der Leseprobe aus 100 Seiten

Details

Titel
Moderatoreffekte in der Theorie des geplanten Verhaltens - Eine Metaanalyse
Hochschule
Justus-Liebig-Universität Gießen
Note
1,0
Autor
Jahr
2010
Seiten
100
Katalognummer
V195802
ISBN (eBook)
9783656221272
ISBN (Buch)
9783656222170
Dateigröße
1104 KB
Sprache
Deutsch
Schlagworte
moderatoreffekte, theorie, verhaltens, eine, metaanalyse
Arbeit zitieren
Silke Timptner (Autor:in), 2010, Moderatoreffekte in der Theorie des geplanten Verhaltens - Eine Metaanalyse, München, GRIN Verlag, https://www.grin.com/document/195802

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Moderatoreffekte in der Theorie des geplanten Verhaltens - Eine Metaanalyse



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden