Grundlagen der Regressionsanalyse


Exzerpt, 2016

15 Seiten, Note: 1,1

Anonym


Leseprobe


Inhaltsverzeichnis

1 Regressionsmodelle
1.1 Klassisches lineares Regressionsmodell
1.2 Regressionsmodelle für Paneldaten
1.2.1 Gepooltes Modell
1.2.2 Fixed Effects Modell
1.2.3 Random Effects Modell

2 Regressionsvoraussetzungen
2.1 Linearität
2.2 Multikollinearität
2.3 Heteroskedastizität
2.4 Autokorrelation
2.5 Normalverteilung der Residuen

3 Gütekriterien zur Prüfung der Regressionsfunktion
3.1 Bestimmtheitsmaß
3.2 F-Statistik
3.3 t-Statistik

Literaturverzeichnis

1 Regressionsmodelle

Die Regressionsanalyse zählt zu den statistischen Analyseverfahren und untersucht die Beziehung zwischen einer abhängigen Variablen (Regressand) und einer oder mehreren unabhängigen Variablen (Regressor). Auf Basis eines aus fachlichen Gesichtspunkten aufgestellten Modells wird im Rahmen der Regressionsanalyse eine Gleichung geschätzt, die den Zusammenhang zwischen der abhängigen und den unabhängigen Variablen möglichst genau beschreiben soll. Daraus abgeleitet liegt das Einsatzgebiet der Regressionsanalyse insbesondere in der Untersuchung von Kausalbeziehungen und wird darüber hinaus für Prognosen der abhängigen Variablen genutzt.[1]

Da die Schätzung der Regressionsfunktion in Abhängigkeit von den zugrunde liegenden Daten vorgenommen wird[2], werden nachfolgend verschiedene Regressionsmodelle vorgestellt.

1.1 Klassisches lineares Regressionsmodell

Das klassische lineare Regressionsmodell bildet die Ausgangsbasis der Regressionsanalyse und nimmt einen linearen Zusammenhang zwischen der abhängigen und einer oder mehreren unabhängigen Variablen an. Die Effekte der einzelnen unabhängigen Variablen setzen sich somit additiv zusammen und ergeben die in Gleichung (1) abgebildete lineare Regressionsgleichung.[3]

Abbildung in dieser Leseprobe nicht enthalten

So ergibt sich (yi) als Linearkombination der im weiteren Verlauf herauszuarbeitenden Determinanten (xij). Dabei gibt der Regressionskoeffizient βj an, um wie viele Einheiten sich die abhängige Variable yi verändert, wenn sich die unabhängige Variable xj um eine Einheit verändert.[4] Das Residuum еi, das auch als Störterm bezeichnet wird, stellt die Abweichung zwischen den tatsächlich beobachteten Werten und den durch die Regressionsfunktion geschätzten Werten dar, indem alle Einflussfaktoren, die durch die abhängigen Variablen nicht erfasst werden, addiert werden.[5]

Im klassischen linearen Regressionsmodell wird die Schätzung der unbekannten Regressionskoeffizienten βj üblicherweise mit Hilfe der Methode der kleinsten Quadrate durchgeführt, die auch Ordinary Least Squares (OLS) genannt wird. Bei diesem Schätzverfahren werden die Regressionskoeffizienten βj so bestimmt, dass die Summe der quadrierten Residuen еi, minimal ist. Daraus folgt, dass die abhängige Variable yi weitestgehend durch die unabhängigen Variablen xij erklärt wird.[6]

1.2 Regressionsmodelle für Paneldaten

Paneldaten weisen für die jeweiligen Untersuchungsobjekte (i) eine Matrix aus abhängigen und unabhängigen Variablen (y, x) auf. Als weitere Ebene beinhalten Paneldaten die Dimension der Zeit (t), sodass für jedes Untersuchungsobjekt (i) mehrere Beobachtungen vorliegen.[7] Es liegt dabei ein balanced Panel vor, wenn für alle Objekte i zu allen Zeitpunkten der Untersuchung t Beobachtungswerte vorliegen. Von einem unbalanced Panel wird gesprochen, wenn nur unvollständige Daten vorhanden sind.[8] Die hohe Bedeutung von Paneldaten für die empirische Forschung liegt vor allem in der zweidimensionalen Datenstruktur begründet. Denn Paneldaten beschreiben analog zu Querschnittsdaten vorhandene Unterschiede zwischen den Untersuchungsobjekten und ermöglich darüber hinaus analog zu Zeitreihendaten Rückschlüsse auf über die Zeit auftretende Veränderungen.[9] Um die Vorteile von Paneldaten nutzen zu können, sind adäquate Schätzmodelle heranzuziehen, die sich nach dem Modell der Grundgesamtheit richten und nachfolgend beschrieben werden.

1.2.1 Gepooltes Modell

Das gepoolte Modell greift die Eigenschaften von Paneldaten auf, indem zusätzlich zur Dimension der Untersuchungsobjekte i auch die zeitliche Dimension t berücksichtigt wird.[10] Daraus ergibt sich die in Gleichung (2) abgebildete Regressionsgleichung für gepoolte Modelle.[11]

Abbildung in dieser Leseprobe nicht enthalten

Die Heterogenität der Beobachtungen sowohl in der Zeit- als auch in der Querschnittsdimension bleibt bei gepoolten Modellen unberücksichtigt. Dies führt dazu, dass Paneldaten zwar durch eine erhöhte Anzahl an Beobachtungszeitpunkten ausgenutzt werden, die einzelnen Beobachtungswerte eines Untersuchungsobjekts aber als voneinander unabhängig betrachtet werden.[12] Das effiziente Schätzverfahren für gepoolte Modelle bildet die gepoolte OLS-Regression, die analog zur oben beschriebenen Methode der kleinsten Quadrate durchgeführt wird.[13]

1.2.2 Fixed Effects Modell

Das Fixed Effects Modell basiert wie das unter Abschnitt 1.2.3 beschriebene Random Effects Modell auf der Annahme, dass der Einfluss der unabhängigen Variablen nicht zwischen den einzelnen Untersuchungsobjekten variiert, es aber unbeobachtete, zeitkonstante Faktoren auf Ebene der Untersuchungsobjekte gibt, die sich durch eine Niveauverschiebung bei der abhängigen Variablen zeigen.[14] Das Fixed Effects Modell, dessen Regressionsgleichung unter Gleichung (3) abgebildet ist, kommt dann zum Tragen, wenn für jedes Untersuchungsobjekt über den Beobachtungszeitrum konstante Effekte vorliegen.[15]

Abbildung in dieser Leseprobe nicht enthalten

Das sich für das Fixed Effects Modell ergebende effiziente Schätzverfahren wird als Least Squares Dummy Variable (LSDV) bezeichnet. Dessen grundsätzliche Idee ist es, die individuelle Heterogenität durch entsprechende Transformationen aus der Regressionsgleichung zu entfernen. So wird bei diesem Schätzverfahren von allen unabhängigen Variablen jeweils der über den gesamten Beobachtungszeitraum gerechnete Mittelwert abgezogen, wodurch alle zeitkonstanten und objektspezifischen Einflüsse wegfallen. Anschließend wird mit den dann zentrierten Variablen eine gewöhnliche OLS-Schätzung durchgeführt.[16]

1.2.3 Random Effects Modell

Das Random Effects Modell, dessen Regressionsgleichung unter Gleichung (4) dargestellt ist, kommt dann zur Anwendung, wenn für jedes Untersuchungsobjekt über den Beobachtungszeitrum zwar zeitkonstante Effekte vorliegen, diese aber zufällig variieren.[17]

Abbildung in dieser Leseprobe nicht enthalten

Das sich für das Random Effects Modell ergebende effiziente Schätzverfahren wird als Feasible Generalised Least Squares (FGLS) bezeichnet. Bei diesem Schätzverfahren wird von den unabhängigen Variablen nur ein Anteil des gesamten Gruppenmittelwerts subtrahiert. Dieser Anteil ist abhängig von der Anzahl der Perioden sowie den Varianzen der beiden Störterme, die unbekannt sind und daher geschätzt werden müssen. Abschließend wird mit diesen quasi-zentrierten Variablen eine gewöhnliche OLS-Schätzung durchgeführt.[18]

Ein wesentlicher Vorteil des Random Effects Modells gegenüber dem Fixed Effects Modell besteht in der Möglichkeit, über den Beobachtungszeitrum konstante unabhängige Variablen in die Analyse einschließen zu können.[19]

[...]


[1] Vgl. Backhaus, K. (2016), S. 64 ff., Bleymüller, J. u.a. (2008), S. 139, Poddig, T. u.a. (2008), S. 215, Urban, D., Mayerl, J. (2011), S. 39.

[2] Vgl. Windzio, M. (2013), S. 12.

[3] Vgl. Fahrmeir, L. u.a. (2009), S. 19 f., Hackl, P. (2013), S. 30, Poddig, T. u.a. (2008), S. 215.

[4] Vgl. Urban, D., Mayerl, J. (2011), S. 38.

[5] Vgl. Dreger, C. u.a. (2014), S. 20, Hackl, P. (2013), S. 31.

[6] Vgl. Giesselmann, M. Windzio, M. (2012), S. 21 f., Poddig, T. u.a. (2008), S. 225, Urban, D., Mayerl, J. (2011), S. 45 f.

[7] Vgl. Arminger, G., Müller, F. (1990), S. 4, Giesselmann, M., Windzio, M. (2012), S. 17 f., Hsiao, C. (2003), S. 1.

[8] Vgl. Baltagi, B.H. (2010), S. 181, Greene, W.H. (2008), S. 184.

[9] Vgl. Rässler, S., Wolf, K. (2005), S. 105, Winker, P. (2010), S. 17.

[10] Vgl. Brooks, C. (2014), S. 526. Giesselmann, M., Windzio, M. (2012), S. 29 f.

[11] Vgl. Giesselmann, M., Windzio, M. (2012), S. 29, Greene, W.H. (2008), S. 266.

[12] Vgl. Dreger, C. u.a. (2014), S. 260, Wooldridge, J.M. (2002), S. 5 f.

[13] Vgl. Giesselmann, M., Windzio, M. (2012), S. 38, von der Lippe, P. (2010), S. 20.

[14] Vgl. Rässler, S., Wolf, K. (2005), S. 107.

[15] Vgl. Brooks, C. (2014), S. 529, Giesselmann, M., Windzio, M. (2012), S. 31, Rässler, S., Wolf, K. (2005), S. 107, Schröder, A. (2009), S. 317.

[16] Vgl. Hsiao, C. (2003), S. 32, von der Lippe, P. (2010), S. 18.

[17] Vgl. Brooks, C. (2014), S. 536, von der Lippe, P. (2010), S. 220, Wooldridge, J.M. (2002), S. 469 f.

[18] Vgl. Auer, B., Rottmann, H. (2010), S. 549, Brooks, C. (2014), S. 563, Hackl, P. (2013), S. 21, Wooldridge, J.M. (2002), S. 470

[19] Vgl. Verbeek, M. (2000), S. 316.

Ende der Leseprobe aus 15 Seiten

Details

Titel
Grundlagen der Regressionsanalyse
Hochschule
FOM Essen, Hochschule für Oekonomie & Management gemeinnützige GmbH, Hochschulleitung Essen früher Fachhochschule
Note
1,1
Jahr
2016
Seiten
15
Katalognummer
V346639
ISBN (eBook)
9783668362307
ISBN (Buch)
9783668362314
Dateigröße
768 KB
Sprache
Deutsch
Anmerkungen
Exzerpt aus der ebenfalls im GRIN-Verlag erschienenen Master-Arbeit "Determinanten des Working Capital Managements. Eine empirische Analyse von deutschen börsennotierten Unternehmen", ISBN (eBook): 9783668362406, ISBN (Buch): 9783668362413
Schlagworte
grundlagen, regressionsanalyse
Arbeit zitieren
Anonym, 2016, Grundlagen der Regressionsanalyse, München, GRIN Verlag, https://www.grin.com/document/346639

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Grundlagen der Regressionsanalyse



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden