Lade Inhalt...

Mathematisches Planungsverfahren. Lineare Regressionsmethoden und lineare Optimierung

von Christian K. (Autor)

Seminararbeit 2014 26 Seiten

Mathematik - Sonstiges

Leseprobe

Inhalt

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

Formelverzeichnis

1. Einleitung

2. Lineare Regressionsanalyse

3. Multivariate lineare Regressionsanalyse

4. Lineare Optimierung
4.1. Graphischer Lösungsansatz

5. Simplex-Algorithmus

6. Praktische Anwendung
6.1. Einführung in Google Adwords
6.2. Praxisbeispiel zu Regressionsanalyse und Bestimmtheitsmaß
6.3. Anwendung des Solver-Add-Ins zur linearen Optimierung

7. Fazit

Literatur- und Quellenverzeichnis

Abbildungsverzeichnis

Abbildung 1: Punktwolke und Regressionsgerade

Abbildung 2: Graphische Lösung

Abbildung 3: Lineare Regressionsanalyse

Tabellenverzeichnis

Tabelle 1: Ausgangstableau

Tabelle 2: 1. Lösungsschritt

Tabelle 3: 2. Lösungsschritt

Tabelle 4: 3. Simplex-Endtableaus

Tabelle 5: Ausgangssituation Solver

Tabelle 6: Funktionen der Tabelle

Tabelle 7: Maximaler Deckungsbeitrag der Kampagnen

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Formelverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

Im Rahmen eines drei monatigen Praktikums bei einem Onlineanbieter von Sprachreisen zählte es zu meinen Tätigkeiten die Wirkung der Marketingmaßnah- men im Bereich der Suchmaschinenwerbung zu überprüfen und zu optimieren. Da nahezu das gesamte Werbebudget des Unternehmens in das Etat des Onlinemar- keting einfließt, wurde dieser Aufgabe eine besondere Bedeutung beigemessen. Zu diesem Zeitpunkt gab es bei dem Unternehmen noch keine Verfahren oder sta- tistisch erhobenen Daten, welche das Durchführern dieser Arbeiten ermöglicht hät- ten. Deshalb war es zunächst wichtig, diese Daten zu erheben um anschließend Aussagen über die verschiedenen Wirkungsgrade der Werbung zu treffen. Im An- schluss an die Recherche bediente ich mich an den von Excel zur Verfügung ge- stellten Tools, wie beispielsweise dem Solver oder der Regressionsanalyse, um die Reichweite und den Erfolg der verschiedenen Kampagnen zu ermitteln. Gerade für kleine und mittelständische Unternehmen, die auf ihren Onlineauftritt als einzige Vertriebsplattform angewiesen sind, ist es wichtig sich mit diesen Fragen zu be- schäftigen.

Das Ziel meiner Hausarbeit ist es, neben der Erläuterung der Funktionsweise der linearen Optimierung und Regressionsanalyse, die spezifischen ökonomischen Problemstellungen des Unternehmens mithilfe der Anwendung dieser Modelle zu lösen.

In 2. Kapitel wird die lineare Regressionsanalyse erklärt. Das Thema des 3. ist die multivariate lineare Regressionsanalyse. Die lineare Optimierung ist Thema des 4. Kapitels und Simplex-Algorithmus wird im 5. Kapitel behandelt. bevor es dann zu einer Schlussbetrachtung im 7. Kapitel kommt werden einige Beispiele der Methoden anhand des Unternehmens in 6. Kapitel dargestellt.

2. Lineare Regressionsanalyse

Die Regressionsanalyse ist eines der flexibelsten und am häufigsten verwendeten statistischen Analyseverfahren, welches sich mit der funktionalen Beziehung zweier Variablen ܺ und ܻ befasst.1 Unter der linearen Regression versteht man da- bei das Vorgehen der Approximierung einer Punktwolke durch eine lineare Trend- funktion.2 Das bedeutet, dass die Regressionsgerade den in den Punkten eines Vektorraums zum Ausdruck kommenden Zusammenhang zwischen ܺ und ܻ mög- lichst gut beschreiben soll.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Punktwolke und Regressionsgerade

Abbildung 1. stellt das

Streuungsdiagramm einer Zeitreihe da, in- dem jeder markierter Punkt ܲ௜ im Koordina- tensystem genau ei- nem Merkmal [Abbildung in dieser Leseprobe nicht enthalten] mit der dazugehörigen Messgröße [Abbildung in dieser Leseprobe nicht enthalten] ent- spricht. Das Streu- ungsdiagramm dieser Quelle: Luderer, B. / Würker, U. (2009), S. 373 Punktwolke zeigt, dass näherungsweise ein linearer Zusammenhang zwischen [Abbildung in dieser Leseprobe nicht enthalten] und [Abbildung in dieser Leseprobe nicht enthalten] besteht, welcher durch die Regressionsgerade der Form [Abbildung in dieser Leseprobe nicht enthalten] beschrieben werden kann.3

Bei der Entscheidung über den Typ der Regressionsfunktion kann man vorab von der Kenntnis über die Beziehung der Variablen profitieren. Zudem wäre es möglich eine Entscheidung nach der Interpretation der graphisch dargestellten Messwerte zu treffen.4 Die abhängige Variable ܻ wird auch als Regressand bezeichnet und wird im stochastischen Sinne als eine Zufallsgröße aufgefasst. Die unabhängige Variable ܺ bezeichnet man dagegen als Regressor.

Im einfachsten Fall, der linearen Regressionsanalyse welche auch als bivariate Regression bezeichnet wird, ist die Variable ܻ von ܺ linear abhängig. Dies kann mithilfe der Geradengleichung [Abbildung in dieser Leseprobe nicht enthalten] ausgedrückt werden. Die nicht direkt beobachtbare und zufallsbedingte Residualvariable wird durch ܷ௜ beschrieben. Da in der Regel keine eindeutige funktionale Abhängigkeit zwischen Regressand und Regressor bestehen, nimmt man an, dass sie zumindest im statistischen Mittel existiert. Diese nicht unmittelbar beobachtbare und zufällige Restvariable überlagert dabei additiv die mittlere statistische Abhängigkeit.5

Der primäre Anwendungsbereich der Analyse ist die Untersuchung von Kausalbe- ziehungen und wird insbesondere dann eingesetzt, wenn quantitative Zusammen- hänge beschrieben oder erklärt werden sollen.6 Typisch für eine lineare Funktion als Basis der Regressionsanalyse sind beispielsweise die Kostenfunktion in einem Unternehmen oder die volkswirtschaftliche Konsumfunktion.7 Die empirisch gewon- nen Messwerte werden bei der Regressionsgerade dazu verwendet, Prognosen hinsichtlich der Wertentwicklung zu treffen und Hypothesen über die Wirkungsbe- ziehungen zu überprüfen.8 Diese Trendanalyse ist ebenso bei kurz- oder mittelfris- tigen Zeitreihen, sowie bei Reihen, die einen linearen Trend erkennen lassen, möglich.9

Schon zu Beginn des 19. Jahrhunderts nutzte Gauß das Prinzip der kleinsten Quadrate welches zeigt, dass die Regressionsgerade [Abbildung in dieser Leseprobe nicht enthalten] dem Streu- ungsdiagramm dann am besten angepasst ist, wenn das Ergebnis aus der Quadratsumme [Abbildung in dieser Leseprobe nicht enthalten] minimal ausfällt.10 Die Regressions- gerade liefert somit im Vergleich zu anderen Geraden, die kleinstmögliche Summe von Abweichungsquadraten zwischen Beobachtungspunkten und Geradenpunk- ten.11 Bei dieser Minimierung der Fehlerquadratsumme werden die Approxima- tionsfehler [Abbildung in dieser Leseprobe nicht enthalten] für [Abbildung in dieser Leseprobe nicht enthalten] zunächst quadriert und im Anschluss summiert.12 Durch die Quadrierung der Abweichungen spielen die Vorzeichen der einzelnen Messpunkte für die Bildung von ܳ keine Rolle.13 Als Ergebnis der Me- thode der kleinsten Quadrate erhält man die Formeln für die Steigung der Regres- sionsgeraden ܾ und deren Ordinatenabschnitt ܽ. Die Berechnung der Regressions- koeffizienten erfolgt für die Funktion der Steigung[Abbildung in dieser Leseprobe nicht enthalten]

Achsenabschnitt[Abbildung in dieser Leseprobe nicht enthalten] Da ܾ ein Teil der rechten Seite der Ordinatenfunktion ist, wird dieser Wert zweckmäßigerweise zuerst bestimm.14

3. Multivariate lineare Regressionsanalyse

Die Aufgabe der multiplen Regressionsanalyse ist, wie auch bei der der einfachen linearen Regression, mithilfe einer möglichst einfachen mathematischen Funktion zu beschreiben und beschreibt, wie sich die Veränderung zweier oder mehrerer Regressoren und des Absolutglieds, auf einen Regressanten auswirkt.15 In der Praxis gibt es häufig mehr als eine Einflussvariable, weshalb die Anwendung einer Multiplen oder auch Multivariaten Regression sinnvoll ist.16 Bei der Interpretation ist zu beachten, dass die Koeffizientenschätzung der Regression den Einfluss der je- weiligen Regressoren bei Konstanthaltung aller anderen Regressoren wiedergibt. Es werden somit die jeweilig isolierten Einflüsse berechnet.17 Die multiple Regres- sionsanalyse kann sich beispielsweise in der folgenden Gleichung ausdrücken:18 [Abbildung in dieser Leseprobe nicht enthalten]

Mithilfe dieser Funktion könnte beispielsweise das Einkommen ܻ durch das Al- ter[Abbildung in dieser Leseprobe nicht enthalten] die Beschäftigungsdauer ߚଶ und dem Bildungsgrad[Abbildung in dieser Leseprobe nicht enthalten] erklärt werden. Dabei ist [Abbildung in dieser Leseprobe nicht enthalten] die additiv-lineare systematische Komponente und ߳ eine Fehlervariable.19 Als Maß für die Wichtigkeit der betreffenden Variablen darf allerdings nicht die Größe eines Regressionskoeffizienten angesehen werden. Die Berechnung erfolgt im Wesentlichen wie bei der einfachen Regressionsanalyse durch die Minimierung der Summe der Abweichungsquadrate.20 Im Unterschied zum einfachen Streudiagramm erscheint die Punktwolke der multiplen Regression als ein „gekrümmtes Gebilde“ im dreidimensionalen Raum.21

Bestimmtheitsmaß

Um die Eignung eines Regressionsmodells zur Erklärung eines Regressanten beurteilen zu können, bedient man sich dem Bestimmtheitsmaß ܴଶ bzw. dem ܴ[Abbildung in dieser Leseprobe nicht enthalten] Dieser gibt an, welcher Anteil der Gesamtvarianz von ܻ durch die Vari- anz des Regressionsmodells erklärt wird. Dabei nimmt ܴଶ einen Wert zwischen 0 und 1 an.22 Je näher ܴଶ bei 1 liegt, desto besser wird der Regressand durch die Regression erklärt. Umgekehrt würde die Regression mit einem Wert nahe 0 die Zielvariable weniger gut erklären.23 Das Bestimmtheitsmaß wird durch die Quadrie rung des Korrelationskoeffizienten [Abbildung in dieser Leseprobe nicht enthalten] von Bravais und Pearson ausge drückt.24

4. Lineare Optimierung

Die lineare Optimierung stellt ein mathematisches Teilgebiet dar, welches aus typischerweise unendlich vielen verschiedenen zulässigen Varianten die hinsichtlich eines bestimmten Kriteriums beste Variante auswählt. Im engeren mathematischen Sinne versteht man unter der Optimierung, die Suche nach der bestmöglichen Lösung innerhalb einer Menge zulässiger Varianten.25

Typischerweise treten diese Optimierungsprobleme in den verschiedensten Aufga- bengebieten der Technik und Ökonomie auf.26 Der Zweck einer Optimierungsauf- gabe ist, abhängig hinsichtlich ihrer Problemstellung, zumeist die Maximierung der Minimierung einer bestimmten Zielfunktion [Abbildung in dieser Leseprobe nicht enthalten]ܿ଴ unter den Neben bedingungen [Abbildung in dieser Leseprobe nicht enthalten].27 Die Suche nach einer optimalen Lösung bedeutet demnach, dass eine minimale oder maximale Lö- sung bestimmt wird, für die eine Zielfunktion ihren kleinsten bzw. größten Wert an- nimmt.28 In der Praxis kann diese Funktion beispielsweise ein Güte-, Qualitäts-, o- der Kostenkriterium eines technischen oder ökonomischen Prozesses sein. Dabei besteht das Optimierungsproblem aus den Komponenten der Entscheidungsvari- ablen, welche kontinuierliche Werte zwischen den gegebenen Begrenzungen an- nehmen können, die auch Beschränkungen oder Restriktionen genannt werden, welche die Form von Ungleichungen oder Gleichungen besitzen und einer zu opti- mierenden Funktion.

Die Entscheidungsvariablen können beispielsweise Produktionsmengen einzelner Produkte oder Varianten darstellen und ergeben somit den Lösungsraum einer ge- gebenen Entscheidungssituation. Diese Variablen werden im Allgemeinen als [Abbildung in dieser Leseprobe nicht enthalten] bezeichnet, wobei gilt, dass[Abbildung in dieser Leseprobe nicht enthalten] und alle ݆ Elemente reelle Zahlen sind. Dies bedeutet, dass alle Variablen jeweils im Besitz einer reellen Untergrenzez[Abbildung in dieser Leseprobe nicht enthalten]݈௝ und Obergrenz[Abbildung in dieser Leseprobe nicht enthalten] sind.29

[...]


1 Backhaus, K. / Erichson, B. (2008), S. 52

2 Luderer, B. / Würker, U. (2009), S. 379

3 Vgl. Luderer, B. / Würker, U. (2009), S. 373

4 Vgl. Purkert, W. (2012), S. 298

5 Vgl. Eckstein, P. (2008), S.312

6 Vgl. Backhaus, K. / Erichson, B. (2008), S. 52

7 Vgl. Zwerenz, K. (2009), S. 220

8 Zwerenz, K. (2009), S. 227

9 Zwerenz, K. (2009), S. 246

10 Vgl. Bamberg, G. / Baur, F. / Krapp, M. (2009), S. 39

11 Zwerenz, K. (2009), S. 222

12 Luderer, B. / Würker, U. (2009), S. 374f

13 Vgl. Purkert, W. (2012), S. 298

14 Vgl. Bamberg, G. / Baur, F. / Krapp, M. (2009), S. 40

15 Pinnekamp, H. / Siegmann, F. (2008) S. 149

16 Backhaus, K. / Erichson, B. / Plinke, W. / Weiber, R. (2008), S. 64

17 Vgl. Eckstein, P. (2008), S.332

18 Zwerenz, K. (2009), S. 228

19 Fahrmeir, L. / Künstler, R. / Pigeot, I. / Tutz, G. (2007), S. 494

20 Backhaus, K. / Erichson, B. / Plinke, W. / Weiber, R. (2008), S. 64f

21 Eckstein, P. (2008), S.334

22 Vgl. Pinnekamp, H. / Siegmann, F. (2008) S. 163

23 Vgl. Fahrmeir, L. / Künstler, R. / Pigeot, I. / Tutz, G. (2007), S. 498

24 Zwerenz, K. (2009), S. 222

25 Luderer, B. / Würker, U. (2009), S. 200f

26 Unger, T. / Dempe, S. (2010), S. 1

27 Vgl. Suhl, L. / Mellouli, T. (2006), S. 32f

28 Luderer, B. / Würker, U. (2009), S. 200

29 Vgl. Suhl, L. / Mellouli, T. (2006), S. 32f

Details

Seiten
26
Jahr
2014
ISBN (eBook)
9783668178847
ISBN (Buch)
9783668178854
Dateigröße
618 KB
Sprache
Deutsch
Katalognummer
v286144
Institution / Hochschule
Hochschule Bochum
Note
1,7
Schlagworte
mathematisches planungsverfahren lineare regressionsmethoden optimierung

Autor

  • Christian K. (Autor)

Teilen

Zurück

Titel: Mathematisches Planungsverfahren. Lineare Regressionsmethoden und lineare Optimierung