GARCH-Prozesse in Finanzwissenschaft: Vorhersage der SP500-Optionspreise


Seminararbeit, 2002

27 Seiten, Note: 1,3


Leseprobe


GARCH (THEORetischer TEIL)

Einleitung:

Bei der Analyse der verschiedensten Finanzzeitreihen (Aktien- und Wechselkursrenditen, aber auch Inflationsrate) wird häufig festgestellt, dass obwohl die eigentlichen Beobachtungen im Sinne eines ARMA-Prozesses nicht prognostizierbar sind (was die Annahme der Markteffizienz bekräftigt), sind deren Quadrate gut prognostizierbar. Anders ausgedrückt, obwohl die Beobachtungen keine signifikante Autokorrelationen aufweisen, sind diese trotzdem nicht unabhängig, und zwar wegen der Autokorrelationen in ihrer Varianz. Volatilität ist aber per se extrem wichtig in der Finanzwissenschaft und Praxis, deswegen wäre deren Vorhersage von größerer Bedeutung.

Außerdem ist häufig eine Situation vorhanden, wenn die quadrierten Residuen eines Modells autokorreliert sind. Solche stochastische Varianz der Residuen bringt mit sich eine Verzerrung der Standard-Errors, was die üblichen Signifikanztests für Parameterschätzungen für einfache (ohne Berücksichtigung solcher Volatilität) aufgebaute Regressionsmodelle unter Zweifel stellen kann.

Ein früherer Versuch, diesen Tatsachen entgegenzukommen, beruht auf dem Konzept der stochastischen Volatilität aus den 70er Jahren (insb. entwickelt von Clark, Tauchen, Pits). In diesen Modellen folgte die Volatilität einem eigenen stochastischen Prozess.

Ein deutlicher Durchbruch wurde im Jahre 1982 erzielt mit dem ARCH(1) Modell von Engle:

Abbildung in dieser Leseprobe nicht enthalten

Dabei wurde die Abhängigkeit der bedingten Varianz st2 von der vergangenen Realisierung des Prozesses selbst definiert. Das Modell kann intuitiv auf weitere Verzögerungen ausgeweitet werden, was ein ARCH (q)- Modell ergibt:

Abbildung in dieser Leseprobe nicht enthalten

Im Laufe der zahlreichen praktischen Implementierungen hat es sich jedoch herausgestellt, dass für genügend gute Anpassung eine ziemlich hohe Ordnung q notwendig wurde. Als Antwort auf diesen Makel wurde Ende der 80er Jahren von Bollerslev ein sog. GARCH-Modell entwickelt, welches im allgemeinen Fall viel sparsamer mit Parametern umgeht. Das Modell lässt im Vergleich zum ARCH auch die Abhängigkeit der bedingten Varianz von den eigenen verzögerten Werten zu.

GARCH bedeutet Generalized Autoregressive Conditional Heteroskedasticity. Im Rahmen eines stochastischen Prozesses xt = E(xt) +et bedeutet Heteroskedasticity eine im Laufe der Zeit sich ändernde Volatilität (Varianz)[1] der Residuen et. Diese Varianz ist außerdem bedingt (konditional), d.h. setzt die Abhängigkeit von den Beobachtungen aus der unmittelbaren Vergangenheit voraus. Diese Abhängigkeit wird weiterhin autoregressiv erfasst, das bedeutet die Abhängigkeit von den früheren Realisationen von xt und von sich selbst.

Die allgemeine Gleichung für einen GARCH(p, q) -Prozess lautet:

Abbildung in dieser Leseprobe nicht enthalten

Identifikation eines GARCH-Prozesses:

Bevor ein GARCH-Modell einer Zeitreihe angepasst und dessen Parameter geschätzt werden können, müssen 2 Dinge passieren:

- Die Existenz einer stochastischen dem GARCH-Modell entsprechenden Volatilität muss festgestellt werden.
- Die Ordnungen p und q des GARCH-Modells müssen bestimmt werden.

Es existieren zwar eine Reihe der Testsverfahren zur allgemeinen Identifikation der Heteroskedastizität (vgl. Whites’s General Test, Goldfeld-Quandt Test, Breusch-Pagan/Godfrey Test). Die Power von diesen kann aber deutlich verbessert werden, wenn als Null-Hypothese nur GARCH-Heteroskedastizität angenommen wird. Dabei kämen insbesondere folgende Tests in Frage:

- Lagrange Multiplier Test von Engle, mit Ho: Homoskedastizität gegen H1: ARCH(q)-Prozess. Die Statistik berechnet sich als Produkt der Länge des Beobachtungszeitraums und dem R2 aus der Regression von Residuen auf eine Konstante und vorherige q Residuen. Die Statistik ist asymptotisch c2 mit q Freiheitsgraden verteilt. Da ein beliebiger GARCH-Prozess durch einen ARCH-Prozess mit genügend hohem q approximiert werden kann (ähnlich wie eine Approximation von einem ARMA-Prozess durch einen MA-Prozess), kann der Test auch für diese verwendet werden. Der Test wird aber nur dann wirksam, wenn die Korrelationen in xt selber bereits entfernt wurden.

-Ein etwas mehr komplizierte aber ähnlicher (vgl. Green [1990], s.575) Lagrange Multiplier Test von Bollerslev für Ho: GARCH(p, 0) gegen H1: GARCH (p, q) oder ARCH (p + q).

Die Schätzung der Parameterordnungen p und q ist bei weitem viel simpler. Wie aus der Gleichung (2) folgt, folgt et2 einem ARMA (max(p, q), q) Prozess. Obwohl die Residuen nt eigentlich autokorreliert sind, können die klassischen ARMA-Ansätze zur unmittelbaren Schätzung von q und der oberen Grenze für p verwendet werden. Dabei käme insbesondere die Analyse der einfachen und partiellen Autokorrelationsfunktionen in Frage.

Schätzung der GARCH - Parameter:

Die Parameter innerhalb eines GARCH-Modells werden auf dem Wege der Maximum-Likelihood-Schätzung ermittelt.

Unter Annahme der standardverteilten Residuen Ut ist die entsprechende Likelihood-Funktion[2]:

Abbildung in dieser Leseprobe nicht enthalten

wobei die [Abbildung in dieser Leseprobe nicht enthalten] aus der Gleichung (1) ermittelt werden können.

Es werden also Parameter [Abbildung in dieser Leseprobe nicht enthalten] ermittelt, die diese Funktion maximieren. Dies erfolgt meistens iterativ und wegen des höheren Rechenaufwandes computerunterstützt (vgl. Green [1990], s. 571).

Wie man beweisen kann (Green [1990], s. 574), sollten Ut nicht normalverteilt sein, ist (3) eigentlich konzeptuell gesehen falsch. Das Maximieren der (3) erbringt aber die korrekten (erwartungstreue und konsistente) Parameterschätzungen[3], solange der GARCH-Error-Term den Erwartungswert gleich 0 und die Varianz gleich 1 besitzt[4]. In diesem Falle bezeichnet man den Vorgang als Pseudo-Maximum-Likelihood Schätzung.

Parameterrestriktionen, Stationarität, und unbedingte Varianz:

Da die bedingte Varianz nicht negativ werden darf, sollten zum einen alle bi nicht negativ sein. Zum anderen, sollten die Parameter ai und bi eines GARCH (p, q) Prozesses so sein, dass alle Parameter des ihm entsprechenden ARCH(¥)-Prozesses positiv sind. Eine hinreichende (dabei aber etwas restriktive) Bedingung wäre dass alle ai ebenfalls nicht negativ sein sollen. a 0 muss dabei positiv sein.

Die Bedingung für schwache Stationarität des GARCH-Prozesses xt lautet:

Abbildung in dieser Leseprobe nicht enthalten

Unter dieser Bedingung existiert definitionsgemäß eine unbedingte Varianz von xt, die folgendermaßen berechnet werden kann:

Abbildung in dieser Leseprobe nicht enthalten

Ein spezieller Fall entsteht, falls die Summe a(1) + b(1) nur geringfügig kleiner als 1 ist (unit-root -ähnliche Situation). In diesem Falle wird ein Schock in der bedingten Varianz sich sehr persistent verhalten in dem Sinne, dass er sehr lange den Verlauf der bedingten Volatilitäten bestimmen wird. Außerdem werden die Parameter in diesem Falle nicht konsistent berechnet. Diese Situation wird am besten mittels des sog. FIGARCH-Modells erfasst - einer GARCH-Variation, die (etwas vereinfachend ausgedrückt) einen „halb-integrierten“ Prozess unterstellt.

Modifikationen des GARCH-Modells:

Bei all der Popularität der GARCH- Modelle ist es keine Überraschung, dass eine Reihe von Modifikationen mit wohlklingenden Namen entstanden ist, die für Spezialfälle besser geeignet sind als das ursprüngliche GARCH-Modell (1).

Der Einfachheit halber wird im Folgenden von einem standardmäßigen GARCH(1,1)-Modell ausgegangen:

Abbildung in dieser Leseprobe nicht enthalten

Dabei sind insbesondere zu nennen (vgl. Mills S. 136 ff.):

Abbildung in dieser Leseprobe nicht enthalten

Das erzwingt, dass größere Innovationen et mit einem im Vergleich zum klassischen GARCH kleineren Faktor in die Bestimmung der bedingten Varianz eingehen. Das könnte von Vorteil sein, insb. bei der Bewältigung von Ausreißern.

- Exponential GARCH (EGARCH, entw. von Nelson in 1991):

Abbildung in dieser Leseprobe nicht enthalten

Diese Modifikation ist dazu gedacht, um empirisch häufig feststellbare Asymmetrie im Einfluss der negativen vs. positiven Innovationen et auf die bedingte Varianz besser modellieren zu können.

­

- Nonlinear ARCH ( NARCH, Higgins/Bera, 1992 )

Als Kombination von (1a) - (1c)

- Threshold ARCH ( TARCH, Zakoian 1994, 1992 )

Abbildung in dieser Leseprobe nicht enthalten

und I ist die Indikator-Funktion.

TARCH ermöglicht eine ähnliche Asymmetrie wie EGARCH, dabei aber hängt alles nur vom Vorzeichen der Innovation und nicht vom Ausmaß.

-Switching ARCH (SWARCH, Cai 1994)

Ein höchst originelles Konzept, welches darin besteht, einen Markov-Ketten-Ansatz zum Umschalten zwischen verschiedenen ARCH-Modellen zu verwenden.

-GARCH-in-Mean (GARCH-M, Engle/Lilien/Robbins 1987)

Abbildung in dieser Leseprobe nicht enthalten

Dabei beeinflusst die bedingte Standardabweichung mittels Faktors d auch direkt den Erwartungswert von xt. Dies ist konsistent mit den Annahmen des CAP-Modells, wonach die erwartete Rendite mit steigender Volatilität steigen soll. Dieser Einfluss kann dank dem Parameter q auch nichtlinear sein

- Die Modifikationen, welche die implizierte Volatilität und die Intraday-Renditen als exogene Faktoren integrieren (vgl. Blair. S.10):

Abbildung in dieser Leseprobe nicht enthalten

[...]


[1] Der Begriff „Volatilität“ kann je nach Kontext entweder Standardabweichung oder Varianz bedeuten.

[2] Die Likelihood-Funktion widerspiegelt die Wahrscheinlichkeit (oder eher den Wert der Verteilungsdichte), dass bei gegebenen Parametern (in diesem Falle a0, a 1,..., a q, b 1,..., b p) der theoretisch vorgegebene (in diesem Falle in der Gleichung (1)) Prozess x1, ..., xt die realisierte (d.h. tatsächlich beobachtete) Werte X1,..., Xt erreichen würde. Da diese Verteilungsdichte häufig Exponenten aufweist, wird Logarithmus als monotone Transformation verwendet.

[3] Dies gilt aber nur für Parameterschätzungen selber und nicht z.B. für Kovarianzschätzungen der Parameterschätzungen (covariations of parameter estimates), was insb. für Signifikanztests eine benachteiligende Auswirkung hat.

[4] wie z.B. im Falle einer mittels Faktor (n-2)/n standardisierten Student-t (n) - Verteilung, welche sehr häufig zur Beschreibung der finanziellen Zeitreihen taugt

Ende der Leseprobe aus 27 Seiten

Details

Titel
GARCH-Prozesse in Finanzwissenschaft: Vorhersage der SP500-Optionspreise
Hochschule
Europa-Universität Viadrina Frankfurt (Oder)  (FB Finanzwissenschaft)
Veranstaltung
Seminar Zeitreihenanalyse
Note
1,3
Autor
Jahr
2002
Seiten
27
Katalognummer
V10943
ISBN (eBook)
9783638172349
Dateigröße
1312 KB
Sprache
Deutsch
Schlagworte
GARCH-Prozesse, Finanzwissenschaft, Vorhersage, SP500-Optionspreise, Seminar, Zeitreihenanalyse
Arbeit zitieren
Volodymyr Perederiy (Autor:in), 2002, GARCH-Prozesse in Finanzwissenschaft: Vorhersage der SP500-Optionspreise, München, GRIN Verlag, https://www.grin.com/document/10943

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: GARCH-Prozesse in Finanzwissenschaft: Vorhersage der SP500-Optionspreise



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden