Lade Inhalt...

Vergleich von alternativen Verfahren zur Berechnung des Value-at-Risk anhand internationaler Aktienindizes

Bachelorarbeit 2011 59 Seiten

BWL - Bank, Börse, Versicherung

Leseprobe

Inhaltsverzeichnis

I. Abstract

III. Abkürzungsverzeichnis

IV. Abbildungsverzeichnis

V. Tabellenverzeichnis

1. Einleitung
1.1. Motivation
1.2. Ziel und Aufbau der Arbeit

2. Value-at-Risk als RisikomaSS
2.1. Risikomaße
2.2. Marktrisiko
2.3. Anforderungen an Risikomasse
2.4. Definition des Value-at-Risk (VaR)
2.5. Kritik

3. Empirische Eigenschaften von Aktienrenditen
3.1. Stationarität
3.2. Stylized Facts
3.3. Volatility Clustering

4. Eigenkapitalvorschriften nach Basel II

5. Alternative VaR-Verfahren und Validierung der Value-at-Risk-Prognosen
5.1. Historische Simulation
5.1.1. Vorgehen
5.1.2. Bewertung der Historischen Simulation
5.2. VaR-Prognose mit univariaten GARCH-Modellen
5.2.1. ARCH
5.2.2. GARCH
5.2.3. VaR Prognose mit dem GARCH(1,1)-Modell
5.2.4. Beurteilung der univariaten GARCH-Modelle
5.3. Filtered Historical Simulation (FHS)
5.3.1. Vorgehen
5.3.2. Beurteilung der FHS

6. Backtesting
6.1. Unconditional Coverage
6.2. Conditional Coverage
6.2.1. Christoffersens Interval Forecast Test
6.2.2. Joint Test

7. Empirische Simulationsstudie
7.1. Überblick
7.2. Datengrundlage und deskriptive Statistik
7.3. Anwendung der alternativen VaR Ansätze
7.4. Out-of-Sample VaR-Prognoseergebnisse
7.4.1. HS
7.4.2. GARCH (1,1)
7.4.3. FHS
7.5. Beurteilung der Backtesting-Ergebnisse
7.6. Interpretation der Backtesting-Ergebnisse

8. Fazit

VI. Anhang A

VII. Anhang B

VIII. Anhang C

IX. Anhang D

X. Anhang E

XI. Literaturverzeichnis

XII. Eidesstattliche Erklärung

I. Abstract

Eine genaue Abschätzung bestehender Marktrisiken ist ausschlaggebend für eine adäquate Beurteilung der Risikosituation eines Finanzinstituts. Um die Stabilität des Finanzsystems zu gewährleisten, gibt der Basler Ausschuss für Bankenaufsicht einen regulatorischen Rahmen zur Abschätzung von Marktrisiken vor. Hierfür liefert die empirische Vergleichsstudie in der vorliegenden Arbeit eine umfassende Analyse alternativer Ansätze zur Berechnung der Risikomaßzahl "Value-at-Risk" (VaR). Um einen Bezug zwischen Theorie und Praxis herzustellen, werden in der Vergleichsstudie alternative VaR-Ansätze anhand von vier internationalen Aktienindizes analysiert. Dabei liegt die wissenschaftliche Besonderheit dieser Simulationsstudie im Vergleich der Prognosegüte dreier verschiedener Arten von Ansätzen: Es werden parametrische, nicht parametrische und semi-parametrische Ansätze verglichen. Vor allem folgt der Beweis, dass die Anwendung von nicht parametrischen Ansätzen zu einer sehr starken Unterschätzung des Marktrisikos führen kann. Überaus gute Ergebnisse dagegen erzielen die GARCH-Ansätze, welche durch die Modellierung der zeitveränderlichen Volatilität eine genaue Prognostizierung der Risiken gewährleisten. Besonders hervorgehoben wird der Ansatz der gefilterten historischen Simulation (FHS), da er trotz einer sparsameren Parametrisierung sehr gute Ergebnisse liefert.

III. Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

IV. Abbildungsverzeichnis

Abb. 1: VaR unter Annahme der Normalverteilung. Es sind die VaR-Quantile für 95%- und 99%- Konfidenzniveaus dargestellt.

Abb. 2: Tägliche Log-Renditen des Euro Stoxx 50 2000 2010

Abb. 3: Tägliche Indexwerte des Euro Stoxx 50 von 2000 bis 2010 mit exponentieller Regression als Trendlinie

Abb.4: Histogramm der täglichen Renditen des Euro-Stoxx-50-Index im Zeitraum vom 30.12.1999 bis 30.12.2010 und die Dichtefunktion der Normalverteilung.

Abb. 5: HSI-Index mit VaR(5%), Schätzfenster=250

Abb. 6: HSI-Index mit VaR(5%), Schätzfenster=1000

Abb. 7: HSI-Index mit VaR(5%), Schätzfenster=250

Abb. 8: HSI-Index mit VaR(5%), Schätzfenster=250

Abb. A1: Kursverlauf RTS

Abb. A2: Renditeverlauf RTS

Abb. A3: Kursverlauf S&P 500

Abb. A3: Kursverlauf S&P 500

Abb. A4: Renditeverlauf S&P 500

Abb. A5: Kursverlauf HSI

Abb. A6: Renditeverlauf HSI

Abb. A7: Kursverlauf Euro Stoxx 50

Abb. A8: Renditeverlauf Euro Stoxx 50

Abb. B1: Histogramm der täglichen Renditen des RTS-Index

Abb. B2: Histogramm der täglichen Renditen des S&P 500-Index

Abb. B3: Histogramm der täglichen Renditen des HSI-Index

Abb. B4: Histogramm der täglichen Renditen des Euro-Stoxx-50-Index

Abb. E1: RTS-Index mit VaR(5 %), Schätzfenster = 250

Abb. E2: RTS-Index mit VaR(5 %), Schätzfenster = 1000

Abb. E3: RTS-Index mit VaR(1 %), Schätzfenster = 250

Abb. E4: RTS-Index mit VaR(1 %), Schätzfenster = 1000

Abb. E5: Euro-Stoxx-50-Index mit VaR(1 %), Schätzfenster = 250

Abb. E6: Euro-Stoxx-50-Index mit VaR(1 %), Schätzfenster = 1000

Abb. E7: Euro-Stoxx-50-Index mit VaR(5 %), Schätzfenster = 250

Abb. E8: Euro-Stoxx-50-Index mit VaR(5 %), Schätzfenster = 1000

Abb. E9: S&P-500-Index mit VaR(1 %), Schätzfenster = 250

Abb. E10: S&P-500-Index mit VaR(1 %), Schätzfenster = 1000

Abb. E11: S&P-500-Index mit VaR(5 %), Schätzfenster = 250

Abb. E12: S&P-500-Index mit VaR(5 %), Schätzfenster = 1000

V. Tabellenverzeichnis

Tab.1: Mögliche Ausprägungen von , wenn die Indikatorvariablen bzw. die Werte 0 und 1 annehmen.

Tab. 2: Dickey-Fuller-Test für Euro Stoxx 50 Renditen

Tab.3: Summary Statistik der täglichen Renditen von vier Aktienindizes für den Zeitraum: 30.12.1999 – 30.12.2010

Tab. 4: Farbliche Kennzeichnung der kritischen Werte in den Tabellen D1 und D2 hinsichtlich der Höhe der kritischen Werte der Chi-Quadrat-Verteilung

Tab. 5: Vergleich der Ansätze zur Berechnung des VaR nach der Anzahl der Backtesting-Rejections

Tab. C1: Tabelle der kritischen Werte der Chi-Quadrat-Verteilung

Tab. D1: Ein-Tages-VaR Backtesting-Ergebnisse für RTS und S&P 500

Tab. D2: Ein-Tages-VaR Backtesting-Ergebnisse für HSI und Euro Stoxx 50

1. Einleitung

1.1. Motivation

Seit Beginn des 20. Jahrhunderts versuchen Wissenschaftler und Ökonomen, Modelle zu entwickeln, - die Vorhersagen über Renditen und Volatilitäten der Finanzinstrumente auf den internationalen Märkten ermöglichen. Angesichts der neuen Anforderungen wird heute immer mehr Wert auf die Weiterentwicklung des Risikomanagements gelegt. Denn die erfolgreiche Steuerung und Analyse von Marktrisiken gilt heutzutage als das zentrale Instrument zur Positionierung der Finanzinstitute am Markt und als Mittel globale Finanzkrisen zu überstehen.

Zur Absicherung gegen unerwartete Marktentwicklungen hinterlegen Kreditinstitute hinreichend Eigenkapital, wobei eine zu hohe Eigenkapitalreserve mit zusätzlichen Kapitalkosten verbunden ist, da hierdurch Ressourcen gebunden werden, die gewinnbringend investiert werden könnten. Von gravierender Bedeutung erscheinen daher die adäquate Marktrisikomessung und die Bestimmung der optimalen Eigenkapitalquote. Die parallel laufende, externe Risikoüberwachung durch staatliche und internationale Aufsichtsbehörden erhöht die Relevanz des Themas. Laut Basel-II-Regelungen kann die Eigenkapitalanforderung für Marktrisiken über ein internes Modell auf Basis des Risikomaßes „Value-at-Risk“ (VaR) ermittelt werden. Jedoch muss dieses Modell durch Backtesting von den Aufsichtsbehörden genehmigt werden, damit sichergestellt wird, dass die Verwendung des Modells zu keiner systematischen Unterschätzung des Risikos, sondern zu einer angemessenen Eigenkapitalhinterlegung führt. Für eine adäquate Quantifizierung der Marktrisiken bedarf es deshalb eines VaR-Modells, das den Basel-II-Anforderungen entspricht und gleichzeitig eine möglichst niedrige Eigenkapitalquote gewährleistet.

1.2. Ziel und Aufbau der Arbeit

Das Ziel dieser Arbeit besteht in einer Gegenüberstellung und Analyse von Modellen, die am besten zur Prognose des Marktrisikos geeignet sind. Für einen umfangreichen Vergleich werden der nicht parametrische Ansatz der historischen Simulation (HS), der parametrische Ansatz mit dem GARCH (1,1)-Modell[1] und der semiparametrische Ansatz der gefilterten historischen Simulation (FHS) herangezogen. Bevor die einzelnen Verfahren zur Berechnung des VaR untersucht werden können, muss zunächst der VaR als Risikomaßzahl klar definiert werden. Die Qualität der Schätzungen des VaR hängt bei den meisten Modellen direkt davon ab, wie realitätsnah sie die empirischen Eigenschaften der Renditezeitreihen modellieren können. Daher müssen zuerst die grundlegenden statistischen Eigenschaften dargestellt und erläutert werden. In Kapitel 6 werden alternative VaR-Ansätze vorgestellt, die im weiteren Verlauf der Arbeit näher betrachtet und in der Simulationsstudie angewandt werden. Die Abschätzung der Risiken ist unabhängig von dem gewählten Modell immer mit einer gewissen Schätzunsicherheit verbunden. Deswegen werden die grundlegenden Backtesting-Methoden erläutert, die die Prognosegüte der bereits beschriebenen VaR-Modelle überprüfen. Das Kapitel 8 befasst sich mit der selbstständig erarbeiteten, empirischen Studie. Hierbei werden die mit mehreren Modellen simulierten VaR-Werte mit den historischen Renditen verglichen. Mithilfe der Tests von Kupiec (1995) und Christoffersen (1998) wird die Prognosegüte der Verfahren analysiert. Schließlich werden alle Daten und Ergebnisse grafisch und tabellarisch dargestellt und im letzten Kapitel die zentralen Erkenntnisse dieser Arbeit zusammengefasst.

2. Value-at-Risk als Risikomaß

2.1. Risikomaße

Risiken resultieren ursachenbezogen aus der Unsicherheit zukünftiger Ereignisse und schlagen sich wirkungsbezogen in einer negativen Abweichung von einer festgelegten Zielgröße nieder. Die Höhe der Risiken hängt hierbei vom Ausmaß der möglichen Zielverfehlungen sowie von den ihnen jeweils zuzurechnenden Wahrscheinlichkeiten ab (vgl. Schulte et al. (2004)). Jorion (2007) unterteilt Risiken in zwei Kategorien: Geschäfts- und finanzielle Risiken. Geschäftsrisiken entstehen aufgrund veränderter Rahmenbedingungen (z. B. des Marktumfelds, des Kundenverhaltens und des technischen Fortschritts). Bei den finanziellen Risiken unterscheidet Jorion (2007) nochmals vier Arten (Marktrisiko, Liquiditätsrisiko, Kreditrisiko, Operationelles Risiko), wobei im Rahmen dieser Arbeit lediglich das Marktrisiko von Relevanz ist, da ebendiese Abschätzung von Marktrisiken den Schwerpunkt dieser Arbeit darstellt.

2.2. Marktrisiko

Als Marktrisiko wird das systematische Risiko eines finanziellen Verlustes bezeichnet, der aufgrund einer negativen Änderung von Marktpreisen bzw. Volatilität eines Basiswertes hervorgerufen wird. Zur Überwachung und Steuerung dieser Risiken verwenden Kreditinstitute quantitative Kenngrößen, sog. Risikomaße. Diese Risikomaße sollen zum einen Aussagen über die Eintrittswahrscheinlichkeiten und zum anderen über die Höhe des Risikos ermöglichen (vgl. Schulte et al. (2004)).

2.3. Anforderungen an Risikomaße

Im Folgenden soll geklärt werden, welche Eigenschaften für ein qualitativ gutes Risikomaß charakteristisch sind. Eine Liste von Axiomen, die Anforderungen an ein kohärentes Risikomaß stellen, wurde von Artzner et al. (1999) vorgeschlagen. Eine [Abbildung in dieser Leseprobe nicht enthalten]reellwertige Funktion f: von reellwertigen Zufallsgrößen, die die Verluste modellieren, ist ein kohärentes Risikomaß, falls gilt:

Abbildung in dieser Leseprobe nicht enthalten

Da die Abschätzung von Marktrisiken den Schwerpunkt dieser Arbeit darstellt, soll zunächst überlegt werden, welche Risikomaße am besten für die Messung, Überwachung und Steuerung der Marktrisiken geeignet sind. Dabei wird vor allem auf die Abschätzung von Aktienkursrisiken Wert gelegt. Um zu berücksichtigen, dass nur negative Abweichungen von den erwarteten bzw. realisierten Renditen als Risiko verstanden werden, hat sich die Ausfallswahrscheinlichkeit, bzw. das „Shortfall Risk“ als Risikomaß etabliert (vgl. Roy, A. D. (1952) und Spremann (2006)). Um diesen Risikobegriff abdecken zu können, existieren Risikomaßzahlen, die diese Ausfallsrisiken berücksichtigen.

Aufgrund der Anforderungen, die durch das Basel-II-Rahmenwerk an Banken gestellt werden, stehen mittlerweile wesentlich mehr Zielverfehlungsrisikomaßzahlen im Fokus der Forschung. Die Frage, die sich in diesem Zusammenhang stellt, lautet: „Wie viel liquide Reserven von Banken oder Versicherungen gehalten werden müssen, um im Falle des Eintritts eines außergewöhnlich großen Verlustes handlungsfähig, liquide und solvent zu bleiben“ (Artzner et al. (1999)).

Bei Zielverfehlungsmaßzahlen existieren zwei Herangehensweisen. Einerseits kann eine Risikomaßzahl messen, mit welcher Wahrscheinlichkeit ein Verlust bzw. das Nichterreichen einer Zielgröße in einer vorab definierten Höhe eintreten wird. Andererseits kann gemessen werden, wie hoch ein Verlust mit einer vorab definierten Wahrscheinlichkeit ausfallen wird. Für beide Herangehensweisen existieren entsprechende Risikomaßzahlen (vgl. Bertling (2009)).

2.4. Definition des Value-at-Risk (VaR)

Im letzten Fall ist der Value-at-Risk (VaR) die am weitesten verbreitete Maßzahl im Risikomanagement, die als Grundlage sowohl für die unternehmensinterne Risikomessung und -steuerung, als auch für die aufsichtsrechtlichen Meldeverfahren und erforderlichen Eigenkapitalunterlegungen fungiert (vgl. Franke (2004)). Der VaR ist im eigentlichen Sinne eine Darstellung des finanziellen Marktrisikos (vgl. Jorion (2007)). Der VaR wird definiert als

- der geschätzte (erwartete)
- maximale Verlustbetrag in Geldeinheiten des Marktwertes einer Position/eines Portfolios,
- der sich unter normalen (bisherigen) Marktkonditionen aufgrund der Schwankung spezifizierter Marktfaktoren
- innerhalb eines bestimmten Zeitintervalls (Zeithorizont oder Haltedauer)
- mit einer vorgegebenen Wahrscheinlichkeit (Konfidenzniveau ) ergibt

(vgl. Saunders (2001)).

Damit drückt der VaR einen potenziellen Risikobetrag aus, in dem sich aus dem normativ vorgegebenen Konfidenzniveau [Abbildung in dieser Leseprobe nicht enthalten]für einen bestimmten Zeitraum der erwartete Maximalverlust widerspiegelt. Im Folgenden sei angenommen, dass Renditen normalverteilt sind. Dann ließe sich der VaR in Abb. 1 ablesen.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: VaR unter Annahme der Normalverteilung. Es sind die VaR-Quantile für 95%- und 99%- Konfidenzniveaus dargestellt. Quelle: Eigene Darstellung

Analytisch gesehen, lässt sich der VaR in Anlehnung an Jorion (2007) ebenfalls anschaulich formulieren:

Abbildung in dieser Leseprobe nicht enthalten

Der Zeithorizont gibt die Länge des Zeitraums in Handelstagen an, für die der VaR als Risikopotenzial gilt. Sollte ein 10-Tages-VaR nach Basel-II-Vorschriften ausgerechnet werden, so darf die Quadratwurzelregel für die Bestimmung der Variable τ verwendet werden. Die einem Konfidenzintervall zugeordnete Wahrscheinlichkeit ( ) wird als Konfidenzniveau bezeichnet. Es gibt die Wahrscheinlichkeit an, mit der ein durch dieses Intervall bestimmter Verlust nicht überschritten wird. Das VaR-Verfahren ist ausgerichtet auf das mit dem Konfidenzniveau korrespondierende α-Quantil. Dieses bezieht sich auf eine Dichteverteilung der Portfoliowertveränderungen (hier: Renditen) in einem bestimmten Zeitraum.

Aus dem α-Quantil einer stetigen Verteilung wird der VaR abgeleitet (siehe Abb. 1). Das α-Quantil einer stetigen Verteilung ist derjenige Wert £, für den gilt, dass die Größe der Fläche zwischen x-Achse und der Grafik der dargestellten Dichtefunktion f(x) im Intervall von [Abbildung in dieser Leseprobe nicht enthalten]bis £ gerade α ist.

Der VaR lässt sich also als Verlustgrenze des Portfolios definieren, die im Zeitraum τ nur mit der Wahrscheinlichkeit α noch überschritten werden kann. Abb. 1 zeigt, dass die Renditen mit einer Wahrscheinlichkeit von 95 % in einem Konfidenzintervall von 1,65 Standardabweichungen liegen. Mit der komplementären 5%-igen Wahrscheinlichkeit werden sie außerhalb dieser Grenze liegen. Ökonomisch betrachtet spiegelt der VaR also den monetären Verlust wider, der am linken äußeren Rand der Verteilung liegt und somit die Grenze des entsprechenden Konfidenzintervalls darstellt.

2.5. Kritik

Mit der Festlegung des Konfidenzniveaus können auch Probleme verbunden sein. Denn je höher das Konfidenzniveau, desto weniger Überschreitungen werden toleriert. Das bedeutet, dass mit hohen Konfidenzniveaus folgende Problemkreise verbunden sind: Extreme Wertschwankungen treten sehr selten auf, so dass fundierte statistische Aussagen über deren Häufigkeit im Sinne des Konfidenzniveaus schwer zu treffen sind. Darüber hinaus sind bei hohen Konfidenzniveaus zahlreiche Simulationsdurchgänge erforderlich, um verlässliche Aussagen über das Quantil zu generieren. Folglich ist die Prognosegüte bei einem Konfidenzniveau von 95 % häufig höher und es ist wahrscheinlicher, dass die VaR-Limits eingehalten werden, als dies bei einer 99%-igen Wahrscheinlichkeit der Fall ist (vgl. Meyer (1999)).

Darüber hinaus muss stets im Auge behalten werden, dass die Interpretation der VaR-Zahlen ohne Zeithorizont und Konfidenzniveau keinen Sinn ergibt. Die Finanzinstitute, die aktiv ihre Portfolios veräußern, verwenden zumeist einen 1-Tages-Zeithorizont im Vergleich zu Instituten bzw. Unternehmen, die einen längeren Horizont vorziehen. (vgl. Linsmeier et al. (1996)). Dowd (1998) zeigt, dass Unternehmen das Zeitintervall so wählen müssen, dass dieses der Liquidationsdauer ihres Portfolios entspricht. Außerdem muss bei den Verfahren, die auf der Annahme der Normalverteilung basieren, auch ein vergleichsweise kurzer Zeithorizont angewendet werden (vgl. Meyer (1999)).

Wie in diesem Kapitel gezeigt wurde, scheint die Berechnung des VaR unter der Annahme der Normalverteilung plausibel und einfach zu sein. Allerdings ist diese Annahme fehlerhaft und besitzt zahlreiche Nachteile, die von grundsätzlicher Bedeutung sind und daher im nächsten Kapitel beschrieben werden müssen.

3. Empirische Eigenschaften von Aktienrenditen

Im vorherigen Kapitel wurde der VaR als Risikomaß dargestellt, welches der quantitativen Messung von Marktrisiken dient. Zur genauen Abschätzung des VaR soll die Renditeverteilung adäquat modelliert werden. Dafür können verschiedene Modelle eingesetzt werden, die in späteren Kapiteln erläutert werden. Hierbei hängt die Qualität der Schätzung erheblich davon ab, wie gut die gewählten Verfahren die Eigenschaften der Renditezeitreihen widerspiegeln. An dieser Stelle sei erwähnt, dass nur die stetigen bzw. logarithmierten Renditen sinnvoll auf statistische Eigenschaften untersucht werden können. Es sei Pt der Aktienkurs zum einem Zeitpunkt t, dann gilt für die Log Rendite :

Abbildung in dieser Leseprobe nicht enthalten

Im Vergleich zu den diskreten Renditen ist die Aggregation der logarithmierten Renditen (II) über k Einzelperioden durch Summation der Einzelrenditen möglich. Darüber hinaus sind die statistischen Grundeigenschaften von Renditen ausschlaggebend dafür, dass die Renditen mathematischen gesehen den Preisen vorzuziehen sind. Zu diesen Eigenschaften zählt vor allem die Stationarität.

3.1. Stationarität

Stationarität bezieht sich auf die Stabilität statistischer Eigenschaften im Zeitverlauf. Diese ist notwendig, um jedwede Form von statistischer Zeitreihenanalyse durchführen zu können. Im finanzwirtschaftlichen Kontext bezieht sich Stationarität auf die Stabilität der Renditeverteilung im Zeitverlauf. Das heißt, dass die gemeinsame Verteilung der Renditen r(t1,T),…r(rn,T) der Verteilung der Renditen r(t1+k,T+k),…r(rn+k,T+k) entspricht. Preiszeitreihen sind nicht stationär, da sie meist einen Trend aufweisen, während Renditezeitreihen stationär um den Mittelwert der Renditen liegen (vgl. Cont (2001)). Dieser Sachverhalt wird in den Abbildungen 2 und 3 veranschaulicht:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2: Tägliche Log-Renditen des Euro Stoxx 50 2000 2010; Quelle: Eigene Darstellung

In Abb. 2 ist der Verlauf der empirischen Renditen als eine Schwankung um den theoretischen Erwartungswert von null zu interpretieren. Wie zu erkennen ist, sind die Renditezeitreihen stationär, da kein Trend vorhanden ist. Die entsprechenden Indexwerte bzw. Preise weisen dagegen einen negativen Trend auf:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3: Tägliche Indexwerte des Euro Stoxx 50 von 2000 bis 2010 mit exponentieller Regression als Trendlinie; Quelle: Eigene Darstellung

3.2. Stylized Facts

Die anderen charakteristischen Eigenschaften der Renditezeitreihen werden in der Literatur als „stylized facts“ bezeichnet. Sie stellen eine Zusammenfassung von empirischen Beobachtungen und Zusammenhängen zwischen diesen Beobachtungen dar, die für die meisten Finanzzeitreihen näherungsweise gelten. In Anlehnung an Christoffersen (2003) und Cont (2001) können die wichtigsten „stilisierten“ Fakten erläutert werden als:

a) Nichtexistenz von Autokorrelation. Lineare Autokorrelation ist nicht signifikant, außer bei sehr kleinen Zeitperioden (ca. 20 Minuten).
b) Überproportional große Wahrscheinlichkeitsmasse an den Rändern der leptokurtischen Renditeverteilung („Fat Tails“)
c) Asymmetrie zwischen Auf- und Abwärtsbewegungen der Preise. Es sind stärkere Abwärtsbewegungen der Aktienkurse zu verzeichnen, sodass die Aufwärtsbewegungen diese nicht kompensieren.
d) Verschiedene Volatilitätsmaße weisen signifikant positive Werte für Autokorrelation über mehrere Tage auf („ Volatility Clustering “).

Die Kurtosis K beschreibt die Form einer Verteilung und beträgt für eine Normalverteilung K = 3. Wie in Abb. 4 zu erkennen ist, weisen die empirischen Renditen eine leptokurtische, «hochgipflige» Verteilung auf (Kurtosis > 3), sodass die Renditezeitreihen mehr Wahrscheinlichkeit in der Mitte und an den Rändern besitzen. Vielmehr implizieren die breiteren Ränder eine höhere Wahrscheinlichkeit für große Verluste, als die Normalverteilung das voraussieht.

Abbildung in dieser Leseprobe nicht enthalten

Abb.4: Histogramm der täglichen Renditen des Euro-Stoxx-50-Index im Zeitraum vom 30.12.1999 bis 30.12.2010 und die Dichtefunktion der Normalverteilung. Quelle: Eigene Darstellung (EViews 6)

3.3. Volatility Clustering

Empirische Analysen zeigen, dass sich die Volatilität bzw. Varianz im Zeitablauf verändert (vgl. Cont (2001) und Mandelbrot (1963)). Volatilitäten tendieren dazu, Cluster zu bilden. Wie in Abb. 2 zu erkennen ist, treten turbulente Phasen auf, in denen die Volatilität sehr hoch ist und die Renditen heftig schwanken. Die Nichtstationarität der Varianz innerhalb einer Datenmessung wird in der Statistik als Heteroskedastizität bezeichnet (vgl. Engle (1982)). Die Aktienrenditen sind an sich nicht autokorreliert, jedoch besitzen die absoluten und die quadrierten Renditen | rt | eine signifikant positive und monoton fallende Autokorrelationsfunktion corr(| rt |, | rt+ρ |) > 0, für ρ im Bereich von wenigen Minuten bis zu mehreren Wochen (vgl. Cont (2005) und Cont (2001)).

Diese grundlegenden Eigenschaften der Finanzzeitreihen sollen bei der Modellierung der Verlust- bzw. Renditeverteilung berücksichtigt werden, um möglichst genaue Ergebnisse bei der VaR-Ermittlung zu erhalten.

4. Eigenkapitalvorschriften nach Basel II

Die Darstellung des Marktrisikos ist nicht nur für die interne Risikosteuerung notwendig, sondern auch für die externe Offenlegung und für aufsichtsrechtliche Zwecke. Zur Festlegung der Eigenkapitalanforderung für das Marktrisiko nach Basel II ist die Bestimmung des VaR zwingend vorgeschrieben. Zur Bestimmung ebenjener werden bankinterne Modelle vom Basler Ausschuss befürwortet, die auf der Berechnung des VaR basieren. Die Wahl des VaR-Modells bleibt zwar im Verantwortungsbereich der Finanzinstitute, muss aber von der Aufsichtsbehörde anerkannt werden (Fricke 2005). Zur Festlegung der Eigenkapitalanforderung für das Marktrisiko nach Basel II wird täglich die 10-Tages-Prognose für den VaR mit dem Konfidenzniveau [Abbildung in dieser Leseprobe nicht enthalten] bestimmt. Die Berechnung erfolgt auf Basis der historischen Daten von mindestens einem Jahr (etwa 250 Handelstagen). Diese Beobachtungsperiode wird geringstenfalls einmal im Quartal aktualisiert (vgl. Jorion (2007)). Für die Bestimmung der regulatorischen Eigenkapitalanforderung werden zwei Werte betrachtet: die 10-Tages-VaR-Prognose des letzten Tages und der Mittelwert der 10-Tages-VaR-Prognosen der letzten 60 Tage multipliziert mit dem Multiplikator M. Der größere der beiden Werte stellt die Höhe des Eigenkapitals dar, die vom Finanzinstitut hinterlegt werden muss:

Abbildung in dieser Leseprobe nicht enthalten

Zur Vereinfachung der Berechnung des geforderten 10-Tages-VaR ist es erlaubt, die 1-Tages-VaR Prognose als Grundlage für die Berechnung des 10-Tages-VaR mit der Quadratwurzelregel zu nutzen:

Abbildung in dieser Leseprobe nicht enthalten

Genau genommen gilt die dargestellte Skalierung nur, wenn für die Renditen eine Normalverteilung mit Erwartungswert null unterstellt wird und die Renditen unabhängig und identisch verteilt sind (i. i. d. independent and identically distributed) (vgl. Fricke (2005)). Der Multiplikator M wird von den Aufsichtsinstanzen festgelegt. Der minimale Wert beträgt M = 3. Er wird jedoch erhöht, falls das Backtesting anzeigt, dass die Qualität der Prognosen unbefriedigend ist. Diese Maßnahme schafft Anreize für die Finanzinstitute ihre internen Modelle zu verbessern, da eine Erhöhung des Multiplikators zu einer höheren Eigenkapitalanforderung und folglich zu höheren Kapitalkosten führt.

5. Alternative VaR-Verfahren und Validierung der Value-at-Risk-Prognosen

Neben den in der Praxis verwendeten Ansätzen haben sich in der wissenschaftlichen Forschung der letzten Jahre einige Ideen zur Ausgestaltung des Konzepts Value-at-Risk entwickelt. Empirische Charakteristika der Renditezeitreihen werden bei diesen neueren Ansätzen verstärkt einbezogen. Die neueren Ansätze lassen sich in die Kategorien nicht parametrische, parametrische und semi-parametrische Ansätze unterteilen.

5.1. Historische Simulation

Die klassische historische Simulation ist der am häufigsten angewendete nicht parametrische Ansatz zur Ermittlung des VaR in der Praxis. Der Vorteil dieses Ansatzes besteht darin, dass keine Annahmen über die Verteilung der Renditezeitreihe benötigt werden. Des Weiteren ist es bei diesem Ansatz nicht notwendig, die Varianz-Kovarianz-Matrix der m Wertpapiere zu bestimmen. Stattdessen wird die historische Datengrundlage genutzt, um die empirische Verteilung zu schätzen. Die VaR-Prognose wird über die Ermittlung des α -Quantils der historischen Portfoliorenditezeitreihe ri berechnet. Zur Berechnung des VaR sind vollständige historische Zeitreihen zu allen Risikofaktoren über einen Zeitraum von mindestens ca. 250 Handelstagen erforderlich. (vgl. Meyer (1999)).

5.1.1. Vorgehen

1) Zuerst müssen das Portfolio, alle relevanten Marktrisikofaktoren sowie das notwendige Konfidenzintervall für eine gewählte Zeitperiode festgelegt und identifiziert werden.

2) Aus den historischen Marktpreisen, z. B. Schlusskursen der Aktienindizes, lassen sich dann T historische Veränderungen der Risikofaktoren, also Renditen, ermitteln, die auf den heutigen Marktpreis bzw. den aktuellen Kurs der Risikofaktoren übertragen werden. Daraus ergeben sich N Szenarien, für welche die Wertänderungen der einzelnen M Assets berechnet werden. Unmittelbar daraus folgt die Änderung des Portfoliowertes Δ Vi in jedem der N Szenarien, d. h., das Portfolio wird anhand der simulierten Szenarien bewertet.

3) Die simulierten N Portfoliowertänderungen sind der Größe nach zu ordnen, sodass gilt: ΔV1 ≤ ΔV2…≤ ΔVN.

4) Es ergibt sich eine simulierte empirische Renditeverteilung. Der VaR, der sich mit einer Sicherheit von [Abbildung in dieser Leseprobe nicht enthalten]ergibt, ist dann als dem Konfidenzintervall entsprechendes α-Quantil durch Abzählen ermittelbar.

Abbildung in dieser Leseprobe nicht enthalten

Beispielsweise kann der VaR für ein Konfidenzniveau von z. B. [Abbildung in dieser Leseprobe nicht enthalten]bei einer Historie von 250 Tagen als |ΔV12| abgelesen werden, wobei der ermittelte Wert[Abbildung in dieser Leseprobe nicht enthalten] immer auf die ganze Zahl nach unten abgerundet werden soll.

Bei täglicher Neuberechnung des VaR liegen über die Zeit mehrere Ausprägungen dieser Risikokennzahl vor, die zur Evaluierung (sog. Backtesting) des VaR genutzt werden. Aus diesem Grund wird der Ein-Tages-VaR mithilfe eines gleitenden Schätzfensters von t Tagen ermittelt. Wird ein gleitendes Schätzfenster der Länge [Abbildung in dieser Leseprobe nicht enthalten] benutzt, resultieren verschiedene 1-Tages-VaR’s.

5.1.2. Bewertung der Historischen Simulation

Als ein zentraler Vorteil der HS kann festgehalten werden, dass das Verfahren intuitiv am einfachsten nachvollziehbar ist und somit nur ein geringer Erklärungsbedarf nötig ist. Im Vergleich zu den parametrischen Ansätzen ist die explizite Festlegung der Renditeverteilung bzw. Bestimmung der Momente der Verteilung nicht erforderlich. Es muss nicht unterstellt werden, dass sich die Risikofaktoren wie ein Random Walk (Zufallsbewegung) verhalten. Kommt es infolge extremer Parameterveränderungen, z. B. überraschender Kursverluste, zu Änderungen der Korrelationen, werden diese automatisch erfasst. Der größte Vorteil der HS besteht darin, dass die beobachtete empirische Renditezeitreihe solche Eigenschaften der Renditeverteilung enthalten kann, die von keinem parametrischen Modell erfasst werden können.

Problematisch erscheint jedoch die Auswahl des Schätzfensters, da es keine genauen Vorgaben über die Dauer der relevanten Zeitperiode gibt. Eine kürzere Periode hat den Vorteil hoher Aktualität. Allerdings kann eine zu ruhige bzw. volatile Periode zu einer Unter- bzw. Überschätzung des VaR führen. Demgegenüber können lange Schätzfenster den Sample-Error aufgrund eines größeren Stichprobenumfangs reduzieren. Damit ist ein Trade-off zwischen der Größe des Samples und der Relevanz der Beobachtungen im Sample festzustellen. Bei längeren Schätzfenstern ist es wahrscheinlich, dass sich das Niveau der Volatilität zwischenzeitlich geändert hat, wodurch ältere Datenpunkte an Relevanz verlieren. Damit sind ältere Daten weniger relevant. Die Annahme der Repräsentanz der Marktbewegungen ist somit sehr kritisch. Ereignisse, die in der Vergangenheit nicht vorgekommen sind, können mit dieser Methodik nicht prognostiziert werden. Dies schließt aber das Ausbrechen derartiger Ereignisse in der Zukunft nicht aus, womit im Falle eines Eintretens gravierende Folgen bzw. Verluste zu erwarten wären (vgl. Jorion (2007)).

5.2. VaR-Prognose mit univariaten GARCH-Modellen

Zahlreiche empirische Studien haben gezeigt, dass die Volatilität der Finanzzeitreihen zeitveränderlich ist und dazu tendiert, Cluster zu erzeugen. Der Ansatz der historischen Simulation hat diese Erkenntnis bei der Modellierung der Renditeverteilung ignoriert. Bei den GARCH- und ARCH-Modellen wird versucht, die zeitveränderliche Volatilität adäquat zu modellieren, was zur besseren Abschätzung der Marktrisiken führen soll.

5.2.1. ARCH

Die Grundidee dieser Modelle besteht in der Beschreibung der Volatilität durch einen parametrischen Ansatz. Die aktuelle Volatilität wird durch die Charakteristika der historischen Zeitreihe bestimmt. (vgl. Fricke (2005)). Ausgangspunkt der Überlegungen ist die Modellierung der Renditezeitreihe rt als Regressionsmodell

Abbildung in dieser Leseprobe nicht enthalten

Hier gibt[Abbildung in dieser Leseprobe nicht enthalten] den Informationsstand zum Zeitpunkt t-1 an. Der Wert ut wird ferner als Innovation bzw. Residuum bezeichnet, da er die Abweichung der tatsächlichen Renditezeitreihe vom Erwartungswert darstellt. Des Weiteren sei zur Vereinfachung der Erwartungswert[Abbildung in dieser Leseprobe nicht enthalten] als μt bezeichnet, sodass gilt:

Abbildung in dieser Leseprobe nicht enthalten

Engle formulierte 1982 das ARCH(p)-Modell (a uto r egressive c onditional h eteroscedasticity), indem die bedingte Varianz in Abhängigkeit von den quadrierten Innovationen modelliert wird:

Abbildung in dieser Leseprobe nicht enthalten

Um eine positive bedingte Varianz zu gewährleisten, müssen [Abbildung in dieser Leseprobe nicht enthalten]und[Abbildung in dieser Leseprobe nicht enthalten] sein. Aus dieser Formulierung heraus ist die wesentliche Eigenschaft der Modellierung deutlich erkennbar. Große Abweichungen der Renditezeitreihe rt vom bedingten Erwartungswert µt führen zu großen positiven oder negativen Innovationen ut. Daraus ergibt sich, dass für p Zeitperioden die bedingte Varianz der Renditezeitreihe erhöht ist. Durch diese Eigenschaft des Modells lassen sich die empirisch beobachteten Phasen unterschiedlicher Volatilitäten beschreiben (vgl. Fricke (2005)).

[...]


[1] GARCH - g eneralized a utoregressive c onditional h eteroscedasticity

Autor

Teilen

Zurück

Titel: Vergleich von alternativen Verfahren zur Berechnung des Value-at-Risk anhand internationaler Aktienindizes