Simulationsanwendungen im Finanzierungs- und Versicherungsbereich


Seminararbeit, 2005

30 Seiten, Note: 1,5


Leseprobe


Inhaltsverzeichnis

1. Einleitung

2. Ein standardisiertes Risikomaß – Value at Risk
2.1 Definition
2.2 Einsatzmöglichkeiten
2.3 Ermittlung des VaR
2.4 Value at Risk für Marktrisiken
2.4.1 Berechnung des VaR für Portfolios
2.4.2 Historische Simulation
2.4.3 Monte-Carlo Simulation
2.4.4 Ergänzung zum VaR und Vergleich der Berechnungsmethoden
2.5 VaR-Berechnung für Kreditrisiken: Das Modell von Peura/Jokivuolle (2003)
2.5.1 VaR als Messzahl für Kreditausfallrisiken
2.5.2 Neue Anforderungen an das Risikomanagement – Basel II
2.5.3 Grundlagen und Ziele des Modells von Peura/Jokivuolle
2.5.4 Bestimmung des notwendigen Kapitalpuffers
2.5.5 Konjunkturzyklus und Ratingänderungen
2.5.6 Veränderungen der Kapitalpuffer durch Basel II
2.5.7 Identifikation von α für reale Kreditportfolios von US-Banken
2.5.8 Vergleich von ein- und mehrperiodischer Value at Risk-Analyse

3. Anwendung von Simulationsmodellen im Versicherungsbereich
3.1 Risikoproblematik bei Versicherungen
3.2 Dynamische Finanzanalyse
3.3 Home Equity Conversion Mortages (HECM)
3.3.1 Problemstellung
3.3.2 Anwendung von Simulationsmodellen zur Annuitätsbestimmung
3.4 VaR und Stresstesting bei Versicherungsunternehmen

4. Planspieltechnik als Spezialfall der Simulation
4.1 Definition und Einordnung in den thematischen Kontext
4.2 Einsatzmöglichkeiten und Ziele betrieblicher Planspiele
4.3 Benners Planspiel für Kreditinstitute
4.3.1 Zielsetzung des Simulationsmodells
4.3.2 Aufbau des Simulationsmodells
4.3.3 Komponenten des Simulationsmodells
4.3.4 Entscheidungsmöglichkeiten der Spielteilnehmer
4.3.5 Das Modell der bankbetrieblichen Werteströme
4.3.6 Berechnung der Istwerte der geschäftlichen Transaktionen
4.3.7 Erweiterungsmöglichkeiten des Simulationsmodells

5. Fazit

Literaturverzeichnis

1. Einleitung

„Mit der Komplexität der Finanzinstrumente und der Geschwindigkeit von Marktentwicklungen sind (...) die Anforderungen an das Risikomanagement der Marktteilnehmer erheblich gestiegen. Die Beherrschung von Markt- und operationellen Risiken ist zu einer zentralen Herausforderung geworden“ (Stark 2004). „Die vorgeschlagene Neue Eigenkapitalvereinbarung des Basler Ausschusses für Bankenaufsicht weist den einzelnen Banken besondere Verantwortung für ein umfassendes Risikomanagement zu“ (Wellink 2002). Diese Aussagen verdeutlichen, wie wichtig ein umfassendes und effizientes Risikomanagement für moderne Kreditinstitute und Versicherungsgesellschaften ist. Diese Unternehmenstypen werden mitunter völlig verschiedenenartigen Risiken ausgesetzt und ihre Risikomanagementsysteme daher mit unterschiedlichen Problemstellungen konfrontiert. Während Versicherungen vor allem der Unsicherheit über Häufigkeit und Höhe von Schadensfällen gegenüberstehen, sind Banken typischerweise Kreditausfallrisiken und der Gefahr von Wertminderungen ihrer Portfolios ausgesetzt. Um diesen Anforderungen gerecht zu werden, verwendet man in beiden Branchen vielfältige Simulationsmethoden. Der Anwendungsbereich reicht dabei von der Gestaltung von betrieblichen Planspielen über Simulationen von Bilanzveränderungen bei bestimmten Ereignissen bis zur Quantifizierung von Verlustpotentialen mit Hilfe des Value at Risk-Kriteriums. Da sich dieser Ansatz für die Risikomessung und -steuerung in der Praxis weitgehend durchgesetzt hat, soll ihm im Rahmen der folgenden Ausführungen eine besondere Bedeutung zukommen.

In Kapitel 2 wird nach der Erklärung theoretischer Grundlagen (Kap. 2.1 – 2.3) die Modellierung des Value at Risk für Marktrisiken dargestellt (Kap. 2.4). Anschließend wird anhand eines Modells die Anwendung des Value at Risk-Ansatzes auf Kreditrisiken beschrieben (Kap. 2.5). Das dritte Kapitel befasst sich mit speziellen Problemstellungen in der Versicherungsbranche und zeigt an drei Anwendungsbeispielen, wie Simulationstechniken angewandt werden, um diesen Rechnung zu tragen. Thema des vierten Kapitels ist der Einsatz von Simulationsmethoden bei der Konzeption von betrieblichen Planspielen. Insbesondere wird ein konkretes Modell zur Schulung von Nachwuchskräften für bankbetriebliche Führungspositionen vorgestellt. Den Abschluss bildet ein Fazit, in dem auf die Vor- und Nachteile der in Rahmen dieser Arbeit vorgestellten Simulationstechniken eingegangen wird (Kap. 5).

2. Ein standardisiertes Risikomaß – Value at Risk

2.1 Definition

Der Value at Risk (VaR) als standardisiertes Risikomaß „beschreibt in einem einzelnen Wert den maximalen Wertverlust aus einer Risikoposition, der über einen vorgegebenen Zeitraum mit einer vorgegebenen Wahrscheinlichkeit nicht überschritten wird“ (Kohlhof/Colina 2000, S. 30). Mit seiner Hilfe kann ein Marktteilnehmer mit einer Wahrscheinlichkeit von bspw. 99% bestimmen, dass der maximale Verlust, den er aus einer riskanten Vermögensposition erleiden kann, über einen gewissen Zeitraum (z.B. einen Tag) einen bestimmten Betrag, eben den VaR, nicht überschreitet (vgl. Meyer 1999, S. 13).[1] Die ex ante festzulegende Wahrscheinlichkeit wird auch als Konfidenzniveau bezeichnet. In der Finanz- und Versicherungsbranche gängige Werte sind hier z.B. 95% bzw. 99% (vgl. Hagen/Jakobs 1996, S. 637).

2.2 Einsatzmöglichkeiten

Der VaR kann auf vielfältige Weise genutzt werden. Grundsätzlich dient er zur Quantifizierung des Risikopotentials und somit als wichtige Entscheidungsgrundlage für das Management eines Unternehmens. Als standardisiertes Risikomaß ist er zur Überprüfung bzw. Optimierung der Eigenmittelallokation in der Hinsicht geeignet, dass für verschiedene Positionen bzw. Geschäftsbereiche separate Ertrags-Risiko-Betrachtungen durchgeführt und anschließend die profitabelsten Einheiten identifiziert werden können. Wurden Sektoren mit einer ungünstigen Risiko-Ertrags-Relation ermittelt, kann deren Sicherungsgrad adjustiert werden, indem man entsprechende Zielwerte für den VaR definiert. Weiterhin ist es auf Basis des VaR möglich, ein Limitsystem zu konstituieren, um die Risiken bestimmter Geschäfte zu begrenzen und zu überwachen.[2] Hier können bspw. im Rahmen eines Frühwarnsystems die Risiken bestimmter geplanter Geschäftsabschlüsse ex ante simuliert und damit mögliche Fehlallokationen von Eigenmitteln vermieden werden (vgl. Kohlhof/Colina 2000, S. 103 ff. sowie Meyer 1999, Kap. 5.4.1).

2.3 Ermittlung des VaR

Abbildung in dieser Leseprobe nicht enthalten

(Abbildung 1; Quelle: Kohlhof/Colina 2000, S.64)

Abbildung 1 veranschaulicht die verschiedenen Berechnungsmöglichkeiten des VaR. Im Hinblick auf die Thematik dieser Arbeit sollen im folgenden die Methoden der Historischen Simulation und der Monte-Carlo Simulation am Beispiel der VaR-Berechnung für Marktrisiken näher erläutert werden.

2.4 Value at Risk für Marktrisiken

2.4.1 Berechnung des VaR für Portfolios

Ein wichtiger Grund, warum VaR-Modelle zunehmend eingesetzt werden, ist die Eigenschaft, dass der VaR die verschiedenen Marktrisiken[3], denen ein Portfolio ausgesetzt ist, in vergleichbarer Weise zusammenfasst (vgl. Beinker/Deutsch 1999, S. 156). Auf Marktwertebene gibt der VaR den Verlustbetrag (negative Portfolioveränderung) an, der nach einer bestimmten Halteperiode (1 Tag; 10 Tage) nur mit einer bestimmten Wahrscheinlichkeit (1 %; 5 %) überschritten wird (vgl. Johanning/Rudolph 2000, S. 26).

Der VaR wird aus einem Quantil einer Verteilung von Portfolio-Wertänderungen berechnet (siehe Abbildung 2), wobei sich diese Änderung als Zeitreihe der täglichen Profit/Loss (P&L) Ergebnissen des Portfolios ausdrücken lässt (vgl. Reitz 1999, S. 134 f).

Abbildung in dieser Leseprobe nicht enthalten

(Abbildung 2; Quelle: Johanning/Rudolph 2000, S. 27)

Alle gängigen Berechnungsmethoden des VaR haben gemeinsam, dass sie mehr oder weniger auf der Analyse historischer Zeitreihen basieren und im Prinzip die Vorhersage über die Zukunft eine Extrapolation der Vergangenheit darstellt (vgl. Beinker/Deutsch 1999, S. 168).

Unterstellt man eine Normalverteilung der Markwertänderung, so ist der Varianz-Kovarianz-Ansatz eine geeignete Methode zur Berechnung des VaR für eine Portfolioänderung. Kann hingegen keine Verteilungsannahme getroffen werden, muss die Verteilung durch eine Häufigkeitsverteilung der simulierten Wertänderungen approximiert werden. Dabei kommen zwei Simulationsmethoden zum Einsatz: die Historische Simulation, bei der Wertveränderungen aus vergangenen Daten abgelesen werden, und die Monte-Carlo Simulation, die ein zufälliges Verhalten der Risikofaktoren anhand eines stochastischen Modells simuliert.

2.4.2 Historische Simulation

Bei der Historischen Simulation handelt es sich um einen nichtparametrischen Ansatz zur Berechnung des Value at Risk (vgl. Huschens 2000, S. 212), der die historischen Zeitreihen unmittelbar verwendet. Vorteilhaft ist, das Parameter wie Volatilität oder Korrelationen nicht geschätzt werden müssen, so dass gewisse statistische Probleme, wie zum Beispiel die Schätzung großer Kovarianzmatrizen, von vornherein umgangen werden (vgl. Reitz 1999, S. 138).

Die Grundidee ist, dass nur die in der Vergangenheit beobachteten Veränderungen in Zukunft auftreten können und zwar mit einer Eintrittswahrscheinlichkeit, die der beobachteten relativen Häufigkeit der jeweiligen Veränderung entspricht. Die Historische Simulation basiert also auf historisch beobachteten Realisierungen, die in Form der P&L Zeitreihen ausgedrückt werden (vgl. Ebd. S. 136 f).

Wenn n die Länge der Zeitreihe ist, so entspricht die Anzahl der jeweiligen Realisierungen dividiert durch n der Eintrittswahrscheinlichkeit dieser Änderung. Indem die Realisierungen aufsteigend der Größe nach sortiert werden, entsteht eine Ordnungsstatistik. Summiert man die Eintrittswahrscheinlichkeiten der geordneten Realisierungen auf, so erhält man die empirische Verteilungsfunktion und kann an der Stelle α[4] den VaR ablesen. Hat beispielsweise die Zeitreihe eine Länge von 500 und beträgt das Konfidenzniveau 95 %, so ist der VaR der Wert, der bei aufsteigend sortierter Ordnungsstatistik an 25. Stelle steht.[5]

Die Qualität der Ergebnisse der Historischen Simulation hängt stark von der Qualität der verwendeten Zeitreihe ab. Bei der Qualitätssicherung der Zeitreihe wird man mit dem Dilemma der Wahl der geeigneten Länge der Zeitreihe konfrontiert. Wählt man die Zeitreihe sehr kurz, so ist die VaR-Berechnung sehr anfällig für Ausreißer.[6] Wählt man die Zeitreihe hingegen sehr lang, so ist es einerseits problematisch, dass weit in der Vergangenheit liegende Werte das gleiche Gewicht erhalten wie Werte der nahen Vergangenheit. Andererseits ist es schwierig, Zeitreihen in dieser Länge überhaupt zu erhalten, so dass man mit Genauigkeitsverlusten auf Grund von Approximation leben muss (vgl. Beinker/Deutsch 1999, S. 164 f).[7]

2.4.3 Monte-Carlo Simulation

Die Ermittlung des VaR mit einer Monte-Carlo Simulation beruht darauf, dass die künftige Entwicklung eines jeden Risikofaktors durch einen stochastischen Prozess modelliert werden kann (vgl. Reitz 1999, S. 148). Die Verteilungen der Änderungen der Risikofaktoren und deren zugehörige Kovarianz-Matrix[8] bestimmen die stochastischen Prozesse und werden durch Abschätzen aus historischen Zeitreihen bestimmt (vgl. Beinker/Deutsch 1999, S. 166). Das Abschätzen der Verteilungsparameter verkompliziert die Implementierung einer Monte-Carlo Simulation und birgt auch die Gefahr, anfangs auftretende Schätzfehler während des ganzen Vorgangs beizubehalten.

Im zweiten Schritt werden basierend auf den Verteilungen und Kovarianzen mittels Zufallszahlengeneratoren Zufallswerte für alle Risikofaktorenveränderungen erzeugt. Die Zufallszahlengeneratoren müssen darauf getestet werden, ob sie unabhängige, d.h. nicht autokorrelierte, Zufallszahlen erzeugen (siehe dazu Ebd. S. 168).

Eine Sensitivität gibt Auskunft darüber, wie das Portfolio auf eine Veränderung eines Risikofaktors, z.B. auf eine Veränderung das Wechselkurses, reagiert. Portfoliosensitivitäten können bestimmt werden, indem für jedes einzelne Produkt in dem Portfolio die Sensitivitäten bestimmt werden und dann gewichtet mit der Position in dem jeweiligen Produkt zu den Sensitivitäten des Gesamtportfolios addiert werden (vgl. Beinker/Deutsch 1999, S. 160). Mit der Hilfe dieser Sensitivitäten wird das Portfolio für das zufällig erzeugte Marktdaten-Set neu bewertet.

Um die Verteilungen der Risikofaktoren zu repräsentieren, wird die Erzeugung der Zufallszahlen und die Neubewertung des Portfolios sehr oft wiederholt.[9] In Bezug auf Rechenaufwand und IT-Auslastung stößt man bei dieser Prozedur oft an die Grenze des Machbaren, sodass man sich oft auf Betrachtung entscheidender Risikofaktoren oder wichtiger Portfolioelemente beschränkt.

Ist n die Anzahl der Durchläufe, so erhält man für das Portfolio nach Abschluss der Simulation n P&L-Zahlen. Wie bei der Historischen Simulation werden diese jetzt aber zufällig erzeugten P&L-Zahlen aufsteigend der Größe nach sortiert. Wieder werden die relativen Häufigkeiten der Realisierungen gebildet und aufsummiert, so dass man auch hier eine empirische Verteilungsfunktion erhält. Derjenige Wert der sortierten Realisation, dessen aufaddierte relative Häufigkeit dem Wert α am nächsten kommt, ist eine Monte-Carlo Approximation des Value at Risk (vgl. Huschens 2000, S. 197). Beträgt n beispielsweise 10.000 und α 5%, werden 10.000 verschiedene Marktdatensets erzeugt, damit 10.000 P&L-Zahlen generiert, diese geordnet und der Wert der an Stelle 500 als VaR ausgewählt.[10]

2.4.4 Ergänzung zum VaR und Vergleich der Berechnungsmethoden

Als Ergänzung zur VaR-Berechnung können Stresstesting; Backtesting und Expected-Shortfall-Berechnungen durchgeführt werden. Mit Hilfe des Stresstestings wird ermittelt, wie sich der VaR ändert, wenn Extremszenarien auftreten. Diese Extremszenarien können einerseits historische Szenarien, wie beispielsweise der Anschlag auf das World Trade Center am 11.09.2001 oder die Ölkrise 1973 und andererseits ökonomische Extremszenarien, wie beispielsweise ein extremer Anstieg der Wechselkurse sein. Stresstests sind eher vorbeugender Natur und geben Auskunft, was zu erwarten ist, wenn ein solches Extremszenario wirklich eintritt.

Zur Durchführung des Backtestings werden die Profit/Loss-Zeitreihen zu Rate gezogen. Es wird überprüft, ob die Anzahl der Outlier[11] bzw. der Prozentsatz der Outlier der akzeptierten Irrtumswahrscheinlichkeit α der VaR Berechnung entspricht.

Der Expected Shortfall ist der bedingte Erwartungswert, wenn ein Verlust auftritt, der größer als der VaR ist. Mit anderen Worten: Nur mit einer Wahrscheinlichkeit von α tritt ein Verlust auf, der größer als der VaR ist; wenn aber doch so ein Verlust auftritt, ist er in der Höhe des Expected Shortfalls zu erwarten.

Abschließend werden die Vor- und Nachteile der vorgestellten Berechnungsmethoden in der folgenden Übersicht veranschaulicht:

Abbildung in dieser Leseprobe nicht enthalten

(Tabelle 1; Quelle: Beinker/Deutsch 1999, S. 171)

[...]


[1] Allerdings kann der ex post festgestellte tatsächliche Verlust größer sein als der VaR (vgl. Meyer 1999, S. 12).

[2] Als Beispiel seien Händlerlimite bei Wertpapiergeschäften genannt (vgl. Meyer 1999, S. 386).

[3] Exemplarisch für Marktrisiken können Änderungen von Zinsen, Rohstoffpreisen und Wechselkursen aufgeführt werden.

[4] a entspricht 1 - Konfidenzniveau.

[5] Da 5 % von 500 25 ergibt.

[6] Bei einem n von 100 und einem a von 1% entspricht der VaR dem kleinsten realisierten Wert.

[7] Diese Ausführungen stellen nur das Grundmodell der Historischen Simulation dar. Für detailliertere Ausführungen sei auf Huschens 2000, S. 211 ff; Beinker/Deutsch 1999, S. 164 ff sowie Reitz 1999, S. 136 ff verwiesen.

[8] In der Kovarianz-Matrix befinden sich die Varianzen der Risikofaktoränderungen (auf der Hauptdiagonalen) sowie die Zusammenhänge zwischen den einzelnen Risikofaktoren.

[9] In der Praxis sind oft einige tausend oder zehntausend Durchläufe nötig.

[10] Zu weiteren, eher mathematischen Ausführungen siehe Reitz 1999, S. 148 ff; Huschens 2000, S.197.

[11] Als Outlier werden Verluste bezeichnet, die größer als der VaR sind.

Ende der Leseprobe aus 30 Seiten

Details

Titel
Simulationsanwendungen im Finanzierungs- und Versicherungsbereich
Hochschule
Friedrich-Schiller-Universität Jena
Veranstaltung
Betriebswirtschaftliche Entscheidungsanalyse
Note
1,5
Autoren
Jahr
2005
Seiten
30
Katalognummer
V47420
ISBN (eBook)
9783638443739
Dateigröße
761 KB
Sprache
Deutsch
Schlagworte
Simulationsanwendungen, Finanzierungs-, Versicherungsbereich, Betriebswirtschaftliche, Entscheidungsanalyse
Arbeit zitieren
Alexander Wittkopp (Autor:in)Michael Engler (Autor:in), 2005, Simulationsanwendungen im Finanzierungs- und Versicherungsbereich, München, GRIN Verlag, https://www.grin.com/document/47420

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Simulationsanwendungen im Finanzierungs- und Versicherungsbereich



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden