Volatilitätsschätzung


Seminararbeit, 1999

14 Seiten


Leseprobe


INHALTSVERZEICHNIS

VERZEICHNIS DER ABBILDUNGEN

VERZEICHNIS DER TABELLEN

VERZEICHNIS DER ABKÜRZUNGEN

VERZEICHNIS DER SYMBOLE

1. Einleitung

2. Methoden der historischen Volatilitätsschätzung
2.1 Vorüberlegungen zur historischen Volatilität
2.2 Die traditionelle Methode und die Verwendung logarithmierter Aktienkurse
2.2.1 Der logarithmierte Aktienkurs
2.2.2 Die Volatilitätenschätzung
2.3 Die ,,Extreme Value Method" von Parkinson
2.4 Die Weiterentwicklung von Kunitomo
2.5 Vergleich von Parkinson und Kunitomo
2.6 Effizienzvergleich der Verfahren

3. Die implizite Volatilitätsschätzung
3.1 Schätzung der impliziten Volatilität einer Aktie
3.2 Erläuterungen zur impliziten Volatilität

4. Fazit: historische vs. implizite Volatilität

ANHANG

LITERATURVERZEICHNIS

Verzeichnis der Abbildungen

ABBILDUNG 1: DICHTEKURVE EINER LOGNORMALVERTEILUNG (EIGENE BERECHNUNG)

ABBILDUNG 2: DARSTELLUNG ZU DEN SCHÄTZVERFAHREN VON PARKINSON UND KUNITOMO

ABBILDUNG 3: DER SMILE-EFFEKT

Verzeichnis der Tabellen

TABELLE 1 : BEISPIEL ZUR VOLATILITÄTSSCHÄTZUNG

Verzeichnis der Abkürzungen

Abbildung in dieser Leseprobe nicht enthalten

Verzeichnis der Symbole

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

Das Interesse an der Schätzung immer genauerer Volatilitäten für Wertpapiere ist in den vergangen Jahren gestiegen, da diese häufig den einzigen nicht am Markt ablesbaren Parameter in Modellen zur Wertpapierbewertung darstellt. Beispielsweise sei hier auf das Problem der Bestimmung der Volatilität für die Optionspreisbewertung nach der Formel von Black und Scholes verwiesen, vergl. Black/Scholes (1973), S. 637ff. Im Laufe der Zeit wurden viele Schätzverfahren entwickelt, die sich grob in drei Gruppen einteilen lassen:

1. Gruppe der historischen Volatilitäten
2. Gruppe der impliziten Volatilitäten
3. ökonometrische Schätzverfahren1

Diese Ausarbeitung erörtert im folgenden unterschiedliche Ansätze zur historischen Volatilitätsschätzung. Danach wird über die Informationseffizienz ein Bogen zu den impliziten Verfahren geschlagen, sodaß abschließend eine Beurteilung beider Ansätze möglich ist. Ausführungen zu den ökonometrischen Vorgehensweisen sind nicht vorgesehen. Zunächst einmal gilt es jedoch den Begriff der Volatilität grob zu klären: Allgemein versteht man hierunter die prozentuale Schwankungsbreite, auch als Standardabweichung bzw. Varianz bezeichnet, eines Aktienpreises. Eine weitere Klärung des Begriffs ergibt sich im Verlauf der Ausarbeitung.

2. Methoden der historischen Volatilitätsschätzung

Zur historischen Volatilität werden drei Methoden exemplarisch dargestellt. Das traditionelle Verfahren soll einen Einblick in die Grundlagen der Volatilitätsschätzung geben, während die Methoden von Parkinson und Kunitomo für Beispiele effizienterer Schätzverfahren stehen.

2.1 Vorüberlegungen zur historischen Volatilität

Bei der Schätzung der historischen Volatilität von Aktien dienen deren Vergangenheitspreise als Basis2. Es wird hierbei davon ausgegangen, daß die Volatilität, sprich die Standardabweichung und der Erwartungswert der Aktienpreisänderungen, über einen kurzen Zeitraum konstant sind. Durch eine kontinuierliche Betrachtungsweise werden diese Werte dann auch für den langen Beobachtungszeitraum als unveränderlich angesehen, sodaß kein Fehler begangen wird, wenn von der vergangenen auf die zukünftige Volatilität geschlossen wird. Hierzu wird die Standardabweichung der Renditen3, basierend auf logarithmierten Aktienkursen, verwendet. Sie gibt an, in welchem Maße diese um ihren Durchschnittswert gestreut sind.

Um zu einem eindeutigen Ergebnis zu kommen, ist es unumgänglich weitere Überlegungen bezüglich möglicher Einflußfaktoren anzustellen. Hull (1997), S. 233. verweist z.B. darauf, daß es entscheidend ist, ob bei der Berechnung Handelstage oder Kalendertage zählen. Weitere Punkte, die bei der Auswertung von statistischen Datenmaterial eine Rolle spielen, sind das Zeitintervall in der Beobachtungen (Preisveränderungen) erfolgen und ihre Anzahl. Hinzu kommen die Probleme der Auswahl der Datenbasis und die Art der Berechnung der Renditen.

2.2 Die traditionelle Methode und die Verwendung logarithmierter Aktienkurse

Die Verwendung logarithmierter Aktienkurse und die Schätzung als solches sind gemeinsam zu betrachten. Für beides ist es notwendig, sich mit den Grundlagen des Modells auseinander zu setzen. Aus der Physik ist eine Formel zur Bestimmung der Brownschen Molekularbewegung bekannt. Hiernach ändert eine Variable x sich unabhängig von ihrem vorherigen Wert. Dies wird auch als allgemeiner Wiener Prozeß bezeichnet, einer speziellen Form des Markov Prozeßes4:

(1)

wobei a den Drift, dt die Zeitveränderung, b die Momentanstandardabweichung, dz den Wiener Prozeß und somit bdz die Standardabweichung darstellt. Ferner soll dz dem Produkt aus _ einer standardnormalverteilten Zufallsvariablen und der Wurzel aus der marginalen Zeitveränderung dt entsprechen. Wichtig ist an dieser Stelle, daß die Verteilung eines Wiener Prozeßes als Normalverteilung mit einem Erwartungswert von adt und einer Varianz von b2 dt2 bekannt ist. Black und Scholes haben die Annahme getroffen, daß die Aktienpreisentwicklung mit S als Aktienpreis diesem Prozeß folgt. An dieser Stelle wird angenommen, daß der Aktienpreis einem konstanten Drift proportional zu sich selber hat, also S als Driftparameter a mit als Konstanten. Für den zweiten Teil der Gleichung wird 2 als Varianzenrate einer proportionalen Preisänderung definiert, so daß 2 S2 der Momentanvarianz b2 entspricht:

(2)

Hieraus läßt sich die Momentanrendite R bilden:

(3)

Da sich jedoch hiermit noch nicht die Volatilität bestimmen läßt, sind weitere Überlegungen notwendig:

Um allgemein Derivate zu berechnen, zum Beispiel den Preis einer Option, wird ein Ito Prozeß unterstellt. Dies ist eine spezielle Art des Wiener Prozeßes, bei dem zusätzlich angenommen wird, daß der Drift a und die Momentanstandardabweichung b noch von x und der Zeit t abhängen5. Somit ergibt sich nach dem Ito-Lemma eine Differentialgleichung, die die kontinuierliche Änderung, in der Fachliteratur auch als continously compounded bezeichnet, der logarithmierten Aktienpreise beschreibt6:

(4)

Da die Verteilung des Wiener Prozeßes als normalverteilt bekannt ist, müssen die logarithmierten Aktienpreisänderungen ebenfalls normalverteilt sein mit einem Erwartungswert von ( -2 /2)dt und einer Varianz72 dt. Hieraus läßt sich wieder der Rückschluß ziehen, daß die Aktienkurse selbst logarithmisch normalverteilt sind, vergl. Franke/Hax (1994), S. 370, Schneider u.a. (1995) S. 194. Mit Hilfe dieser Gleichung ist es nun möglich, einen Weg zur Bestimmung der Volatilität zu finden. Wie aus den Anfangsannahmen bekannt, soll dz von der Zeitveränderung dt abhängen, so daß wir dz als dz(t) schreiben können. Der nächste Schritt liegt in der Auflösung dieser Differentialgleichung nach dem Aktienpreis. Dazu wird auf der linken Seite der Gleichung das Integral von S0, als Preis zum Zeitpunkt t = 0, bis zum Preis S(t) und auf der rechten Seite das Integral von 0 bis t gebildet, vergl. Walter (1993), S. 13ff.:

(5)

Daraus ergibt siche der Preisprozeß einer Aktie, vergl. Irle (1998), S.149:

(6)

Durch Division zweier Aktienpreise zu den Zeitpunkten t1 und t 2 und anschließendes Logarithmieren folgt, daß sich die logarithmierte Rendite Rt wie folgt verhält:

(7)

Dabei ist Rt ebenso wie d(lnS) normalverteilt mit einem Erwartungswert ( -2 /2)dt und einer Standardabweichung (dt)1 /2 .

2.2.1 Der logarithmierte Aktienkurs

Aufgrund der Kenntnisse über Formel (7) ist die Standardabweichung und damit die Volatilität leicht zu schätzen, denn die Aktienkurse der Vergangenheit stehen zur Verfügung. Auch wird deutlich, daß aufgrund der kontinuierlichen Betrachtungsweise für die weitere Schätzung logarithmierte Aktienkurse verwendet werden müssen8. Somit resultiert die Verwendung logarithmierter Aktienkurse aus dem dahinterstehenden Modell, speziell der kontinuierlichen Betrachtungsweise. Ökonomisch läßt sich die logarithmische Normalverteilung der Aktienkurse am besten wie folgt begründen: Wären die Aktienkurse normalverteilt, so könnten die Kurse in beide Richtungen in unendlicher Höhe schwanken. Dies macht jedoch wenig Sinn, denn in der Regel können Aktienpreise nicht negativ werden. Als Extremsituation ist lediglich der totale Preisverfall vorstellbar. Durch die Lognormalverteilung wird dieses Problem gelöst, denn sie ist nach unten auf den Wert Null begrenzt, setzt nach oben aber keine Grenzen, vergl. Cox/Rubenstein (1985), S. 201 - 204. Eine Eigenschaft der Lognormalverteilung läßt sich aus der Form der Dichtekurve ablesen. Wie zu sehen ist, ist die Kurve nach rechts verschoben. Dies bedeutet für die Aktienpreisänderung, daß Preissteigerungen absolut betrachtet höher ausfallen müssen als Preissenkungen.

Abbildung in dieser Leseprobe nicht enthalten

Beispielhalft sei hier eine Dichtekurve einer Lognormalverteilung dargestellt:

Abbildung 1: Dichtekurve einer Lognormalverteilung (eigene Berechnung)

In Anlehnung: Cox/Rubenstein (1985), Abb. 5-2d S. 202

2.2.2 Die Volatilitätenschätzung

Da die Verteilung der logarithmierten Rendite Rt bekannt ist, kann die Standardabweichung, also die Volatilität, mit einfachen statistischen Mitteln bestimmt werden. Durch das Modell ist die Methode der Renditeberechnung festgelegt. Ein im Anhang Teil B angegebenes Zahlenbeispiel, vergl. Hull (1997), S.232-235, soll eine solche Schätzung kurz verdeutlichen. Zuerst wird die Momentanstandardabweichung9 der Renditen mit Hilfe der Stichprobenstandardabweichung bestimmt10. Dies geschieht nach folgender Gleichung, vergl. Schneider u.a. (1995), S.228:

(8)

Dabeit ist n die Anzahl der betrachteten Kurse und _n der Mittelwert der logarithmierten Momentanrendite Rt. Damit ist die Momentanstandardabweichung bestimmt. Diese muß dann nur noch mit einem geeigneten dz(t) multipliziert werden. Üblicherweise betrachtet man hier ein Jahr, doch wäre eine monatliche oder wöchentliche Betrachtung auch möglich. Hier soll jedoch die Volatilität eines Jahres bestimmt werden. In diesem Zusammenhang spricht man auch von einer Annualisierung. Wie bereits erwähnt, spielt es eine Rolle, ob die Handels- oder Kalendertage zählen sollen. Da sich die Aktienpreise nur an Handelstagen ändern können, scheint es angebracht, sich für diese zu entscheiden11. Genauere Untersuchungen zu diesem Thema lassen sich in der Literatur finden.

(9)

Für das Zahlenbeispiel im Anhang Teil B ergibt sich jetzt ein von 0,012304. Durch die Multiplikation mit d(z(t)) folgt ein Ergebnis von ca. 0,1953. Die geschätzte Volatilität beträgt ca. 19,53 % pro Jahr. Ein Problem auf das Hull (1997), S. 233 hinweist, ist die Wahl der Anzahl der vergangenen Kurse. Je mehr Kurse berücksichtigt werden, desto besser wird die Schätzung. Da aber im langen Betrachtungszeitraum die Volatilität nicht konstant ist, kann die Schätzung an der Wirklichkeit vorbeigehen. Als in der Realität beobachtbar wird von Hull ein Zeitraum zwischen 90 und 180 Tagen angegeben.

2.3 Die ,,Extreme Value Method" von Parkinson

Ein effizienteres Schätzverfahren hat Parkinson (1980), S.61-65 erarbeitet. Diese Methode zeichnet sich dadurch aus, daß ca. 5 mal weniger Beobachtungen benötigt werden, um zu einem gleichwertigen Ergebnis, wie bei dem zuvor beschrieben Verfahren zu kommen. Nach der Methode von Parkinson werden nicht, wie zuvor, die Veränderungen von einem Schlußzum nächsten Schlußkurs verwendet, sondern die Differenz l zwischen dem täglichen Höchstund Tiefstkurs, vergl. Parkinson (1980), S. 62.

(10)

Die Besonderheiten der Verteilung von l sollen hier nicht weiter interessieren, sondern lediglich die dahinterstehende Idee und die Schätzung selbst. Hier ergibt sich für die Standardabweichung, vergl. Parkinson (1980), S. 63:

(11)

mit n als Anzahl der Beobachtungen. Entscheidend ist bei dieser Methode, daß Parkinson einen Drift von null für den Kursverlauf voraussetzt. Kursveränderungen bezüglich der Eröffnungs- und Schlußkurse werden nur berücksichtigt, wenn diese eine obere oder untere Grenze des Betrachtungskorridors darstellen. Ökonomisch bedeutet dies, daß sich der Aktienkurs innerhalb eines horizontal verlaufenden Korridors bewegt.

2.4 Die Weiterentwicklung von Kunitomo

Kunitomo (1992), S. 295-302 greift in seinem Verfahren die Methode von Parkinson auf und erweitert sie. Parkinson nimmt, wie schon erwähnt, an, daß es bei der Kursentwicklung keinen Drift gibt. Kunitomo hingegen betrachtet Eröffnungs- und Schlußkurs und sieht die Differenz als Drift an. Da nach der Verteilung der Differenz zwischen Höchst- und Tiefstkurs korrekte Ergebnisse nur bei Nichtexistenz eines Drifts geliefert werden, müssen die Kurse um diesen bereinigt werden. Kunitomo entwickelt eine neue, um den Drift bereinigte, Zufallsvariable Y(t):

(12)

Somit impliziert S(0) = 0, daß E(Y(t)) = 0 und Y(0) = Y(T) = 0 gilt. Aus den so bereinigten Daten wird nun wieder wie im Fall Parkinson vorgegangen. Es wird die Differenz aus den Maximum- und Minimumwerten gebildet:

(13)

so daß sich folgende Standardabweichung ergibt:

(14)

2.5 Vergleich von Parkinson und Kunitomo

Zum weiteren Verständnis ist

folgende Graphik hilfreich:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Darstellung zu den Schätzverfahren von Parkinson und Kunitomo

In Anlehnung an: Kunitomo (1992) Abb.1, S. 298

Intuitiv scheint es einleuchtend, daß beide Verfahren leistungsfähiger sind als die traditionelle Schätzung, da sie die Schwankungsbreite des ganzen Tages berücksichtigen. Beiden Verfahren ist gemeinsam, daß sie einen Korridor für den Kursverlauf des Beobachtungszeitraums festlegen. Der wesentliche Unterschied liegt darin, daß Parkinson einen Drift von null voraussetzt, so daß sein Kurskorridor horizontal verläuft, mit einer oberen Grenze die den Tageshöchstkurs D zum Zeitpunkt t3 und einer unteren Grenze, die den Tags- tiefstkurs B zum Zeitpunkt t1 tangiert. Hingegen nimmt Kunitomo einen Drift von null nur an, weiß aber, daß es einen gibt und rechnet diesen heraus. Somit kann er einen genaueren Korridor bestimmen, der parallel zu AF verläuft. Die so bestimmte Obergrenze tangiert C zum Zeitpunkt t2 und die Untergrenze E zum Zeitpunkt t4. Dieser Korridor schließt die Kursbetrachtung von Parkinson also mit ein. Dies läßt darauf schließen, daß das Verfahren von Kunitomo noch leistungsfähiger ist als das Vorgängerverfahren von Parkinson. Zur Betrachtung der Jahresvolatilität ist bei beiden Verfahren wieder die Annualisierung erforderlich.

2.6 Effizienzvergleich der Verfahren

Ein Vergleich der Verfahren bezüglich ihrer Leistungsfähigkeit ist über die relative Effizienz möglich. Dazu dividiert man den mittleren quadratischen Fehler12 eines Basiswertes, hier der traditionellen Schätzung, durch den mittleren quadratischen Fehler des Vergleichswertes13, z.B.:

(15)

Für Parkinsons Schätzverfahren ergibt sich eine ca. 5 mal, vergl. Parkinson (1980), S. 63 und nach Kunitomo eine ca. 10 mal höhere Effizienz, vergl. Kunitomo (1992), S.299, gegenüber dem traditionellen Schätzverfahren. Für ein gleichwertiges Ergebnis werden also 5 bzw. 10 mal weniger Beobachtungen benötigt.

3. Die implizite Volatilitätsschätzung

Als Nachteil der historischen Schätzung muß sicherlich die Annahme konstanter Volatilitäten genannt werden. Für kurze Zeiträume mag diese Annahme noch keinen allzu großen Fehler bewirken, doch auf längere Sicht gesehen, ist bekannt, daß sich die Volatilität ändert. Eine Abhilfe kann hier durch Überlegungen bezüglich der Informationseffizienz erfolgen, vergl. Franke/Hax (1995), S. 389ff. Hiernach sollte es möglich sein, aus den jetzigen Kursen eine Schätzung für die gegenwärtige Volatilität durchzuführen. Je stärker die Informationseffizienz ist, desto besser sollten die Schätzungen für die Volatilität sein. Gehen wir jedoch von dem Fall der schwachen Informationseffizienz aus, welche besagt, daß alle Informationen des Marktgeschehens der Vergangenheit im gegenwärtigen Preis reflektiert werden; vergl. Franke/Hax (1995), S. 392. Es ist somit nicht notwendig, Daten die weiter zurück liegen, zu betrachten.

3.1 Schätzung der impliziten Volatilität einer Aktie

Die Berechnung soll hier über den Umweg der Optionsbewertung von Black und Scholes14 erfolgen.

(16)

Für weitere Erörterungen siehe Anhang Teil C. Diese Formel kann aufgrund ihrer Komplexität nicht nach der Volatilität aufgelöst werden, sodaß eine Berechnung nicht möglich ist, vergl. Hull (1997), S. 246. Da aber alle anderen Parameter in der Regel bekannt sind, kann man die Volatilität durch einen iterativen Prozeß bestimmen, vergl. Cox/Rubenstein (1985), S. 278.

Es werden solange Werte für die Volatilität geschätzt, bis derjenige gefunden ist, der die Gleichung am besten erfüllt. Natürlich empfiehlt es sich hier nach einer gewissen Systematik vorzugehen. Die so gefundene Volatilität wird auch implizite Volatilität genannt15. Nach dieser Methode werden mehrere implizite Volatilitäten verschiedener Optionen bestimmt, sodaß sich zum Schluß die Volatilität des Basiswertes z.B. als Mittelwert ergibt16.

3.2 Erläuterungen zur impliziten Volatilität

Erstaunlich scheint es zu sein, daß die sich so gebildeten impliziten Volatilitäten unterscheiden. Dies läßt den Schluß zu, daß die Preisgestaltung nicht exakt dem Modell von Black und Scholes folgt. Der in der Theorie geschätzte Preis weicht von dem auf dem Markt beobachteten ab. Die unterschiedlichen Volatilitäten der Aktie lassen sich auf unterschiedliche Laufzeiten und unterschiedliche Basispreise (Ausübungspreise) zurückführen, vergl. Cox/Rubenstein (1985), S. 278. Ein spezielles Augenmerk muß auch hier wieder der Datenbasis gewidmet werden. Alle beobachteten Daten sollten sich auf den selben Zeitpunkt beziehen. Ferner läßt sich in der Realität oft ein Zusammenhang zwischen der Volatilität und ob sie sich im at money- , in the money- oder out of the money Bereich befindet, feststellen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Der Smile-Effekt

In Anlehnung an Irle (1998), S.160

Dabei weißt eine Option, die sich im at the money Bereich befindet eine geringere Volatilität auf, als in den anderen beiden Fällen. Dieser Zusammenhang wird als Smile-Effekt bezeichnet, vergl. Irle (1998), S. 159.

Ein letztes Problem, das es zu lösen gilt, liegt in der Gewichtung der einzelnen impliziten Volatilitäten bei der Berechnung der Volatilität des Basiswertes. Hull (1997), S. 246 verweist hierzu auf die Sensitivitätsbetrachtung einer Aktie. Als solche wird die Ableitung des Puts oder Calls nach der Volatilität bezeichnet. Diese ist immer positiv und bei Optionen im at the money Bereich am größten, so daß Volatilitäten solcher Optionen höher gewichtet werden sollten, als die der anderen beiden Fälle17.

Cox und Rubenstein (1985) S. 279 schlagen daher zur Gewichtung vor, direkt die Sensitivität der einzelnen Optionen bzw. die Elastizität einer Option bezüglich ihrer Volatilität zu nehmen.

Ein weiterer Ansatz liegt darin, eine einheitliche Volatilität für Puts oder Calls zu finden. Bei einem Call gilt es dann, diejenige Volatilität zu finden, die die Summe der Differenzen der einzelnen Optionen zwischen ihrem Marktpreis, bei Zeitpunkt t und Ausübungspreis c und dem theoretischen Callpreis dividiert durch denselben, minimiert, vergl. Cox/Rubenstein (1985), S. 27918.

4. Fazit: historische vs. implizite Volatilität

Um ein endgültiges Fazit über die Volatilitäten zu ziehen, reichen die Überlegungen dieser Arbeit noch nicht aus. Sicherlich kann bei der historischen Schätzung die Annahme konstant bleibender Volatilitäten als Nachteil angeführt werden. Dieses Problem versuchen, z.B. Hull und White mit Hilfe eines stochastischen Ansatzes zu lösen, vergl. Hull/White (1987), S.281- 299. Da bei der impliziten Schätzung mit dem Optionspreismodell von Black und Scholes gearbeitet wird, werden auch hier indirekt gleichbleibende Volatilitäten angenommen. Jedoch zieht man hier aus der Gegenwart und nicht aus der Vergangenheit Schlüsse über die zukünftige Entwicklung. Gehen wir wieder von der Annahme aus, daß die Aktienkursänderungen einem Wiener Prozeß gehorchen, Vergangenes also keinen Einfluß auf die zukünftige Kursentwicklung hat, so muß die implizite Schätzung als das bessere Verfahren angesehen werden. Kommt es, z.B. durch einen Börsen-Crash, zu starken Kursschwankungen auf dem Wertpapiermarkt, so reagiert die historische Volatilität, aus der Annahme diese sei konstant, zeitlich verzögert, während die implizite Volatilität die gegenwärtige Einschätzung der Marktteilnehmer sofort widerspiegelt. Ziehen wir zu dem Vergleich noch die Verfahren von Parkinson und Kunitomo hinzu, so wird der Nachteil der traditionellen Schätzung nur vermindert, aber nicht aufgehoben. Da diese beiden Verfahren mit weniger Daten auskommen, also ,,aktuellere Beobachtungen" verwendet werden, um zu einem gleichwertigen Ergebnis zu kommen, sind sie nicht nur vom Arbeitsaufwand, sondern auch im Bezug auf das Modell geeigneter als die traditionelle Schätzung. In diesem Zusammenhang könnten Untersuchungen bezüglich einer Korrelation zwischen den beiden Volatilitätsgruppen interessant sein.

Anhang

Teil A

Wie erwähnt soll gelten:

(i)

Nach Ito´s Lemma, vergl. Hull (1980), S. 220ff., folgt:

(ii)

Verbindet man jetzt Gleichung (2) mit (ii) und setzt G = lnS, so kommt man zu Gleichung

(4).

Teil B

Tabelle 1 : Beispiel zur Volatilitätsschätzung1

Abbildung in dieser Leseprobe nicht enthalten

Literaturverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Teil C

mit:

Abbildung in dieser Leseprobe nicht enthalten

[...]


1 Hierunter fallen Ansätze die unter dem Namen ARCH-Modell bzw. GARCH-Modell bekannt sind. Die ökonometrischen Grundlagen werden z.B. in Johnston/DiNardo (1997), S. 195ff. erklärt.

2 Im Regelfall betrachtet man die Schlußkurse, da diese leicht in Erfahrung zu bringen sind.

3 Die prozentualen Preisveränderungen bezogen auf die vorliegenden Daten; auch Momentanrendite R(t), R t oder R genannt.

4 Die Markov Eigenschaft läßt sich berechtigter Weise mit der schwachen Informationseffizienz eines Kapitalmarktes vergleichen. Alle Marktinformationen der Vergangenheit werden im gegenwärtigen Preis reflektiert, vergl. Hull (1997), S. 210.

5 Eine weitere Beweisführung ist im Anhang Teil A zu finden.

6 Durch eine vollständige Betrachtung des Ito Prozeß wird die Verwendung logarithmierter Aktienkurse auch deutlich. Das weiter gewählte Vorgehen soll jedoch dem besseren Verständnis des Lesers über die hier betrachteten Zusammenhänge dienen.

7 Es sei noch einmal darauf hingewiesen, daß dz gleich _(dt) 1 /2 gilt. Da _ standardnormalverteilt ist, beträgt die Varianz 1.

8 Bei einer kontinuierlichen Verzinsung ergibt sich K = K 0 r n, mit K 0 als Ausgangswert, r als Zinssatz (Rendite) und n als Zeit. Wird dies logarithmiert so folgt: ln(K) = ln(K 0 ) + nln(r). Gehen wir davon aus, daß immer Zeiten von 1 Periode (n = 1) verwendet werden, so ergibt sich: ln(r) = ln(K) - ln(K 0 ).

9 Also die Stichprobenstandardabweichung unsere Daten Rt.

10 Die Renditen werden durch die täglichen Schlußkurse berechnet.

11 Hull geht von 252 Handelstagen aus, doch gibt es hier verschiedenen Ansätze, die aber alle bei ca. 250 Tagen liegen.

12 In der Statistik wird dies als mean square error (MSE) bezeichnet

13 Die Schätzungen müssen die gleiche Datenbasis verwenden.

14 Hier für eine Call-Option. Eine weitere Herleitung soll nicht erfolgen, vergl. Black/Scholes (1973), S. 640-645. Die dort gemachten Annahmen zum Modell sollen gelten.

15 An dieser Stelle wurden viele Verfahren entwickelt, um die Volatilität systematisch zu bestimmen: Beispielsweise sei hier als ein sehr einfaches Verfahren die Intervallschätzung genannt. Man bildet ein Intervall in dem sich die Volatilität befindet und verkleinert dieses systematisch. Genauso wird mit Put-Optionen verfahren.

16 Es ist noch darauf hinzuweisen, daß sich bei Verwendung anderer Optionspreismodelle andere Ergebnisse ergeben können.

17 Die Ableitung eines Calls nach der Volatilität lautet: , vergl. Cox/Rubenstein (1985), S. 221ff.

18 Zu diesem Gewichtungsproblem gibt es eine Vielzahl von Methoden.

1 Quelle: Hull (1997), Tab. 11.1, S. 234; eigene Berechnungen

Ende der Leseprobe aus 14 Seiten

Details

Titel
Volatilitätsschätzung
Hochschule
Christian-Albrechts-Universität Kiel  (Wirtschafts- und Sozialwissenschaftliche Fakultät, Institut für Betriebswirtschaftslehre)
Veranstaltung
Lehrstuhl für Finanzwirtschaft, Seminar zur Finanzwirtschaft, Kapitalmarkttheorie
Autor
Jahr
1999
Seiten
14
Katalognummer
V95344
ISBN (eBook)
9783638080224
Dateigröße
489 KB
Sprache
Deutsch
Schlagworte
Volatilitätsschätzung, Wirtschafts-, Sozialwissenschaftliche, Fakultät, Christian-Albrechts-Universität, Kiel, Institut, Lehrstuhl, Finanzwirtschaft, Seminar, Finanzwirtschaft, Kapitalmarkttheorie, Prof, Nippel
Arbeit zitieren
Achim Jürgen Sterzik (Autor:in), 1999, Volatilitätsschätzung, München, GRIN Verlag, https://www.grin.com/document/95344

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Volatilitätsschätzung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden