Der Stellenwert von CAPM und APT als Kapitalkostenmodelle

Eine kritische Würdigung


Bachelorarbeit, 2013

70 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

1 Problemstellung

2 Grundlagen
2.1 Funktion und Bedeutung der Kapitalkosten
2.2 Die Effizienzmarkthypothese
2.3 Das Capital Asset Pricing Model
2.4 Die Arbitrage Pricing Theory

3 CAPM, APT und die Effizienzmarkthypothese in der Diskussion
3.1 Wissenschaftliche Diskussion
3.1.1 Theoretische Fundierung der Modelle
3.1.2 Empirische Untersuchungen
3.2 Nutzbarkeit der Modelle in der Praxis

4 Implied Cost of Capital als zukunftsorientierte Alternative zu CAPM und APT

5 Kritische Würdigung

6 Thesenförmige Zusammenfassung

Literaturverzeichnis

Ehrenwörtliche Erklärung

Abbildungsverzeichnis

Abb. 1: Kapitalmarktlinie

Abb. 2: Wertpapierlinie

Abb. 3: Methoden der Eigenkapitalkostenbestimmung in den USA

Tabellenverzeichnis

Tab. 1: CAPM und APT im empirischen Vergleich

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Problemstellung

In der heutigen Unternehmenspraxis führt kaum ein Weg an dem Begriff „Kapitalkosten“ vorbei. „Wir verdienen eine Prämie auf unsere Kapitalkosten“, verkündet der deutsche Chemiekonzern BASF (2013). „Um den Ressourceneinsatz im Konzernbereich Automobile effizient zu gestalten und dessen Erfolg zu messen, nutzen wir seit vielen Jahren den Wertbeitrag, eine an den Kapitalkosten ausgerichtete Steuerungsgröße“, lässt Deutschlands größter Automobilkonzern Volkswagen (2013) verlauten. Auch Unternehmens-beratungen erkennen den hohen Stellenwert der Kapitalkosten. So beschreibt die Strategieberatung Roland Berger die Kapitalkosten als „zentrales Element für strategische Entscheidungen“, während McKinsey Deutschlandchef Frank Mattern den Kapitalkosten in Zukunft einen noch höheren Stellenwert zuschreibt (Geginat, Morath, Wittmann, & Knüsel, 2006, S. 4; Müller, 2011). Wie entscheidend die Höhe der Kapitalkosten sein kann, illustrieren McNulty, Yeh, Schulze und Lubatkin (2002, S. 114) anhand eines effektvollen Beispiels. Hätte man im Jahr 2002 den britischen Telefonkonzern Vodafone mittels eines discounted cash flow Verfahrens bewertet, so hätte eine kleine Änderung der dabei verwendeten Kapitalkosten von 12% auf 11,6% zu einen Unternehmenswertzuwachs von £13,4 Milliarden geführt.

Doch was steckt nun hinter dieser enorm wichtig erscheinenden Zahl? Für ihre Bestimmung existieren verschiedene Methoden. Zwei bekannte und viel diskutierte Modelle sind dabei das Capital Asset Pricing Model (CAPM) und die Arbitrage Pricing Theory (APT). Beide Modelle sehen sich heftiger Kritik ausgesetzt. Moosa (2013, S. 63) gelangt so bspw. zu dem vernichtenden Urteil, dass die Modelle „theoretically bankrupt, empirically unsupported, and practically useless at best and misleading at worst“ sind. Ziel der vorliegenden Arbeit ist es, den Stellenwert dieser Kritik für die Unternehmenspraxis zu erfassen und abschließend in einer kritischen Würdigung folgende Forschungsfragen zu beantworten:

(1) Welches Modell bietet sich für den Einsatz in der Praxis an?
(2) Auf welche Bereiche sollte sich die künftige Forschung konzentrieren?

Zur Beantwortung der Forschungsfragen ist es sinnvoll, zuerst die Konzepte des CAPM und der APT vorzustellen und anschließend die drei von Moosa kritisierten Bereiche zu diskutieren: Theorie, Empirie und Praxis. So soll festgestellt werden, wie die Modelle in Wissenschaft und Praxis wahrgenommen werden und in welchen Bereichen die größten Probleme bestehen. Vor einer Bewertung der gefundenen Zusammenhänge, werden die Implied Cost of Capital (ICC) als mögliches Alternativmodell vorgestellt. Da die Effizienzmarkthypothese (EMH) die theoretische Basis für die drei Modelle darstellt und auch empirische Tests der Modelle immer eine gleichzeitige Untersuchung der Markteffizienz implizieren, wird auch der EMH einige Aufmerksamkeit gewidmet. Die Arbeit fokussiert sich dabei auf große, kapitalmarktorientierte Unternehmen, da kleine Unternehmen die Kapitalkosten häufig nur pauschal bestimmen oder subjektiv schätzen (Graham & Harvey, 2001, S. 201-203; Homburg, Lorenz, & Sievers, 2011, S. 126 f.). Auch die Verschuldungs-problematik und die Bestimmung der Gesamtkapitalkosten rücken in den Hintergrund.[1] Die Differenzierung von Kapitalkosten innerhalb eines Unternehmens wird nur am Rande betrachtet.[2] Sicherheitsäquivalente, als alternatives Maß für die Risikoerfassung, werden nicht diskutiert.[3]

2 Grundlagen

2.1 Funktion und Bedeutung der Kapitalkosten

Die Theorie der Kapitalkosten beruht auf der volkswirtschaftlichen Zinstheorie, welche eine Berücksichtigung des Zeitwertes des Geldes vorsieht. Da eine zukünftige Zahlung demnach weniger wertvoll ist als eine heutige Zahlung, erwarten Kapitalgeber eine Verzinsung ihres eingesetzten Kapitals. Kapitalkosten stellen also die Kosten für die Bereitstellung des Kapitals dar. Bei der Bildung des Kapitalkostensatzes wird neben der echten Zinskomponente auch das spezifische Risiko der Zahlungen berücksichtigt. Die Berücksichtigung des Risikos folgt dem Glauben, dass höhere Risiken höhere Renditen erfordern. Je höher das Risiko der zukünftigen Zahlung ist, desto höher sollte demnach auch der Kapitalkostensatz für diese Zahlung sein.

Bei der Bildung des Kapitalkostensatzes erfolgt eine Differenzierung zwischen Fremd- und Eigenkapitalkosten. Die Fremdkapitalkosten rFK lassen sich direkt aus den bestehenden Kreditverhältnissen des Unternehmens ableiten. Bei den Fremdkapitalkosten handelt es sich also um Kosten, die tatsächlich anfallen. Die Eigenkapitalkosten rEK sind hingegen nicht direkt messbar. Aus Sicht der Anleger sind sie Opportunitätskosten. Sie lassen sich als erwartete Rendite interpretieren, welche die Eigner bei einer Investition in eine Alternativanlage mit vergleichbarem Risiko erzielen könnten. Aus der Sicht des Unternehmens sind die Eigenkapitalkosten somit die Ausschüttungs- und Wertsteigerungsforderungen der Anteilseigner. Werden die Fremd- und Eigenkapitalkosten mit ihren jeweiligen Anteilen am Gesamtkapital addiert, ergeben sich die Gesamtkapitalkosten rGK, welche auch als Weighted Average Cost of Capital (WACC) bezeichnet werden (Perridon et al., 2012, S. 526 f.).

Abbildung in dieser Leseprobe nicht enthalten

Sind die Kapitalkosten ermittelt, können sie genutzt werden, um die in der Zukunft erwarteten Zahlungsströme auf den Bewertungszeitpunkt zu diskontieren. Somit wird es möglich, zukünftige Zahlungen zu bewerten und zu vergleichen. Für jegliche Investitions- und Finanzierungsentscheidungen sind die Kapitalkosten so ein nahezu unverzichtbares Element. Beispielhafte Anwendungen sind die Bewertung von Unternehmen, Unternehmens-teilen oder einzelnen Projekten (Perridon et al., 2012, S. 15-17).

Besonders im Rahmen des wertorientierten Managements spielen die Kapitalkosten eine entscheidende Rolle. Das Prinzip des wertorientierten Managements kann auf den durch Alfred Rappaport populär gewordenen Shareholder Value Ansatz zurückgeführt werden. Rappaport (1986, S. 1 f.) vertritt die These, dass die Maximierung des von den Eigentümern investierten Kapitals die fundamentale Zielsetzung des Unternehmens sein sollte. Dabei gibt er cash-flow-orientierten Ansätzen gegenüber Ansätzen des Rechnungswesens den Vorzug. Die Kapitalkosten werden so zu einem zentralen Werttreiber. Nur Investitionen, die eine Rendite erzielen, die über den Kapitalkosten liegen, steigern den Unternehmenswert. Investitionen mit Renditen unterhalb der Kapitalkosten vernichten Shareholder Value und sind nicht durchzuführen (Rappaport, 1986, S. 50, 55). Strategische Entscheidungen werden so durch ein finanzwirtschaftliches Kalkül gesteuert, wobei alle Ansätze des wertorientierten Managements risikoadjustierte Kapitalkostensätze nutzen (Perridon et al., 2012, S. 17). In der modernen Unternehmenspraxis nehmen die wertorientierte Unternehmensführung und somit auch die Kapitalkosten eine herausragende Stellung ein. Kennzahlen des wertorientierten Managements, wie der Economic Value Added (EVA®),[4] bestimmen immer häufiger die strategische Ausrichtung von Unternehmen (Gitt, Völl, & Kettenring, 2013, S. 101, 104 f.). Ein gutes Beispiel für eine solch starke Verankerung der Kapitalkosten in der Unternehmenssteuerung ist das auf dem EVA ausgerichtete Steuerungskonzept der Volkswagen AG (2009).

2.2 Die Effizienzmarkthypothese

Die Theorie von effizienten Märkten ist einer der Grundpfeiler der modernen Finanztheorie. Sie hat die wirtschaftliche Entwicklung der letzten 40 Jahre maßgeblich beeinflusst, die Finanzwirtschaft mathematisch greifbar gemacht und die Entwicklung von Modellen ermöglicht, welche sich ökonometrischen Untersuchungen unterziehen lassen. Im Rahmen der Kapitalkostenbestimmung spielt die EMH somit eine bestimmende Rolle, da sie die Grundlage für die Portfoliotheorie, das CAPM und die APT bildet (Dempsey, 2013, S. 7; Jensen & Smith, 1984, S. 3).

Fama (1970a) fasst Forschungen auf dem Gebiet der Vorhersagbarkeit von Marktentwicklungen erstmals zusammen und entwickelt die EMH. Nach Fama (1970a, S. 386) ist ein Markt effizient, falls „security prices at any time „fully reflect“ all available information“. Er führt zudem drei Stufen der Effizienz ein: die schwache, die mittelstarke und die starke Form der Effizienz. Während die schwache Form der Hypothese nur verlangt, dass alle historischen Daten eingepreist sind, erfordert die mittelstarke Form, dass alle öffentlich verfügbaren Informationen in den Preisen enthalten sind. Die starke Form der Effizienz geht noch einen Schritt weiter und verlangt, dass auch Informationen, die nur bestimmten Gruppen zur Verfügung stehen, bereits in der Preisbildung berücksichtigt sind. Als Marktbedingungen, welche mit der EMH übereinstimmen und diese unterstützen, nennt Fama folgende hinreichende Bedingungen:

(i) es gibt keine Transaktionskosten,
(ii) alle Informationen sind für alle Marktteilnehmer kostenlos verfügbar und
(iii) alle Marktteilnehmer haben homogene Erwartungen.

Sind diese Bedingungen erfüllt, so würde der aktuelle Preis einer Anlage alle verfügbaren Informationen voll widerspiegeln (Fama, 1970a, S. 387 f.). Eine weitere wichtige Bedingung, welche Fama in einer früheren, nicht aber in seiner berühmten Veröffentlichung von 1970 nennt, ist, dass die Markteilnehmer rational und intelligent sind und als alleiniges Ziel die Maximierung ihres Profits anstreben (Fama, 1965c, S. 56).

Ist die Hypothese wahr, sollte es für Investoren unmöglich sein, den Markt zu schlagen. Eine einfache „buy and hold“ Strategie wäre in diesem Fall also jeder komplexeren Handelsstrategie ebenbürtig. Weder durch Charttechnik noch durch Fundamentalanalyse wäre es in einem effizienten Markt somit möglich, Überrenditen zu erzielen, da die Preise stets mit dem inneren Wert der Anlagen übereinstimmen und vergangene Entwicklungen über keine Vorhersagekraft für zukünftige Entwicklungen verfügen (Fama, 1965c, S. 55 f.).

Um die Thesen empirisch testen zu können, muss der Prozess, welcher der Preisbildung zugrunde liegt, genau spezifiziert werden. Es muss also definiert werden, was genau mit „ fully reflect “ gemeint ist. Allgemein wird die Annahme getroffen, dass die erwartete Rendite ein geeignetes Maß für die Untersuchung der Markteffizienz bietet. Das genaue Modell, mit dem die erwartete Rendite bestimmt wird, bleibt zunächst offen. Generell ist allen Modellen aber gemein, dass, basierend auf einer bestimmten Informationsstruktur, die erwartete Gleichgewichtsrendite einer Anlage eine Funktion ihres „Risikos“ ist. Mathematisch formuliert sieht der Zusammenhang folgendermaßen aus:

Abbildung in dieser Leseprobe nicht enthalten

wobei E der Erwartungswertoperator ist; der Preis der Anlage j zum Zeitpunkt t; der Preis zum Zeitpunkt t+1 (unter der Annahme, dass jedwede Rückflüsse der Anlage sofort wieder reinvestiert werden); die Rendite der betrachteten Periode ; ein generelles Symbol für die bestimmte Informationsstruktur, welche annahmegemäß „fully reflected“ im Preis zum Zeitpunkt t ist; und die Schlangenlinien anzeigen, dass und zufällige Variablen zum Zeitpunkt t sind. Die Bezeichnung „fully reflect“ sagt nun also aus, dass unabhängig davon, welches Modell für die Ermittlung der Gleichgewichtsrendite genutzt wird, die Information voll ausgenutzt wird, um eben diese zu bestimmen. Aus der Annahme, dass das Marktgleichgewicht wie beschrieben mit dem Erwartungswert der Rendite unter Nutzung der Informationen erklärt werden kann, folgt, dass es keine Handelsstrategien geben kann, welche, nur auf den Informationen basierend, höhere Renditen als die Gleichgewichtsrendite erzielen können. Wenn nun die Überrendite der Anlage j zum Zeitpunkt t+1 als

Abbildung in dieser Leseprobe nicht enthalten

definiert wird, dann ist

Abbildung in dieser Leseprobe nicht enthalten

wobei die Sequenz { } als „ fair game “ bezeichnet wird. Die gleiche Beziehung gilt natürlich auch für die Rendite, also wenn durch ersetzt wird und auch für die Summe der Anlagen in einem beliebig zusammengestellten Portfolio. Zwei Sonderfälle des „fair game“ Modells, welche in der Untersuchung der Effizienzmarkthypothese zum Einsatz kommen, sind das Martingale, bzw. das Submartingale, und das Random Walk Modell. Wird in (2) angenommen, dass

Abbildung in dieser Leseprobe nicht enthalten

so wird die Sequenz { } als Submartingale bezeichnet. Der unter Nutzung der Information prognostizierte Erwartungswert des Preises ist nach der Annahme also größer oder gleich dem aktuellen Preis. Wird die Ungleichung (5) in eine Gleichung umgewandelt, folgt die Sequenz einem Martingale. Aus der Annahme eines Submartingale oder Martingale folgt für empirische Tests, dass eine Handelsstrategie, welche sich auf einzelne Anlagen konzentriert und festlegt, wann sie gehalten, leerverkauft oder stattdessen cash gehalten werden soll, nicht profitabler als eine einfache „buy and hold“ Strategie sein kann.[5] Unter der weniger spezifischen „fair game“ Annahme wäre dies hingegen möglich, da hier die Erwartungswerte der Rendite auch negativ sein können und somit das Halten von cash oder Leerverkäufe zu bestimmten Zeiten profitabler sein können. Das Random Walk Modell unterliegt noch strengeren Prämissen. Unter einem Random Walk wird angenommen, dass die sukzessiven Preisänderungen unabhängig und identisch verteilt sind. Formal sagt das Modell aus, dass

Die Wahrscheinlichkeitsverteilung der Rendite muss also mit und ohne gegebener Informationsstruktur gleich sein. Während sich das allgemeine „fair game“ Modell aus (2) also nur auf den Erwartungswert der Rendite beschränkt, wird in dem Random Walk Modell die gesamte Verteilung betrachtet.[6] Sowohl Erwartungswert, als auch Varianz, Schiefe und Wölbung müssen somit unabhängig von der Informationsstruktur sein. In empirischen Tests unter der Random Walk Annahme müssen die Kovarianzen der Renditezeitreihen demnach gleich Null sein (Fama, 1970a, S. 384 f.; Perridon et al., 2012, S. 219). Neben den beschriebenen informalen Erwartungswertmodellen (Martingal, Submartingal und Random Walk) bieten sich auch das allgemeine „Market Model“ von Markowitz (1991), sowie speziellere Asset Pricing Modelle für das Testen der EMH an. Beispiele sind hier das CAPM und Modelle im Rahmen der APT. Auf beide Konzepte wird im folgenden Abschnitt näher eigegangen.

Die jeweiligen Stufen der Effizienz werden wiederum separat mit jeweils unterschiedlichen Herangehensweisen getestet. Während Fama in der Veröffentlichung von 1970 die Tests noch in die schwache, mittelstarke und starke Form der Effizienz einteilt, schafft er in einer späteren Beurteilung der EMH eine aussagekräftigere Bezeichnung der Stufen, welche direkt Aufschluss über die Art der Tests gibt: „tests for return predictability“, „event studies“ und „tests for private information“ (Fama, 1991, S. 1576 f.). Im dritten Teil der Arbeit werden die drei Stufen der Effizienz im Detail diskutiert. Besonders interessant wird dabei die Problematik der Testbarkeit der Hypothese. Fama (1970a, S. 384) hebt hervor, dass die EMH keineswegs an eine bestimmte Testmethode gebunden ist. So sind weder die Marktmodelle, wie das CAPM und die APT, noch die generelle Nutzung von Erwartungswerten der Renditen vorgegebene Herangehensweisen und haben keinen besonderen Status beim Testen der Hypothese. Sie sind nur einige von vielen Möglichkeiten, die EMH zu testen. Daraus folgt, dass die Testresultate immer sowohl aus der getroffenen Annahme der Testmethode, als auch der EMH an sich, hervorgehen.

2.3 Das Capital Asset Pricing Model

Das klassische CAPM geht auf Sharpe (1964), Lintner (1965) und Mossin (1966) zurück und beschreibt das Kapitalmarktgleichgewicht bei Unsicherheit. Grundlage für das CAPM bildet die von Markowitz (1952a) entwickelte Portfoliotheorie, mit der es Markowitz erstmals gelingt, die Rolle der Diversifikation bei der Bildung eines optimalen Portfolios zu formalisieren. Er geht dabei von Marktteilnehmern aus, die der μσ-Entscheidungsregel folgen, also den Erwartungswert μ und die Standardabweichung σ der Rendite als alleinige Entscheidungskriterien nutzen. Die risikoaversen Anleger streben eine Maximierung von μ an und bevorzugen gleichzeitig möglichst niedrige σ. Werden nun alle möglichen Kombinationen von den vorhandenen Wertpapieren betrachtet, so sind nur diejenigen Kombinationen effizient, die bei gegebenen μ ein minimales σ, bzw. bei gegebenen σ ein maximales μ aufweisen. Die effizienten Kombinationen bilden dann die sogenannte Effizienzkurve mit allen effizienten Portfolios (Markowitz, 1952a, S. 79-82). Bei der Bestimmung des Portfoliorisikos, welches durch σ ausgedrückt wird, weißt Markowitz bereits darauf hin, dass die Kovarianz der Renditen der entscheidende Faktor ist.[7] Markowitz zeigt also den Zusammenhang von Diversifikation und Risiko, bietet aber noch kein allgemeines Modell zur Bestimmung der Kapitalkosten an, da die tatsächliche Portfoliowahl immer noch von den individuellen Präferenzfunktionen der Anleger abhängt. Zudem erfordert sein Ansatz die Kenntnis aller Kovarianzen der Wertpapiere (Markowitz, 1952a, S. 89-91).

Das CAPM nutzt nun diese von Markowitz hergeleiteten Zusammenhänge des Anlegerverhaltens und erweitert sie um einige Annahmen, um die Beziehung zwischen Risiko und Preis klar zu definieren und somit ein Marktgleichgewichtsmodell zur Bestimmung eines risikogerechten Kapitalkostensatzes einzelner Anlagen herzuleiten (Sharpe, 1964, S. 425-427). Für den Markt gelten dabei die folgenden vereinfachenden Bedingungen:

(i) es existiert eine risikolose Geldanlage- und Kreditaufnahmemöglichkeit zum einheitlichen risikolosen Zins ,
(ii) die Wertpapiere sind beliebig teilbar,
(iii) es gibt keine Transaktionskosten und Steuern,
(iv) die Marktpreise sind gegeben und hängen somit nicht von den Investitions-entscheidungen des Anlegers ab und
(v) es wird eine ein-periodische Anlagesituation betrachtet (d.h. die Rendite besteht typischerweise aus Dividendenzahlungen und der Preisänderung innerhalb einer Periode mit konstanten Bedingungen).

Für die Anleger wird zudem die Annahme getroffen, dass sie sich bezüglich Erwartungswert, Varianz und Kovarianz der Wertpapiere einig sind, also homogene Erwartungen haben (Lintner, 1965, S. 15 f.; Sharpe, 1964, S. 433 f.). Voraussetzung für homogene Erwartungen der Anleger ist die bereits vorgestellte Idee der informationseffizienten Märkte von Fama. Nur effiziente Märkte können sicherstellen, dass allen Anlegern zur gleichen Zeit alle Informationen zur Verfügung stehen und somit ein einheitliches Meinungsbild entstehen kann (Perridon et al., 2012, S. 272). Durch die genannten Annahmen ergibt sich nun die Situation, dass alle Anleger die gleiche Kombination von riskanten Wertpapieren wählen. Die individuelle Risikoneigung zeigt sich nur noch in der Beimischung der risikolosen Anlage. Alle effizienten Portfolios liegen somit auf einer Geraden, der sog. Kapitalmarktlinie. Die lineare Beziehung zwischen der risikolosen Anlage und den riskanten Anlagen ergibt sich aus der Definition des Risikos. Da die risikolose Anlage eine Standartabweichung von Null aufweist, ist auch die Korrelation mit allen riskanten Wertpapieren gleich Null. Somit lässt sich ein Portfolio aus risikoloser und riskanter Anlage stets als Linearkombination der beiden darstellen. Deutlich wird dieser Zusammenhang bei Betrachtung der Abb. 1.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Kapitalmarktlinie

(in Anlehnung an: Perridon et al., 2012, S. 273)

Um den Effizienzgedanken von Markowitz zu folgen, muss die Gerade nun möglichst steil sein. Am steilsten ist sie, wenn sie die Effizienzkurve der riskanten Wertpapiere im Punkt M tangiert. So lässt sich nun leicht erkennen, dass eine Kombination von M, dem sog. Tangential- oder Marktportfolio, mit der risikolosen Anlage, alle anderen Portfolios dominiert (Sharpe, 1964, S. 431-436). Beispielsweise wird A von A‘ und B von B‘ dominiert (im Punkt B‘ erfolgt eine Verschuldung zum risikolosen Zinssatz). Wie schon von Tobin (1958, S. 82-85) gezeigt, teilt sich die Anlageentscheidung so in zwei Stufen. In der ersten Stufe wird die Kombination von riskanten Wertpapieren gewählt, hier bei allen Investoren das Marktportfolio, und in der zweiten Stufe, der Anteil der risikolosen Anlage am Portfolio.[8] Da jedes Wertpapier i nun Bestandteil des Marktportfolios M ist, kann dessen Wert in Relation zu diesem ausgedrückt werden und aus der Kapitalmarktlinie das CAPM abgeleitet werden. Es ergibt sich folgender bekannter Zusammenhang:

Abbildung in dieser Leseprobe nicht enthalten

Beta ist dabei definiert als:

Abbildung in dieser Leseprobe nicht enthalten

Die erwartete Rendite ergibt sich also aus dem risikolosen Zinssatz plus einer wertpapierspezifischen Risikoprämie, wobei allein die Kovarianz (COV) des betrachteten Wertpapieres mit der Rendite des Marktportfolios zu einer Differenzierung zwischen den einzelnen Wertpapieren führt. Dieses Risiko wird als systematisches Risiko bezeichnet und kann nicht diversifiziert werden. Je höher die Kovarianz des Wertpapieres mit dem Markt ist, desto höher sind demnach auch der Beta-Faktor und die erwartete Rendite. Das unternehmensspezifische Risiko verlangt hingegen in der CAPM-Welt keine Risikoprämie, da es diversifiziert werden kann. Graphisch lässt sich der Zusammenhang mit der Wertpapierlinie darstellen, wobei das Beta des Marktportfolios gleich eins und das Beta der risikolosen Anlage gleich null ist (siehe Abb. 2).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2: Wertpapierlinie

(in Anlehnung an: Perridon et al., 2012, S. 277)

2.4 Die Arbitrage Pricing Theory

Die von Ross (1976) entwickelte APT ist genau wie das CAPM ein kapitalmarktorientiertes Gleichgewichtsmodell zur Bestimmung der erwarteten Rendite von Wertpapieren, wobei sich die Rendite wie im CAPM aus dem risikolosen Zins und einer Risikoprämie zusammensetzt. Die Abbildung des Risikos erfolgt jedoch unter einer anderen Herangehensweise. Ross (1976, S. 341-349, 346-353) entwickelt die APT als Alternative zu dem CAPM und verzichtet in seinem Ansatz auf die μσ-Entscheidungsregel, welche das CAPM dominiert. Statt das Risiko wie im CAPM mit nur einem Faktor, dem Betafaktor, zu erfassen, greift Ross auf ein lineares Mehrfaktorenmodell zurück. An die Stelle des Marktportfolios und des Betafaktors rücken nun also K Faktorportfolios mit den jeweiligen Faktorsensitivitäten . Eine Bestimmung des Marktportfolios ist somit nicht mehr nötig (Roll & Ross, 1980, S. 1080). Neben der Annahme, dass die Aktienrendite von mehreren Risikofaktoren bestimmt wird, nimmt Ross einen Markt ohne Arbitragemöglichkeiten an. Arbitragefreiheit bedeutet dabei, dass es nicht möglich ist, durch Transaktionen, die keinen Kapitaleinsatz erfordern und keinem Risiko unterliegen, eine positive Rendite zu erzielen.[9] Ergeben sich Arbitragemöglichkeiten, werden diese sofort genutzt und die Preise passen sich den Modellvoraussetzungen an. Anzumerken ist hier, dass dafür wieder ein informations-effizienter Markt mit homogenen Erwartungen nötig ist.[10] Auch von Steuern und Transaktionskosten wird dementsprechend erneut abgesehen, da diese den Arbitrageprozess stören würden. Unter diesen grundlegenden Annahmen leitet Ross (1976, S. 353) folgende Bewertungsgleichung her:

Abbildung in dieser Leseprobe nicht enthalten

[Abbildung in dieser Leseprobe nicht enthalten]ist dabei die Risikoprämie eines Portfolios, dessen Rendite bezüglich des Faktors k eine Sensitivität von eins aufweist, also perfekt korreliert ist. Die Risiken sind dabei nur systematische Risiken, da wie im CAPM angenommen wird, dass das unternehmenseigene Risiko diversifiziert werden kann. zeigt dementsprechend die Sensitivität des betrachteten Wertpapieres bezüglich der jeweiligen Faktorportfolios. Anders als im CAPM, ist in der Bewertungsgleichung der APT nicht vorgegeben, welche konkreten Risikofaktoren in das Modell einfließen sollen. Da die Risikofaktoren von der Theorie also nicht direkt gegeben sind, müssen sie empirisch ermittelt werden. Dafür existieren zwei verschiedene Herangehensweisen (Lockert, 1998, S. 92 f.; Perridon et al., 2012, S. 288-292). Eine Möglichkeit ist die Ermittlung der Faktoren mittels einer Faktorenanalyse aus einer Datenmatrix vergangener Kursentwicklungen (Roll & Ross, 1980, S. 1082-1085). Die zweite Möglichkeit besteht darin, mittels Faktoranalyse zu überprüfen, ob sich ökonomisch sinnvoll interpretierbare Variablen im Rahmen der APT als Risikofaktoren darstellen lassen (Nai-Fu Chen, Roll, & Ross, 1986, S. 383 f.). Die wohl bekanntesten Modelle im Rahmen der APT sind das 3-Faktoren Modell von Fama und French (1992; 1993; 1996) und die Erweiterung des Modells durch Carhart (1997, S. 60-62) um einen Momentumfaktor (Dempsey, 2013, S. 10 f.). Dieses 4-Faktoren Modell enthält dann den erstmals von Banz (1981) entdeckten Größeneffekt (Small-Minus-Big-Faktor (SMB)), den Buchwert-Marktwert-Effekt von Stattman (1980) und Rosenberg, Reid und Lanstein (1985) (High-Minus-Low-Faktor (HML))[11], sowie den auf Jagadeesh und Titman (1993) zurückgehenden Momentumeffekt (Prior-One-Year-Faktor (PR1Y)) und den schon vom CAPM bekannten Marktfaktor. Die Renditegleichung ergibt sich in diesem Modell dann wie folgt (Carhart, 1997, S. 61; Perridon et al., 2012, S. 293):

Abbildung in dieser Leseprobe nicht enthalten

Trotz des unterschiedlichen theoretischen Hintergrundes und einiger abweichenden Annahmen, kann ein grundlegender Zusammenhang zwischen CAPM und APT festgestellt werden. So kann das CAPM als Spezialfall der APT angesehen werden. Wird in der APT das Marktbeta als einzig relevanter Risikofaktor angesehen, so gleicht die Bewertungsgleichung der APT, der des CAPM (Ross, 1976, S. 343). Zudem basieren beide Modelle auf dem Diversifikationsgedanken der Portfoliotheorie, der EMH und der Annahme rationaler Anleger, welche allein die Nutzenmaximierung gemäß der Erwartungsnutzentheorie (ENT)[12] anstreben.[13]

3 CAPM, APT und die Effizienzmarkthypothese in der Diskussion

3.1 Wissenschaftliche Diskussion

3.1.1 Theoretische Fundierung der Modelle

An economist, an engineer and a chemist were stranded together on a desert island with a large tin of ham but no tin opener. After various exercises in applied science by the engineer and chemist aimed at opening the tin, they turned to the economist who all the while had been wearing a superior smile. "What would you do?" they asked, "let us assume we have a tin opener", came the unruffled reply (D.P. O'Brian: Inaugural lecture - the University of Durham, zitiert nach: Ryan, 1982, S. 443).

Das CAPM und die APT basieren zweifelsohne auf einigen unrealistisch erscheinenden Annahmen. Schon Sharpe (1964, S. 434) und Lintner (1965, S. 25) waren sich dessen bewusst. Besonders relevant und diskussionswürdig sind in diesem Zusammenhang die Annahmen eines effizienten Marktes und perfekt diversifizierter Anleger, welche im Falle des CAPM zudem allesamt das gleiche Portfolio an riskanten Wertpapieren halten. Auch die Annahme, dass Investoren generell risikoavers sind und rein rationale Entscheidungen treffen, die allein darauf abzielen, ihren finanziellen Nutzen zu maximieren, ist fragwürdig. Gerade die im CAPM angenommene μσ-Entscheidungsregel scheint bei der Komplexität der realen Entscheidungssituation diskussionswürdig. Bevor die drei Stufen der Effizienz und die empirischen Tests der Asset-Pricing Modelle näher betrachtet werden, sollen in diesem Teil der Arbeit die Annahmen der Modelle diskutiert werden. Hierbei wird untersucht, inwieweit sich die Theorie mit den tatsächlichen Marktbedingungen vereinbaren lässt.

Seit der Finanzkrise aus dem Jahr 2008 geraten die EMH, und somit auch die auf ihr basierenden Modelle, mehr denn je in die Kritik. Es stellt sich die Frage, wie in einem effizienten Markt Risiken derart falsch bewertet werden können. Einige Forscher sehen die EMH dabei nicht nur als widerlegt an, sondern machen in ihr sogar den Verursacher der heutigen wirtschaftlichen Probleme aus (Cai, Clacher, & Keasey, 2013, S. 53-56; Moosa, 2013, S. 65). Durch den Glauben an einen sich selbst-regulierenden effizienten Markt, in dem alle Anlagen korrekt gepreist sind, entstanden immer mehr und immer komplexere Finanzinnovationen. Gleichzeitig wurde die Deregulierung der Finanzbranche weiter vorangetrieben. Der Handel mit Derivaten nimmt dabei eine besondere Stellung ein, da Collateralized Debt Obligations (CDO) und Credit Default Swaps (CDS) wesentliche Elemente der Suprime-Krise waren, welche sich dann zu einer Finanz- und letztendlich Wirtschaftskrise entwickelte. Der Handel für Derivate wurde in den USA durch den Commodity Futures Modernization Act of 2000 dereguliert. Unter der Annahme effizienter Märkte sollte diese Maßnahme das systematische Risiko der Märkte mindern und den Wettbewerb fördern (U.S. Securities and Exchange Commission, 2000, S. 1). Letztendlich ist das gegenteilige Szenario eingetreten. Die Finanzprodukte wurden intransparenter, mit nur noch schwer einschätzbaren Risiko. Das systematische Marktrisiko ist im Zuge der Krise gestiegen und der Handel einiger Produkte kam teilweise zum Erliegen (Harper & Thomas, 2009, S. 200 f.). Im Anblick des Ausmaßes dieser durch die Finanzbranche geschaffenen Krise und deren weitreichenden Implikationen auf die Weltwirtschaft, fällt es selbst einigen hartgesottenen Unterstützern des Effizienzmarktgedankens schwer, an ihrer Philosophie festzuhalten. In einer Anhörung vor dem Committee on Oversight and Government Reform gesteht der langjährige Vorsitzende der Federal Reserve, Alan Greenspan, Fehler ein. Aufgrund seines Glaubens an die EMH trieb er jahrelang die Deregulierung der Finanzmärkte voran. Daraufhin gefragt, ob seine Ideologie falsch war, entgegnet Greenspan: „Precisely. That's precisely the reason I was shocked, because I had been going for 40 years or more with very considerable evidence that it was working exceptionally well”. Die Modelle, die das Risiko eigentlich hätten korrekt erfassen müssen, haben versagt und Greenspan konstatiert: „The whole intellectual edifice…collapsed in the summer of last year“ (Hearing before the Committee on Oversight and Government Reform, 2008).

Sicherlich ist die Deregulierung des Devisenmarktes nur eine von vielen Ursachen für die Krise. Auf eine Analyse der Entstehung der Finanzkrise soll hier aber verzichtet werden. Vielmehr ist, im Hinblick auf die Diskussion der Kapitalkostenbestimmung, die Untersuchung des Risikoentscheidungsverhaltens der Marktteilnehmer interessant. Bei Phänomenen wie der Finanzkrise stoßen das CAPM und die APT, mit der zugrundeliegenden EMH und ENT, als Erklärungsansätze schnell an ihre Grenzen. Wissenschaftler der Forschungsrichtung Behavioural Finance entwickeln hier Ansätze, die sich besser mit diesen Phänomenen in Einklang bringen lassen. Sie stellen das Grundgerüst des CAPM und der APT in Frage und orientieren sich näher an dem tatsächlichen Marktgeschehen. Die Behavioural Finance stellt insbesondere eine Abkehr von dem sogenannten Homo oeconomicus dar. Die Marktakteure sind also nicht, wie in den bisher vorgestellten Modellen, rationale und emotionslose Nutzenmaximierer, die der ENT folgen. Vielmehr werden die psychologischen Eigenheiten und irrationalen Verhaltensweisen der realen Marktteilnehmer berücksichtigt (Thaler & Mullainathan, 2008).

Zahlreiche irrationale Verhaltensweisen, die im Widerspruch zu den Annahmen des CAPM und der APT stehen, wurden bereits aufgedeckt. Ein Beispiel ist die Unterdiversifikation einiger Anleger. So zeigt Polkovnichenko (2005, S. 1476 f.) beispielsweise, dass 90% der amerikanischen Haushalte, die Aktien halten, zehn oder weniger verschiedene Aktien halten und 80% sogar weniger als fünf. Dabei sind die Investitionen zudem häufig nicht auf verschiedene Branchen und Länder gestreut, sondern stark konzentriert. Verdeutlicht wird dies durch Benartzi (2001, S. 1747), welcher bei einer Untersuchung großer amerikanischer Rentensparpläne zeigt, dass Arbeitnehmer ca. ein Drittel ihres Vermögens in Aktien ihres Arbeitgebers investieren. Die Folge der Unterdiversifikation ist, dass nicht, wie im CAPM und APT angenommen, nur das systematische Risiko entscheidend ist, sondern auch das unternehmensspezifische. Am Beispiel des Schwedischen Finanzmarktes kann Campbell (2006, S. 1572) zeigen, dass etwa die Hälfte des Portfoliorisikos eines durchschnittlichen Anlegers unternehmensspezifisch ist. Berk und DeMarzo (2011, S. 383 f.) können diese Kritik allerdings etwas entschärfen, indem sie zeigen, dass schon mit etwa 30 Aktien beinahe der gesamte Diversifikationseffekt erreicht werden kann. Huberman (2001, S. 659-661) erklärt die mangelnde Diversifikation damit, dass Investoren es bevorzugen, in ihnen bekannte Unternehmen zu investieren.

Irrationale Verhaltensweisen sind jedoch nicht nur in privaten Haushalten zu finden. Auch professionelle Anleger weichen in ihren Portfoliozusammenstellungen von den Vorgaben des CAPM und der APT ab. So neigen Rentenfond-Manager häufig dazu, „ window-dressing “ zu betreiben, oder, aus Angst eines Reputationsverlustes, die Aktienwahl anderer Manager nachzuahmen (Lakonishok, Shleifer, Thaler, & Vishny, 1991; Scharfstein & Stein, 1990, S. 465).[14] Eine weitere beobachtete irrationale Verhaltensweise, welche der Idee rationaler Investoren widerspricht, ist das übermäßige Handeln aufgrund von Selbstüberschätzung oder purer Sensationslust. Barber und Odean (2001, S. 261 f.) zeigen dabei zudem, dass die Selbstüberschätzung von Geschlecht und Familienstand abhängig ist. Männer neigen demnach zu häufigerem Handeln als Frauen, wobei sich der Effekt bei alleinstehenden Männern noch verstärkt. Auch die Sensationslust ist personenabhängig. So konnte z.B. ein Zusammenhang zwischen der Anzahl der Strafzettel und der Handelstätigkeit entdeckt werden (Grinblatt & Keloharju, 2009, S. 574-576). Im Anblick der übermäßigen Handelsaktivität kreiert Fischer Black (1986, S. 529 f.) den Begriff „noise trader“ und beschreibt damit Marktteilnehmer, die nicht aufgrund von Informationen, sondern irrelevantem „noise“ handeln. Dieses irrationale „ noise trading “ beeinflusst die Preisbildung in einem entscheidenden Ausmaß. Nach Black kann die Preisbildung demnach nicht mit einem, oder einigen wenigen Faktoren, wie im CAPM oder APT, abgebildet werden.

Irrationales Verhalten alleine ist allerdings noch kein Widerspruch zu der EMH, da sich unabhängige irrationale Handelsstrategien sehr wahrscheinlich ausgleichen. Die Verhaltensanomalien müssen korreliert sein, um einen Beweis gegen die EMH zu bieten (Shleifer, 2004, S. 3). Ein bekanntes Beispiel für ein solches, unter sehr vielen Anlegern verbreitetes Verhalten, ist der sog. Dispositionseffekt, welcher die Eigenheit beschreibt, Verlierer-Aktien zu halten und Gewinner-Aktien zu verkaufen. Erklärt wird dieses Verhalten z.B. mit dem Unwillen, eigene Fehler einzugestehen oder der im Anblick eines Verlustes steigenden Risikobereitschaft (Shefrin & Statman, 1985, S. 777 f.).[15] Auch die Berichtshäufigkeit in den Medien, das Wetter und sogar Sportveranstaltungen können das Investorenverhalten systematisch beeinflussen (Barber & Odean, 2008; Edmans, Garcia, & Norli, 2007; Grullon, Kanatas, & Weston, 2004; Hirshleifer & Shumway, 2003). Das Herdenverhalten, also die Neigung des Menschen, seine Mitmenschen nachzuahmen, führt zudem dazu, dass sich die Systematik der Verhaltensweisen noch verstärkt (Bikhchandani, Hirshleifer, & Welch, 1992; DeMarzo, Kaniel, & Kremer, 2008, S. 19; Scharfstein & Stein, 1990; Shiller, 1984).

Doch selbst für diese systematischen irrationalen Verhaltensweisen hat die EMH eine Antwort parat. So bieten auch stark korrelierte, von den Vorgaben der EMH abweichende Verhaltensweisen, noch keinen endgültigen Beweis gegen die EMH, solange einige rationale Anleger existieren, die das Fehlverhalten ausnutzen, indem sie Arbitrage betreiben. Ein zentrales Anliegen der Behavioural Finance ist es somit auch zu zeigen, dass Arbitrage in der Realität häufig nicht risikofrei, sondern riskant und limitiert ist (Shleifer, 2004, S. 13). Voraussetzung für den Arbitragevorgang ist die Existenz von geeigneten Substituten, also Wertpapieren mit in allen Umweltzuständen identischen cash-flows (Scholes, 1972, S. 179 f.). Neben der grundsätzlichen Schwierigkeit, geeignete Substitute zu finden, beschreibt Shleifer (2004, S. 13 f.) die Untauglichkeit des Arbitrageprinzips im Falle eines überbewerteten Marktes als Ganzen. Sind alle Aktien überbewertet, ist der Arbitrageur nicht mehr in der Lage, durch Leerverkäufe und Käufe von Aktien ein risikoloses Arbitrageportfolio zu bilden. Sind die Arbitrageure risikoavers, ist somit auch ihre Fähigkeit, den Markt im Gleichgewicht zu halten, limitiert. Und selbst mit perfekten Substituten bleibt der Arbitragevorgang nach Shleifer nicht risikofrei. Es besteht immer noch das Risiko, dass sich die gehandelten Wertpapiere überraschend gut oder schlecht entwickeln. De Long, Shleifer, Summers und Waldmann (1990, S. 703 f.) heben zudem das Risiko einer fortwährenden oder einer sich sogar verschlimmernden Fehlbewertung hervor. Selbst wenn sich die Preise auf Dauer wieder berichtigen, ist dieses Risiko für den Investor entscheidend, da er in der Realität häufig nicht in der Lage ist, die zwischenzeitlichen Verluste auf lange Dauer zu halten. Ein Beispiel für eine solche langanhaltende Fehlbewertung sind die Jahre vor dem Platzen der Dotcom-Blase. Shleifer (2004, S. 15 f.) zeigt, dass der Arbitrageur in dieser Zeit aufgrund massiver Verluste sehr wahrscheinlich schon vor dem Platzen der Blase geschäftsunfähig geworden wäre.[16]

Ein Meilenstein der Behavioural Finance ist die Prospect Theory von Kahneman und Tversky (1979). Sie deckt Schwächen der ENT auf und bietet sich als Alternative zu ihr an. Der Ursprung der Theorie sind experimentelle Studien, die Widersprüche zwischen dem realen Entscheidungsverhalten und der ENT aufdecken. Zwei wesentliche beobachtete Abweichungen von der ENT sind der „ certainty effect “ und der „ isolation effect “. Der certainty effect zeigt, dass Entscheidungsträger lediglich wahrscheinliche Ereignisse, verglichen mit sicheren Ereignissen, unterschätzen und somit in Entscheidungssituationen mit sicheren Gewinnen risikoavers und in Situationen mit sicheren Verlusten risikofreudig agieren (Kahneman & Tversky, 1979, S. 263). Der Effekt stellt einen Verstoß gegen das Unabhängigkeitsaxiom der ENT dar (Von Neumann & Morgenstern, 2004, unveränderter Nachdruck von 1953, S. 24-27) und wurde bereits von Allais (1953, S. 527 f.) nachgewiesen, weswegen er auch als Allais-Paradoxon bekannt ist. Am besten lässt sich der Widerspruch anhand eines Experimentes mit einer beispielhaften Entscheidungssituation nachvollziehen (Kahneman & Tversky, 1979, S. 165 f.):

Abbildung in dieser Leseprobe nicht enthalten

Die Prozentzahlen in den eckigen Klammern stellen die Wahl der Probanden dar. In der ersten Entscheidungssituation entscheiden sich 18% der Probanden für Option A und 82% für Option B. Die Implikation ist also:

Abbildung in dieser Leseprobe nicht enthalten

In der zweiten Entscheidungssituation ist die Präferenz nun offensichtlich genau umgekehrt, wodurch ein klarer Widerspruch zu den Vorhersagen der ENT entsteht (Kahneman & Tversky, 1979, S. 265 f.). Werden nun, anstelle von Gewinnen, Verluste betrachtet, führt der Effekt interessanterweise genau zu einer Umkehrung der Entscheidung zwischen den Alternativen (Kahneman & Tversky, 1979, S. 268):[17]

Abbildung in dieser Leseprobe nicht enthalten

Entgegen der ENT, wird der Nutzen also nicht durch die objektive Wahrscheinlichkeit bestimmt. Vielmehr ist die subjektive Wahrscheinlichkeit der Entscheider von Bedeutung (Kahneman & Tversky, 1979, S. 265, 275 f., 280-283).[18] Der isolation effect zeigt zudem, dass die Präsentation der Entscheidungsalternativen die Entscheidung beeinflusst. Folgendes Beispiel illustriert den Effekt:

Abbildung in dieser Leseprobe nicht enthalten

Entsprechend der ENT sind die Alternativen 5A und 6C, sowie 5B und 6D identisch. Im Endzustand liefern 5B und 6D jeweils 1.500 mit einer Wahrscheinlichkeit von 100% und 5A und 6C, mit einer Wahrscheinlichkeit von jeweils 50%, entweder 2.000 oder 1.000. Durch die unterschiedliche Präsentation der Situation, kommt es jedoch erneut zu einem Wechsel der Präferenzen bei den Probanden und somit zu einem erneuten Widerspruch zwischen ENT und dem realen Entscheidungsverhalten (Kahneman & Tversky, 1979, S. 271-273). Die dargestellten Beobachtungen fließen nun in die Bewertungsfunktion von Kahneman und Tversky ein, indem diese die Unterschiede im Entscheidungsverhalten bei Gewinnen und Verlusten berücksichtigt und sich auf einen Referenzpunkt bezieht. Für Gewinne zeigt die Funktion dann einen konvexen und für Verluste einen konkaven, sowie steileren, Verlauf auf. Die Hauptaussage der Prospect Theory ist somit, dass nicht das Endvermögen, sondern die Vermögensänderungen, für das Entscheidungsverhalten entscheidend sind (Kahneman & Tversky, 1979, S. 273, 279).[19]

Die im CAPM und APT angenommenen Entscheidungsregeln sind nun aber nicht nur aufgrund der Annahme der ENT an sich, sondern auch aufgrund weiterer nötiger Einschränkungen, problematisch. Den Anfang soll an dieser Stelle das CAPM machen. Da das CAPM auf der μσ-Entscheidungsregel basiert, sind die Präferenzfunktionen nicht, wie in der ENT, von der gesamten Wahrscheinlichkeitsverteilung abhängig, sondern nur von den Parametern μ und σ. Auf der einen Seite wird so die praktische Anwendbarkeit erleichtert (Levy, 2011, S. 24 f.). Auf der anderen Seite sind Einschränkungen nötig, um rationale Entscheidungen zu gewährleisten. Als rational werden die Entscheidungen dabei angesehen, wenn sie mit der ENT übereinstimmen, da die ENT als Grundprinzip ökonomisch rationaler Entscheidungen angesehen wird (Schneeweiß, 1967, S. 77-84, 89-117). Die grundlegende Frage ist nun also, unter welchen Beschränkungen die μσ-Entscheidungsregel mit der ENT vereinbar ist und dementsprechend andere mögliche Verteilungsparameter der ENT problemlos ignoriert werden können.

Aus dieser Problematik heraus entstand eine langandauernde Debatte über die Vorteilhaftigkeit und Vereinbarkeit der Ansätze, welche von Johnstone (2013, S. 2-4) anschaulich zusammengefasst wird.[20] Im frühen Stadium der Debatte wird noch die Meinung vertreten, dass die μσ-Entscheidungsregel nur zu rationalen Entscheidungen führt, wenn entweder die Renditen einer Normalverteilung folgen, oder eine quadratische Nutzenfunktion vorliegt (Feldstein, 1969, S. 10f.; Ross, 1976, S. 341; Tobin, 1969, S. 13). Meyer (1987) kann später jedoch zeigen, dass weder eine quadratische Nutzenfunktion, noch eine Normalverteilung der Rendite nötig sind. Er beweist, dass die μσ-Entscheidungsregel mit der ENT kompatibel ist, solange alle vom Anleger betrachteten Wahrscheinlichkeits-verteilungen der gleichen linearen Klasse angehören.[21] Diese als „location and scale parameter condition“ (LS) bezeichnete Eingrenzung ist flexibler, da die μσ-Entscheidungsregel so nicht auf bestimmte Nutzenfunktionen oder Wahrscheinlichkeits-verteilungen beschränkt ist (Meyer, 1987, S. 424).[22] Solange die LS Eingrenzung erfüllt ist, können die Renditeverteilungen jede beliebige Form annehmen (Meyer, 1987, S. 422).

Auch heute scheint allerdings noch einige Unsicherheit bzgl. der nötigen Einschränkungen zu herrschen. So wird selbst in einigen aktuellen Finanzlehrbüchern angenommen, dass die μσ-Entscheidungsregel nur zu rationalen Entscheidungen führt, wenn entweder die Renditen einer Normalverteilung folgen, oder eine quadratische Nutzenfunktion vorliegt (Ballwieser, 2011, S. 98; Perridon et al., 2012, S. 266, 290). Damit hängt dem CAPM immer noch die Kritik dieser restriktiveren Annahmen an.

Mandelbrot (1963, S. 394 f.) kritisiert z.B. die Annahme einer Normalverteilung, aufgrund der häufig beobachteten extremen Ergebnisse (sog. „fat tails“) und der spitzen Form der Verteilungen, und empfiehlt daher Pareto-Verteilungen (siehe auch: Fama, 1965b). Auch die Annahme quadratischer Nutzenfunktionen ist unrealistisch. So kritisiert Sharpe (2007, S. 19), dass bei einer quadratischen Nutzenfunktion die Anleger ab einen bestimmten Punkt eine geringere Rendite einer höheren vorziehen. Adler und Kritzman (2007, S. 303 f.) teilen diese Ansicht und kritisieren zudem die sich aus der quadratischen Funktion ergebende steigende absolute Risikoaversion, da in der Realität eher eine abnehmende absolute Risikoaversion beobachtet werden kann (siehe auch: Levy, 2011, S. 40).[23] Levy (2011, S. 114-116) kommt in seiner aktuellen und umfangreichen Verteidigung des CAPM zu dem Schluss, dass die μσ-Entscheidungsregel, selbst wenn sie die nötigen Einschränkungen nicht genau erfüllt, immer noch eine geeignete Approximation darstellt und zu „fast“ optimalen Entscheidungen führt und somit, besonders im Hinblick auf den hohen praktischen Wert, für die meisten Situationen zu empfehlen ist (siehe auch: Levy & Markowitz, 1979).[24]

In der APT von Ross (1976, S. 341 f., 355 f.) wird die Diskussion der Vereinbarkeit einer bestimmten Entscheidungsregel mit der ENT nun umgangen, da keine spezifischen Einschränkungen bzgl. der Nutzenfunktionen oder der Wahrscheinlichkeitsverteilungen der Renditen getroffen werden. Weder quadratische Nutzenfunktionen noch normalverteilte Renditen sind so erforderlich. Lediglich das Ergebnis der Handlungen ist entscheidend. Die Marktteilnehmer können also unterschiedliche Erwartungen bzgl. der Wahrscheinlichkeits-verteilung der Risikofaktoren haben, solange sie gleiche Einschätzungen bzgl. der Effekte der Modell-Faktoren auf die erwartete Rendite haben und somit die Arbitragebedingung eingehalten wird (siehe auch: Lockert, 1998, S. 80 f.). Bei der von Ross entwickelten Variante der APT handelt es sich allerdings um eine sog. „traditionelle“ Version der APT mit einer approximativen Bewertungsgleichung, welche keine Aussage über wertpapierspezifische Fehlerterme ermöglicht. Soll der Informationsgehalt der APT nun gesteigert werden und die empirische Testbarkeit gesichert werden, sind Modelle der „Gleichgewichts-APT“ nötig, welche entweder eine exakte Bewertungsgleichung oder eine wertpapierindividuelle Fehlerschranke verwenden (Dybvig & Ross, 1985, S. 1184; Lockert, 1998, S. 75-89, 91-93).[25] Diese Modelle erfordern wiederum restriktivere Annahmen, die den Prämissen des CAPM sehr ähnlich sind (Lockert, 1997, S. 45).[26] So können z.B. Grinblatt und Titman (1983, S. 503 f.) den wertpapierspezifischen Bewertungsfehler wiederum nur unter der Annahme quadratischer Nutzenfunktionen bzw. normalverteilten Renditen zeigen.

Neben den bereits diskutierten Annahmen, weisen das CAPM und die APT einige weitere unrealistisch erscheinende Annahmen auf. Wie im zweiten Teil der Arbeit gezeigt, sind einschränkende Bedingungen, wie die Freiheit von Steuern und Transaktionskosten, unbegrenztes Leihen und Verleihen zu einem bestimmten risikolosen Zinssatz, beliebige Teilbarkeit und auch die generelle Marktfähigkeit aller Anlagen nötig. Die Bewertungs-gleichung des CAPM ist zudem statisch und betrachtet demnach nur eine Periode. Jensen (1972, S. 358 f., 371-392) fasst die im Rahmen des CAPM getroffenen Annahmen zusammen und gibt einen Überblick über alternative CAPM Ansätze, in denen einige Annahmen gelockert werden. Auf eine ausführliche Erläuterung der Modelle wird an dieser Stelle verzichtet. Einige bekannte alternative Modelle sollen jedoch beispielhaft genannt werden: Merton (1973) ermöglicht mit seinem intertemporalen CAPM bspw. die Einbeziehung von Mehrperiodigkeit,[27] Black (1972, S. 446-452) verzichtet in seinem Zero-Beta-CAPM auf die Annahme eines risikolosen Zinssatzes,[28] Brennan (1970) entwickelt ein Modell, welches die unterschiedliche Besteuerung von Dividenden und Kursgewinnen berücksichtigt, Mayers (1973) ermöglicht mit seiner Modellanpassung die Einbeziehung von nicht marktfähigen Anlagen (z.B. Humankapital) und Lintner (1969) verzichtet auf die Annahme homogener Erwartungen. Zusammenfassend hält Jensen (1972, S. 371, 391 f.) fest, dass das CAPM den Lockerungen seiner Annahmen robust gegenübersteht, also die Annahmen nicht essentiell für die Entwicklung der wesentlichen Ergebnisse der Theorie sind und somit die Grundaussagen des Modells ihre Richtigkeit behalten. Zudem bleibt das Modell unter den weniger restriktiven Annahmen, mit Ausnahme der Annahme heterogener Erwartungen, empirisch testbar.

Auch für die APT existieren Varianten mit gelockerten Annahmen. So entwickeln Handa und Linn (1991; 1993) z.B. APT-Modelle in denen die Investoren unterschiedliche Informationen entweder bzgl. der Modell-Faktoren oder zu den verschiedenen Wertpapieren haben. Ein Modell, welches auf jedwede diskutable Annahme verzichtet, kann allerdings nicht präsentiert werden und würde auch der Idee eines Modells, welches schließlich als eine Vereinfachung der Realität dienen soll, widersprechen.

Abgesehen von der beschriebenen Diskrepanz zwischen den Annahmen und der Realität sprechen auch ganz grundlegende Gedankengänge gegen die getroffenen Annahmen. So üben Grossmann und Stiglitz (1980, S. 393) eine philosophische Kritik an dem CAPM und der APT, indem sie die berechtigte Frage stellen, warum Investoren überhaupt den Aufwand der Informationsbeschaffung betreiben sollten, wenn doch keine Arbitragemöglichkeiten auf dem Markt bestehen. Ohne Marktteilnehmer, die Zeit und Geld in die Informations-beschaffung investieren, kann allerdings kein effizienter Markt entstehen. Um solche Fragen zu umgehen oder auch anderen kritischen Stimmen bzgl. der getroffenen Annahmen ihre Durchschlagskraft zu nehmen, wird gerne auf die Forschungsphilosophie von Milton Friedman verwiesen (stellvertretend für viele: Sharpe, 1964, S. 434). Nach Friedman (1966, S. 40 f.) wird die Nützlichkeit eines Modells nicht durch die Realitätsnähe der getroffenen Annahmen determiniert, sondern durch dessen empirische Validität. Kritik an den Annahmen eines Modells ist somit irrelevant. Ein komplett realitätsgetreues Modell ist nicht erreichbar und der einzige Weg, zu bestimmen, ob ein Modell „realistisch genug“ ist, ist die praktische Anwendung. Wie in diesem Abschnitt gezeigt werden konnte, lässt die Untersuchung der Annahmen verständliche Zweifel an den Modellen aufkommen. Solange empirisch allerdings nachgewiesen werden kann, dass sich die Marktteilnehmer so verhalten, als ob die Annahmen stimmen würden, können das CAPM und die APT nicht verworfen werden.[29] Im folgenden Abschnitt sollen einige empirische Untersuchungen der Modelle vorgestellt werden, um so einem Urteil näher zu kommen.

3.1.2 Empirische Untersuchungen

„I believe there is no other proposition in economics which has more solid empirical evidence supporting it than the Efficient Market Hypothesis” (Jensen, 1978, S. 95).

Seit der Veröffentlichung der EMH durch Fama haben Wissenschaftler eine schier endlose Flut an empirischen Untersuchungen veröffentlicht. Nach anfänglicher Euphorie, die ihren Höhepunkt in den 70er Jahren erreichte, kamen jedoch zunehmend Zweifel an der EMH auf (Shiller, 2003, S. 83 f.). Auch Jensen (1978, S.100) war sich bei seiner gewagten Aussage der Existenz von sogenannten Anomalien bereits bewusst. Bevor auf einige der zahlreichen empirischen Studien eingegangen und die Anomalien diskutiert werden, ist es wichtig, sich die bereits angesprochene Problematik der Testbarkeit in das Bewusstsein zu rufen. Wie Fama (1970a, S.384) schon bei der Vorstellung der EMH hervorhebt, ist der Test der Markteffizienz nicht an ein bestimmtes Modell gebunden. Die Testergebnisse sind somit immer sowohl auf die EMH, als auch das dem Test zugrundeliegende Modell zurückzuführen. Wird ein Test abgelehnt, kann nicht gesagt werden, ob der Markt ineffizient, oder das Modell einfach nicht in der Lage ist, das Risiko korrekt zu erfassen. Die Folge ist, dass die Markteffizienz an sich nicht testbar ist. Dieses Problem wird auch joint-hypothesis Problem genannt. Wenngleich die Ergebnisse der Studien so immer verschiedene Interpretationen erlauben, ist es trotzdem sinnvoll, die empirischen Untersuchungen zu betrachten, um eine Diskussionsgrundlage zu schaffen. Zudem erwachsen den Studien einige interessante Erkenntnisse und nicht jede Studie ist gleichermaßen stark von dem joint-hypothesis Problem betroffen. Wird ein Test der EMH in Verbindung mit dem CAPM oder einem Multi-Faktor-Modell der APT durchgeführt, liegt es in der Betrachtungsweise, ob nun Markteffizienz abhängig von dem Modell oder das gewählte Modell in Abhängigkeit von der Markteffizienz getestet wird (Fama, 1991, S.1575 f., 1589). Es scheint für den Zweck dieser Arbeit am eingängigsten zu sein, die Diskussion der Testergebnisse nach den drei Stufen der Effizienz zu gliedern. Die interessantesten Tests für die Diskussion der APT und des CAPM werden dabei die Tests der „ return predictability “ sein, da hier die größte Uneinigkeit bei den Forschern besteht und zahlreiche Anomalien innerhalb der asset-pricing Modelle aufgedeckt werden. „ Event studies “ und „ tests for private information “ werden abschließend in aggregierter Form diskutiert.

[...]


[1] Einen Überblick über die verschiedenen Verschuldungstheorien bieten Perridon, Steiner und Rathgeber (2012, S. 518-546).

[2] Steinle, Krummaker und Lehmann (2007, S. 206 f.) stellen einige Methoden zur Differenzierung der Kapitalkosten vor.

[3] Die Sicherheitsäquivalentmethode bietet eine konzeptionelle Alternative zu den risikoadjustierten Kapitalkostensätzen. Das Risiko wird hier nicht im Nenner, also im Diskontierungszinssatz, sondern im Zähler berücksichtigt, wobei die Zahlungen über Nutzenfunktionen risikoangepasst werden (Ballwieser, 2011, S. 67).

[4] Der EVA® wurde ursprünglich von Steward (1991) eingeführt und ist eine eingetragene Marke der amerikanischen Unternehmensberatung Stern Steward & Co.

[5] Das Halten von Cash hat keinen positiven Erwartungswert und auch ein Leerverkauf kann keinen positiven Erwartungswert haben, solange der Erwartungswert der Rendite der Anlage nicht negativ ist.

[6] Eine genaue Differenzierung zwischen dem grundlegenden „fair game“ Modell bzw. dem Martingale Modell und dem Random Walk Modell in Hinblick auf effiziente Märkte wurde bereits von Mandelbrot (1966, S. 242) und Samuelson (1965, S. 44-48) am Beispiel von Rohstoff-Terminkontrakten gezeigt.

[7] Je mehr Aktien einem Portfolio hinzugefügt werden, desto mehr dominieren die Kovarianz Terme die Varianz Terme. Bei 50 Aktien sind es bspw. 2450 Kovarianzen und nur 50 Varianzen, womit 98% des Risikos durch die Kovarianz Terme bestimmt wird (P. Brown & Walter, 2013, S. 45).

[8] Sharpe (1964, S. 435) merkt jedoch an, dass bei Existenz perfekt korrelierter Kombinationen von riskanten Wertpapieren nicht alle Anleger die gleiche Kombination an riskanten Papieren halten müssten.

[9] Eine Transaktion ohne Risiko kann durch Leerverkauf eines Portfolios und gleichzeitigem Kauf eines anderen erfolgen.

[10] Allerdings betont Ross (1976, S. 355 f.), dass die Annahme homogener Erwartungen im Vergleich zum CAPM gelockert ist. So müssen die Anleger zwar grundsätzlich gleiche Renditeerwartungen haben („expectations“), können aber unterschiedliche Erwartungen bzgl. der Verteilung der Rendite aufweisen („anticipations“). Somit ist eine strenge Eingrenzung, wie sie bei dem CAPM mit der μσ-Entscheidungsregel erfolgt, nicht nötig. Ross merkt jedoch auch an, dass übereinstimmende anticipations nötig sind, wenn die APT empirischen Tests unterzogen werden soll.

[11] Nach Fama und French (1992, S. 450) sind die von Bhandari (1988) und Basu (1983) gefundenen Zusammenhänge zwischen Verschuldung bzw. Kurs-Gewinn-Verhältnis auch in dem Größeneffekt und Buchwert-Marktwert-Effekt enthalten bzw. lassen sich durch diese am besten abbilden.

[12] Die ENT wird durch die Axiome von Neumann und Morgenstern (2004, unveränderter Nachdruck von 1953, S. 24-27) beschrieben. Sie besagt, dass unter den Bedingungen der Vollständigkeit, Transistivität, Stetigkeit und Unabhängigkeit, die Präferenzen der Marktteilnehmer durch den Erwartungswert einer Nutzenfunktion dargestellt werden können.

[13] Lockert (1997, S. 44-50) bietet einen Überblick der theoretischen Zusammenhänge zwischen CAPM und APT.

[14] Das Verhalten der Manager, kurz vor Herausgabe des Endjahresberichts, welcher die aktuelle Portfoliozusammenstellung zeigt, Aktien, die sich gut entwickelt haben, dem Portfolio hinzuzufügen (bzw. länger als geplant zu halten) und Aktien, mit einer schlechten Performance, aus dem Portfolio zu entfernen, wird als „window dressing“ bezeichnet (Lakonishok et al., 1991, S. 227).

[15] Der Effekt ist dabei bei erfahrenen Anlegern weniger stark ausgeprägt (Dhar & Zhu, 2006, S. 726). Odean (1998, S. 1797) kann zudem den durch dieses Verhalten entstehenden Renditeverlust zeigen.

[16] Der berühmte Investor George Soros sah die Blase voraus und verlor tatsächlich £430 Millionen, aufgrund der langanhaltenden Fehlbewertung (Martinson, 1999).

[17] Diese Umkehrung des Entscheidungsverhaltens wird von Kahneman und Tversky (1979, S. 268 f.) auch als „reflection effect“ bezeichnet.

[18] Die subjektiven Wahrscheinlichkeiten werden von Kahneman und Tversky (1979, S. 275) durch sog. „decision weights“ dargestellt.

[19] Diese Hypothese wurde bereits früher von Markowitz (1952b, S. 154-158) aufgestellt.

[20] Ein wesentliches Element der Debatte ist der trade-off zwischen Genauigkeit und Nutzbarkeit der Ansätze. Während Tobin (1969) bspw. die ENT für praktische Anwendungen als unbrauchbar befindet, wird die μσ- Entscheidungsregel für einige Fälle als zu approximativ empfunden. So wird besonders bei einigen Hedgefond-Strategien (z.B. merger arbitrage) eine sog. „full-scale optimisation“ bevorzugt (Adler & Kritzman, 2007, S. 302-306; Cremers, Kritzman, & Page, 2005, S. 70 f.; Sharpe, 2007, S. 18-20).

[21] Die Verteilungen der Klasse können also durch Translation und/oder Maßstabsveränderung ineinander überführt werden (z.B.: ) (Schneeweiß, 1967, S. 121 f.).

[22] In der deutschen Literatur wurde dieser Zusammenhang bereits wesentlich früher von Schneeweiß (1967, S. 121-129) aufgezeigt.

[23] Folgendes Beispiel illustriert die Kritik: ein Anleger verfügt über ein Vermögen von 100 Euro. Er entschließt sich 40 Euro davon in riskante Wertpapiere zu investieren und 60 Euro in risikolose Anleihen. Bei steigender absoluter Risikoaversion würde derselbe Anleger nun bei einem verfügbaren Vermögen von bspw. 10.000 Euro weniger als 40 Euro in die riskante Anlage investieren und mehr als 9.960 Euro in die risikolose Anlage.

[24] Auf die vorgeschlagene Einschränkung der μσ-Entscheidungsregel von Meyer (1987) geht Levy hier allerdings nicht ein, obwohl er diese in einer früheren Veröffentlichung unterstützt (Levy, 1989). Stattdessen diskutiert er erneut die quadratischen Nutzenfunktionen und normalverteilte Renditen als Einschränkungen (Levy, 2011, S. 72-92).

[25] Einen Überblick über die verschiedenen Varianten der APT bietet Lockert (1998, S. 76-78).

[26] Häufig verwendete zusätzliche Bedingungen für die exakte Bewertungsgleichung werden von Dybvig und Ross (1985, S. 1175) aufgelistet.

[27] Auch Fama (1970b; 1977) setzt sich mit dem Problem der Mehrperiodigkeit auseinander und schlägt zur Berücksichtigung mehrerer Perioden die wiederholte Anwendung des einperiodigen CAPM vor.

[28] Auch die im Normalfall realistisch erscheinende Annahme, dass risikoloses Verleihen, aber nicht Leihen möglich ist, wird von Black (1972, S. 452-454) vorgestellt. Brennan (1971) stellt zudem den Fall von sich unterscheidenden risikolosen Zinsätzen für das Leihen und Verleihen vor.

[29] Kritik an dieser Philosophie wird bspw. von Frankfurter (1994, S. 226-228) geübt.

Ende der Leseprobe aus 70 Seiten

Details

Titel
Der Stellenwert von CAPM und APT als Kapitalkostenmodelle
Untertitel
Eine kritische Würdigung
Hochschule
Technische Universität Dresden  (Lehrstuhl für Betriebliches Rechnungswesen/Controlling)
Note
1,0
Autor
Jahr
2013
Seiten
70
Katalognummer
V321807
ISBN (eBook)
9783668211636
ISBN (Buch)
9783668211643
Dateigröße
996 KB
Sprache
Deutsch
Anmerkungen
Die Arbeit enthält ein sehr umfangreiches Literaturverzeichnis (knapp 20 Seiten wissenschaftlicher Quellen aus anerkannten Fachzeitschriften) und eignet sich somit sehr gut als Wissensquelle/Einstieg in die Kapitalkostenproblematik.
Schlagworte
CAPM, APT, Effizienzmarkthypothese, Implied Cost of Capital, Kapitalkosten
Arbeit zitieren
Martin Herma (Autor:in), 2013, Der Stellenwert von CAPM und APT als Kapitalkostenmodelle, München, GRIN Verlag, https://www.grin.com/document/321807

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Der Stellenwert von CAPM und APT als Kapitalkostenmodelle



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden