Lade Inhalt...

Kapitalmarkttheorie in der Kritik. Bedeutung der Behavioral Finance im heutigen Kapitalmarktumfeld

Bachelorarbeit 2016 108 Seiten

BWL - Investition und Finanzierung

Leseprobe

Inhaltsverzeichnis

Kurzfassung der Thesis

Abkürzungsverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Zielsetzung
1.3 Vorgehensweise

2 Neoklassische Kapitalmarkttheorie
2.1 Der “Homo Oeconomicus”
2.2 Markteffizienzhypothese

3 Behavioral Finance
3.1 Verhaltensanomalien
3.1.1 Informationswahrnehmungsanomalien
3.1.2 Informationsverarbeitungsanomalien
3.1.3 Entscheidungsanomalien
3.1.4 Bedeutung für die neoklassische Kapitalmarkttheorie
3.2 Kapitalmarktanomalien
3.2.1 Über- und Unterreaktionen
3.2.2 Spekulationsblasen
3.2.3 Kalenderanomalien
3.2.4 Buchwert-Marktwert-Effekt
3.2.5 Bedeutung für die neoklassische Kapitalmarkttheorie

4 Value Premium Puzzle
4.1 Konzeptionelle Grundlagen
4.1.1 Bewertungskennzahlen
4.1.2 Value- und Growth-Aktien
4.1.3 Value Premium
4.1.4 Survivorship Bias
4.2 Empirische Untersuchungen
4.3 Erklärungsversuch des Value Premiums
4.4 Bedeutung für die neoklassische Kapitalmarkttheorie

5 Fazit

Darstellungsverzeichnis

Tabellenverzeichnis

Literaturverzeichnis

Kurzfassung der Thesis

Die Entwicklungen an den Kapitalmärkten und das Verhalten der Marktteilnehmer lassen sich nicht vollständig durch die Annahmen der vorherrschenden neoklassischen Kapitalmarkttheorie erklären. Vielmehr scheint die unterstellte Rationalität der Marktteilnehmer durch psychologische Effekte verzerrt zu sein. Derartige Verzerrungen können für Ineffizienzen auf Kapitalmärkten verantwortlich sein.

Die vorliegende Arbeit befasst sich mit der Theorie der Behavioral Finance und setzt sie in einen Bezug zur neoklassischen Kapitalmarkttheorie, wobei der Fokus hierbei auf dem Modell des „Homo Oeconomicus“, der Markteffizienzhypothese und der Random-Walk-Theorie liegt.

Es werden vor allem zahlreiche psychologische Effekte erläutert und empirisch belegt, die Einfluss auf das menschliche Verhalten in wirtschaftlichen Entscheidungs-situationen haben können. Dabei erfolgt eine Untergliederung der Verhaltensanomalien in Informationswahrnehmungs-, Informationsverarbeitungs- und Entscheidungs-anomalien. Weiterhin wird der Kapitalmarkt auf regelmäßig auftretende Ineffizienzen untersucht. Zuletzt erfolgt eine nähere Betrachtung des Value Premium Puzzles. In diesem Zusammenhang werden Kapitalmärkte anhand empirischer Daten auf Über- und Unterbewertungen hin überprüft. Lassen sich diese durch einfache Regeln ausfindig machen und ausnutzen, um überdurchschnittliche Renditen zu erzielen, würde dies für weitere Ineffizienzen auf Kapitalmärkten sprechen.

Irrationales Verhalten und Ineffizienzen auf Kapitalmärkten stehen im Widerspruch zur vorherrschenden neoklassischen Kapitalmarkttheorie. Je stärker Irrationalität und Ineffizienz also ausgeprägt sind, desto höher ist die Bedeutung der Theorie der Behavioral Finance im heutigen Kapitalmarktumfeld.

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Die vorherrschende neoklassische Kapitalmarkttheorie unterstellt allen Marktakteuren, dass sie in wirtschaftlichen Entscheidungssituationen zu uneingeschränkt rationalem Verhalten fähig sind. Demgemäß sollten Wertpapierkurse zu jedem Zeitpunkt ihrem intrinsischen Wert entsprechen und alle verfügbaren bzw. relevanten Informationen widerspiegeln. Sind diese Voraussetzungen erfüllt, wären Kapitalmärkte effizient und alle Kursbewegungen aus rationaler Sicht begründbar.

1.1 Problemstellung

Problematisch an dieser Theorie ist jedoch, dass nicht alle Entwicklungen am Kapital-markt durch diese erklärbar sind. Daher zweifeln Wirtschaftswissenschaftler in jüngster Zeit zunehmend mehr an der neoklassischen Kapitalmarkttheorie, während dagegen das Interesse an alternativen Erklärungsansätzen wächst. Hierzu zählt unter anderem die Theorie der Behavioral Finance, die sich mit dem menschlichen Verhalten in wirtschaftlichen Entscheidungssituationen auseinandersetzt und versucht, Kurs-bewegungen mithilfe eines verhaltensökonomischen Ansatzes zu erklären.

1.2 Zielsetzung

In der vorliegenden Arbeit soll die Bedeutung der Behavioral Finance im heutigen Kapitalmarktumfeld herausgearbeitet werden, indem an den herkömmlichen Modellen und Theorien, die der neoklassischen Kapitalmarkttheorie zugrunde liegen, Kritik geübt wird. Hierzu zählen das Modell des „Homo Oeconomicus“, die Markteffizienzhypothese und die Random-Walk-Theorie. Die Erkenntnisse, die in dieser Arbeit gewonnen werden, unterstreichen die anfangs formulierte These, dass nicht alle Entwicklungen am Kapitalmarkt durch Rationalität begründbar sind. Stattdessen können zahlreiche psychologische Faktoren einen immensen Einfluss auf das Verhalten der Markt-teilnehmer und somit auch auf die Kursbildung haben.

Forschungsfragen

Insbesondere soll die Frage beantwortet werden, welche psychologischen Effekte die Informationswahrnehmung, -verarbeitung und das Entscheidungsverhalten von Markt-teilnehmern verzerren können und inwieweit diese Anomalien mit den Modell-annahmen des „Homo Oeconomicus“ unvereinbar sind (vgl. 3.1.4).

Daneben soll der Kapitalmarkt auf regelmäßig auftretende Kapitalmarktanomalien untersucht werden. Anschließend wird herausgearbeitet, in welchem Maße diese mit der Random-Walk-Theorie und/oder der Markteffizienzhypothese im Konflikt stehen (vgl. 3.2.5).

Darüber hinaus soll der Frage nachgegangen werden, ob sich durch die Anwendung einfacher Handelsstrategien kontinuierlich überdurchschnittliche Renditen erzielen lassen, indem man unterbewertete Aktien ausfindig macht. Dauerhafte Über- und Unterbewertungen würden für Verzerrungen auf dem Kapitalmarkt und somit gegen die Markteffizienzhypothese sprechen (vgl. 4.4).

1.3 Vorgehensweise

Als Einführung in das Thema bietet das zweite Kapitel vorerst einen kurzen Einblick in die neoklassische Kapitalmarkttheorie. In diesem Zusammenhang werden das Modell des „Homo Oeconomicus“, die Markteffizienzhypothese und die Random-Walk-Theorie erläutert.

Das dritte Kapitel befasst sich anschließend mit zahlreichen psychologischen Effekten, die das Verhalten von Marktteilnehmern (vgl. 3.1) negativ beeinflussen und verzerren können. Hierbei erfolgt eine Untergliederung in Informationswahrnehmungs-, Informationsverarbeitungs- und Entscheidungsanomalien (vgl. 3.1.1 bis 3.1.3). Am Ende des ersten Teils des dritten Kapitels werden grundlegende Erkenntnisse zusammengefasst die erste Forschungsfrage beantwortet. Daraufhin werden einige Kapitalmarktanomalien erläutert (vgl. 3.2.1 bis 3.2.4) und unter 3.2.5 vor dem Hintergrund der Markteffizienzhypothese und der Random-Walk-Theorie betrachtet. In diesem Zusammenhang wird die zweite Forschungsfrage beantwortet.

Im vierten Kapitel wird das Value Premium Puzzle behandelt. Im Mittelpunkt steht hierbei die Frage nach Ineffizienzen auf Kapitalmärkten. In diesem Kontext soll untersucht werden, ob es mithilfe einfacher Handelsstrategien möglich ist, unterbewertete Aktien ausfindig zu machen, und ob diese im Zeitverlauf eine bessere Performance aufweisen als überbewertete Aktien. Dafür werden vorerst einige konzeptionelle Grundlagen erklärt (vgl. 4.1). Darauf folgen eine Analyse einiger empirischer Studien zu diesem Thema (vgl. 4.2) und verschiedene Erklärungsansätze zum Value Premium (vgl. 4.3). Unter 4.4 wird letztlich die dritte Forschungsfrage beantwortet.

Das fünfte Kapitel fasst die gewonnenen Erkenntnisse nochmals prägnant zusammen und beleuchtet sie von einem kritischen Standpunkt aus.

2 Neoklassische Kapitalmarkttheorie

Die neoklassische Kapitalmarkttheorie unterstellt den Kapitalmärkten unter anderem Informationseffizienz. Marktteilnehmer handeln und bewerten also stets rational, so dass neue Informationen sofort in den Markt eingepreist werden. Auf den Aspekt der Rationalität und seinen Bezug zur Theorie effizienter Kapitalmärkte wird in diesem Kapitel näher eingegangen.

2.1 Der “Homo Oeconomicus”

„Homo Oeconomicus“ ist ein Begriff aus den Wirtschaftswissenschaften und bezeichnet einen ausschließlich wirtschaftlich denkenden Menschen. Das Modell ist ein wesentlicher Bestandteil der neoklassischen Wirtschaftstheorie und unterstellt, dass Menschen in wirtschaftlichen Entscheidungssituationen zu uneingeschränkt rationalem Verhalten fähig sind. Dabei ist das Streben nach Nutzen- bzw. Gewinn-maximierung handlungsbestimmend. Zur Erfüllung der vollständigen Rationalität sind drei weitere Bedingungen[1] von Bedeutung: das Vorliegen vollständiger Informationen über sämtliche Entscheidungsalternativen, die fehlerfreie Informationsverarbeitung und die anschließende rationale Bewertung und Entscheidung für die gewinnmaximierende Entscheidungsalternative.[2]

Um für ein besseres Verständnis zu sorgen, soll an dieser Stelle kurz auf die normative Entscheidungstheorie eingegangen werden, die der unterstellten Rationalität des Homo Oeconomicus zugrunde liegt. Hiernach orientiert sich der ausschließlich ökonomisch denkende Mensch an der Maximierung eines Erwartungswertes in wirtschaftlichen Entscheidungssituationen. Somit fällt die Wahl immer auf diejenige Alternative, von der das höchste Ergebnis zu erwarten ist.[3]

Üblicherweise stellt man hierfür alle möglichen Handlungsalternativen und denkbaren Umweltzustände in einer Matrix dar (vgl. Tabelle 1). Den jeweiligen Umweltzuständen werden in der Regel Eintrittswahrscheinlichkeiten zugeordnet, falls hierüber Informationen verfügbar sind. Anschließend wird für jede mögliche Kombination aus Handlungsalternative und Umweltzustand ein Ergebniswert kalkuliert und in die Matrix eingetragen. Um daraufhin die beste Alternative auszuwählen, ist eine Entscheidungs-regel notwendig. Beispielsweise können die einzelnen Werte mit den Eintritts-wahrscheinlichkeiten der Umweltzustände multipliziert werden (Bernoulli-Prinzip), um unabhängig hiervon einen Erwartungswert für jede einzelne Alternative zu berechnen. Diejenige Alternative mit dem höchsten errechneten Wert wird anschließend ausgewählt. Ein fiktives Beispiel hierzu ist der nachfolgenden Tabelle zu entnehmen:[4]

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Entscheidung unter Unsicherheit (Beispiel)

Quelle: eigene Darstellung

Aus dem oben aufgeführten Beispiel eines Entscheidungsproblems unter Unsicherheit geht hervor, dass eine Entscheidung für die dritte Alternative am besten wäre, weil sie den höchsten Erwartungswert aufweist. Darüber hinaus kann man der Tabelle entnehmen, dass selbst im schlechtesten Fall (Worst Case) ein Verlust von nur 50 Euro erzielt würde. Allerdings ist dabei zu berücksichtigen, dass dagegen im best-möglichen Fall (Best Case) nur ein Gewinn von 100 Euro möglich wäre. Die beiden anderen Alternativen würden im bestmöglichen Fall 150 oder 200 Euro abwerfen.

Was bei der Berechnung des Erwartungswertes jedoch vernachlässigt wird ist die Tatsache, dass der empfundene Nutzen für jede weitere erworbene Geldeinheit abnimmt. Zwar macht es faktisch einen Unterschied, ob 100 oder 200 Euro gewonnen werden, jedoch ist ein Unterschied von 100 Euro bei größeren Geldbeträgen wie z.B. 10.000 und 10.100 Euro von untergeordneter Bedeutung (vgl. 3.1.2.3). Daher erfolgt die Berechnung der Erwartungswerte in der Regel nicht auf Basis der absoluten Geldbeträge, sondern auf Basis des erwarteten Nutzens. Den Erwartungswert des Nutzens erhält man mittels einer Nutzenfunktion, die jedem Geldbetrag einen zugehörigen Nutzenwert zuweist. Da der Nutzwert jeder weiteren Geldeinheit abnimmt, verläuft die Nutzenfunktion konkav.[5]

Nach Kahneman und Tversky liegen der Erwartungsnutzentheorie vier Bedingungen zugrunde, die nachfolgend und in aufsteigender Rangfolge kurz erläutert werden sollen:

Ausblendung unabhängiger Umweltzustände (Cancellation)

Mit der als „Cancellation“ bezeichneten Bedingung ist die Eliminierung bzw. das Ignorieren von Umweltzuständen gemeint, die unabhängig von der Wahl des Entscheidungsträgers keine Auswirkungen auf das Ergebnis einer Entscheidung haben. Falls also beispielsweise Alternative A vor B begünstigt wird, dann sollte dies auch im Falle eines morgigen Regens zutreffen, wenn der Regeneintritt an sich keine Auswirkungen auf das erwartete Ergebnis oder die Eintrittswahrscheinlichkeit der beiden Alternativen hat. Das Ausblenden und Nichtberücksichtigen von Zuständen, die Ergebnisse oder deren Eintrittswahrscheinlichkeiten nicht beeinflussen, ist eine notwendige Voraussetzung zur Darstellung von Präferenzen und Maximierung des Erwartungsnutzens.[6]

Transivität (Transivity)

Eine weitere Voraussetzung ist die sog. Transitivität. Diese gilt sowohl als notwendige als auch hinreichende Bedingung für die Darstellung von Präferenzen durch eine Ordinalskala. Wird der Erwartungsnutzen als u bezeichnet, so wird Alternative A gegenüber B bevorzugt, wenn u(A) > u(B) gilt. Transitivität ist gegeben, wenn es möglich ist, jeder möglichen Alternative einen Wert zuzuordnen, der nicht von den Werten anderer möglicher Alternativen abhängt. Somit wird vorausgesetzt, dass jede Alternative einzeln bewertet werden kann.[7]

Dominanz (Dominance)

Eine Entscheidungsalternative ist dann dominant, wenn sie in einem bestimmten Umweltzustand besser ist als eine andere und gleichzeitig mindestens genauso gut in allen übrigen Umweltzuständen. Die Dominanz einer Entscheidungsalternative stellt für die Erwartungsnutzentheorie eine unumgängliche Voraussetzung dar, die von größerer Bedeutung als die beiden vorgenannten ist. Anders formuliert dient sie als Axiom der normativen Entscheidungstheorie.[8]

Beständigkeit (Invariance)

Eine unerlässliche Bedingung der Erwartungsnutzentheorie ist das Prinzip der Beständigkeit. Damit ist gemeint, dass trotz unterschiedlicher Darstellungen derselben Entscheidungsalternative Präferenzen nicht verzerrt werden dürfen. Eine bestimmte Alternative sollte also unabhängig von ihrer Beschreibung allen anderen vorgezogen werden (vgl. 3.1.1.3).[9]

2.2 Markteffizienzhypothese

Der Begriff der Markteffizienzhypothese wurde erstmals im Jahr 1970 von dem bedeutenden Wirtschaftswissenschaftler Eugene F. Fama geprägt. Sie besagt, dass Kapitalmärkte dann effizient seien, wenn Wertpapierkurse zu jedem Zeitpunkt alle verfügbaren bzw. relevanten Informationen widerspiegeln. Dies bedeutet mit anderen Worten, dass in einem effizienten Kapitalmarkt sämtliche Informationen jederzeit in den Aktienkursen eingepreist sein müssen.[10]

Weiterhin stellte Fama die drei nachfolgenden hinreichenden Bedingungen auf, die für die (Informations-)Effizienz von Kapitalmärkten erfüllt sein müssten: Die erste hinreichende Bedingung für einen effizienten Kapitalmarkt ist, dass beim Wertpapierhandel keine Transaktionskosten auftreten dürfen. Zudem müssen allen Marktteilnehmern sämtliche relevanten Informationen kostenlos und barrierefrei zugänglich sein. Die letzte Bedingung ist, dass sich alle Marktteilnehmer darüber einig sind, welche Auswirkungen aktuelle Informationen auf die gegenwärtigen und zukünftigen Entwicklungen der Aktienkurse haben.[11] Letztere hat zur Folge, dass Informationen von sämtlichen Marktteilnehmern gleich interpretiert werden und dass darauffolgende Wertpapiertransaktionen den Aktienkurs dadurch entweder erhöhen oder vermindern.

Fama betont in diesem Zusammenhang, dass die o.g. Bedingungen für einen effizienten Kapitalmarkt nicht notwendigerweise erfüllt sein müssten. D.h. ein Kapitalmarkt ist nicht allein dadurch ineffizient, falls eine oder mehrere der o.g. Bedingungen nicht erfüllt sind. Ein Markt kann auch dann effizient sein, wenn eine ‚ausreichende Anzahl’ an Investoren Zugang zu allen verfügbaren Informationen haben. Zudem muss eine Uneinigkeit der Marktteilnehmer über die Auswirkungen bestimmter gegebener Informationen nicht zwangsläufig eine Marktineffizienz herbeiführen. Allerdings stellen eine oder mehrere nichterfüllte Bedingungen potentielle Quellen dar, die zu einer Marktineffizienz führen könnten.[12]

Nach Fama ist ein effizienter Markt aber auch dadurch definiert, dass eine große Anzahl an Individuen miteinander konkurrieren, die allesamt rational und gewinn-maximierend handeln (vgl. 2.1).[13]

Man unterscheidet in Bezug auf die Markteffizienz zwischen drei verschiedenen Ausprägungen:

1) Schwache Effizienz:

Die schwache Ausprägung der Markteffizienz unterstellt, dass man durch die Analyse von Kursverläufen aus der Vergangenheit nicht auf zukünftige Aktienkurse schließen kann. Demnach ist es nicht möglich, mithilfe der technischen Aktienanalyse[14] durch systematisches Ausnutzen von Ineffizienzen überdurchschnittliche Renditen zu erzielen. Alle Kursbewegungen erfolgen zufällig (vgl. Random-Walk-Theorie).[15]

2) Mittelstarke Effizienz:

Die mittelstarke Effizienz besagt, dass man weder durch vergangene Kursverläufe noch durch öffentlich verfügbare Informationen zukünftige Aktien-kurse prognostizieren kann. Dadurch ist es weder durch technische noch durch fundamentale Aktienanalyse[16] möglich, längerfristig Überrenditen zu erzielen. Erfolgt beispielsweise die Bekanntgabe einer kursbeeinflussenden Information, wird diese unverzüglich durch entsprechende Transaktionen agierender Marktteilnehmer auf effiziente Weise verarbeitet, so dass der Aktienkurs die neue Information sofort einpreist.[17]

3) Starke Effizienz:

Die starke Markteffizienz setzt voraus, dass alle Informationen in den Aktienkursen eingepreist sind. Damit sind auch solche gemeint, die nicht öffentlich zugänglich sind, sondern nur einer kleinen Randgruppe an Investoren vorliegen. Somit wäre es noch nicht einmal durch Insiderhandel[18] möglich, auf Dauer überdurchschnittliche Renditen zu erzielen.[19]

Effiziente Kapitalmärkte zeichnen sich also dadurch aus, dass Wertpapierkurse jederzeit alle verfügbaren Informationen widerspiegeln. Daraus folgt, dass sich zukünftige Kursverläufe nicht prognostizieren lassen. Darum kann man weder durch technische oder fundamentale Aktienanalyse noch durch Insiderhandel auf Dauer überdurchschnittliche Renditen erzielen. Dementsprechend stellt der Börsenkurs eines Wertpapiers gleichzeitig immer auch seinen intrinsischen bzw. objektiven Wert dar. Eine Über- oder Unterbewertung von Aktien tritt also zu keinem Zeitpunkt auf.

Random-Walk-Theorie

Ein wesentlicher Bestandteil der Theorie effizienter Kapitalmärkte ist die sog. Random-Walk-Theorie. Sie besagt, dass Kursschwankungen zufällig erfolgen und dadurch nicht vorhersehbar sind. Fama unterstreicht diese Theorie mit der Äußerung: „The future path of the price level of a security is no more predictable than the path of a series of cumulated random numbers.“[20]

Im vorangegangenen Abschnitt wurde bereits erläutert, dass nach der Markteffizienz-hypothese in einem Aktienkurs bereits alle (verfügbaren) Informationen aus der Vergangenheit eingepreist sind. Darin ist allerdings auch die Summe der Erwartungen über zukünftige Ereignisse enthalten, wie z.B. erwartete Gewinne.[21] Wird beispiels-weise erwartet, dass der Gewinn eines Unternehmens im Vergleich zum Vorjahr um zehn Prozent ansteigt, passt sich der Aktienkurs bis zum Tag der Veröffentlichung des neuen Geschäftsberichts entsprechend an und preist die Erwartungen über den Gewinnwachstum ein. Fällt das Ergebnis aus wie erwartet, hat dies häufig keinen nennenswerten Einfluss auf den Aktienkurs. Geht der Gewinn hingegen zurück oder schreibt das Unternehmen ggf. einen Verlust, kann dies unmittelbar nach Bekanntgabe erhebliche negative Auswirkungen auf den Kurs haben.

Da von einem effizienten Markt mit rational handelnden Marktteilnehmern ausgegangen wird, sollte der Aktienkurs eines Unternehmens jederzeit um seinen intrinsischen bzw. objektiven Wert herum schwanken. Falls neue relevante Informationen veröffentlicht werden, welche den intrinsischen Wert verändern, passt sich der Aktienkurs mit geringer Zeitverzögerung entsprechend an. Oft ist hierbei zu beobachten, dass der Markt erstmals über- oder unterreagiert und sich anschließend korrigiert (vgl. 3.2.1). Da an Kapitalmärkten grundsätzlich Unsicherheit vorherrscht, kann der intrinsische Wert niemals genau bestimmt werden. Denn aus zunehmender Unsicherheit resultiert ein enormes Potenzial für Meinungsverschiedenheiten unter den Marktteilnehmern bezüglich des intrinsischen Werts einer Aktie: je stärker die Uneinigkeit, desto höher die Diskrepanz zwischen dem Aktienkurs und tatsächlichen intrinsischen Wert. Dennoch sollte diese aufgrund vorherrschender Rationalität nicht zu stark ausgeprägt sein.[22]

Die Random-Walk-Theorie besagt, dass die Schwankungen des Aktienkurses eines Unternehmens um seinen intrinsischen Wert herum rein zufälliger Natur sind, welche nicht systematisch ausgenutzt werden können, um nachhaltig überdurchschnittliche Gewinne zu erzielen. Wäre dies doch möglich und würden intelligente Marktteilnehmer mithilfe dieses Wissens versuchen, die Preisdiskrepanzen systematisch auszunutzen, würde sich mit einer zunehmenden Anzahl intelligenter Investoren dieses Verhalten gegenseitig neutralisieren. Das wiederum hätte zur Folge, dass die Volatilität der Kursschwankungen um den intrinsischen Wert deutlich abnimmt und ein systematisches Ausnutzen der Diskrepanzen erschwert wird. Hierzu trägt auch die Unsicherheit bezüglich des wahren intrinsischen Werts einer Aktie bei. Mit anderen Worten: Selbst wenn die Kursschwankungen um den intrinsischen Wert herum systematisch und nicht zufällig erfolgen, würde ein zunehmend verbreitetes Wissen über diese Tatsache dazu führen, dass ein systematisches Ausnutzen dieser Diskrepanzen erschwert wird. Dies hätte eine deutliche Glättung der Preis-schwankungen zur Folge, was die Annahme verstärkt, dass diese zufällig entstehen.[23]

Falls die Random-Walk-Theorie also gültig ist und Kapitalmärkte effizient sind, spiegeln Aktienkurse zu jedem Zeitpunkt ihren intrinsischen Wert wider. Eine Fundamental-analyse macht nach Fama von daher nur dann Sinn, wenn der Analyst über neue Informationen verfügt, welche noch nicht vollständig im aktuellen Marktpreis enthalten sind.[24]

3 Behavioral Finance

Die Theorie der Behavioral Finance befasst sich mit dem menschlichen Verhalten auf Kapitalmärkten und stellt in diesem Zusammenhang einen verhaltensökonomischen Ansatz dar. In den nachfolgenden Abschnitten sollen einige psychologische Effekte erläutert werden, die das Entscheidungsverhalten von Marktteilnehmern negativ beeinflussen können (vgl. 3.1). Anschließend werden einige Kapitalmarktanomalien beschrieben (vgl. 3.2). Am Ende der jeweiligen Kapitel werden die erste und zweite Forschungsfrage beantwortet (vgl. 1.2).

3.1 Verhaltensanomalien

Die Verhaltensanomalien werden dazu in Informationswahrnehmungs-, Informations-verarbeitungs- und Entscheidungsanomalien untergliedert.

3.1.1 Informationswahrnehmungsanomalien

Die Informationswahrnehmungsanomalien befassen sich unter anderem mit Heuristiken zur Komplexitätsreduzierung, so dass Sachverhalte besser veranschaulicht und Entscheidungen schneller getroffen werden können. Die Anwendung solcher Heuristiken ist auf die erhebliche Menge verfügbarer Informationen zurückzuführen, die vom Menschen nicht gänzlich erfasst und verarbeitet werden kann. Darüber hinaus können die aufgenommenen Informationen durch psychologische Effekte (vgl. 3.1.1.2 und 3.1.1.3) verzerrt werden. Die Informationswahrnehmung stellt die Vorstufe zur Informationsverarbeitung dar.

3.1.1.1 Verfügbarkeitsheuristik

Die Verfügbarkeitsheuristik ist eine Heuristik, bei der Personen die Wahrscheinlichkeit oder Häufigkeit von Ereignissen unbewusst anhand der Verfügbarkeit bestimmter Informationen bewerten. Auf diese Weise können systematische Verzerrungen entstehen, da leicht zugängliche und oft auftretende Informationen überbewertet werden könnten.[25]

Wenn Individuen mit der schwierigen Aufgabe konfrontiert werden, Wahrscheinlichkeiten abzuschätzen, neigen sie häufig dazu, ihre Beurteilung durch verschiedene Heuristiken zu vereinfachen. So tendieren Menschen oftmals dazu, Wahrscheinlichkeiten anhand der Verfügbarkeit bestimmter Informationen zu bewerten. Das liegt mitunter daran, dass sich assoziative Zusammenhänge durch ständige Wiederholung im Gehirn festigen. Treten bestimmte Ereignisse also häufiger auf als andere bzw. werden bestimmte Informationen häufiger oder in einer gewissen Regelmäßigkeit veröffentlicht, kann sich der Mensch leichter daran erinnern und misst ihnen oftmals eine höhere Bedeutung zu. Insb. wenn zwei Ereignisse parallel eintreten, bspw. wenn das eine Ereignis das andere bedingt, wird eine assoziative Verknüpfung verfestigt. Zum Beispiel könnte jemand, der innerhalb seiner Bekanntschaft viele Scheidungen miterlebt hat, einer bestimmten Gemeinde eine zu hohe Scheidungsrate beimessen. Die Ausprägung von Assoziationen ist also der Ausgangspunkt für die Beurteilung von Wahrscheinlichkeiten bzw. Häufigkeiten. Folglich kann die Verfügbarkeitsheuristik durch die fehlerhafte Einschätzung von Wahrscheinlichkeiten zu systematischen Verzerrungen führen.[26]

Diese Aspekte werden besonders durch die Ergebnisse eines Experiment deutlich, das Tversky und Kahneman im Rahmen ihrer Forschungen an der Verfügbarkeits- sowie der eng verwandten Repräsentativitätsheuristik durchgeführt haben. In diesem Experiment wurde die Abrufbarkeit bestimmter Informationen getestet, indem zwei verschiedenen Versuchsgruppen im ersten Schritt jeweils zwei Audiobänder vorgespielt wurden, welche eine Liste von einigen Frauen- und Männernamen enthielten. Die eine Liste beinhaltete 39 Namen von 19 berühmten Frauen und 20 weniger berühmten Männern. Die andere Liste enthielt dagegen 19 Namen berühmter Männer und 20 Namen weniger berühmter Frauen. Anschließend wurden die Teilnehmer der ersten Gruppe gebeten, so viele Namen von den jeweiligen Listen aufzuschreiben wie möglich. Dagegen sollten die Probanden der zweiten Gruppe schätzen, ob die jeweilige Liste mehr Frauen- oder mehr Männernamen enthielt. Da die Versuchsteilnehmer zu Beginn des Experiments nicht wussten, welche Frage ihnen anschließend gestellt würde, konnten sie sich unmöglich die Anzahl der einzelnen Frauen- und Männernamen merken. Um dennoch eine Antwort geben zu können, orientierten sich die Teilnehmer deshalb an den Namen, an die sie sich leichter erinnern konnten. Diese gehörten überwiegend den berühmten Personen aus den beiden Listen. Durchschnittlich konnten die 86 Versuchsteilnehmer aus der ersten Gruppe 12,3 Namen der 19 berühmten Personen wiedergeben. Daneben konnten sie sich nur an 8,4 Namen der 20 weniger berühmten Personen erinnern. Somit zählten 57 der 86 Probanden aus der ersten Gruppe (66,2 Prozent) mehr Namen berühmter als weniger berühmter Personen auf. Dagegen nannten nur 13 der 86 Teilnehmer (15,1 Prozent) mehr Namen von weniger berühmten als von berühmten Personen. Aus der zweiten Gruppe sagten 80 der 99 Versuchsteilnehmer (80,8 Prozent) fälschlicherweise, dass die Liste mit 19 Namen von berühmten Frauen und 20 Namen von weniger berühmten Männern mehr Frauennamen enthalte und dass die Liste mit 19 Namen von berühmten Männern und 20 Namen von berühmten Frauen über mehr Männernamen verfüge.[27]

Das vorhergehend beschriebene Experiment zeigt deutlich, dass Menschen dazu neigen können, Wahrscheinlichkeiten bzw. (in diesem Fall) Häufigkeiten nach der Verfügbarkeit von bestimmten Informationen zu ermessen. Hier handelt es sich um die Namen berühmter Personen, die aufgrund ihrer Bekanntheit aus dem Kurzzeitgedächtnis leichter abrufbar waren als die Namen weniger berühmter Personen. Die Leichtigkeit, mit der jemandem bestimmte Aspekte bewusst werden, hat auf die Beurteilung von Wahrscheinlichkeiten bzw. Häufigkeiten und auf den späteren Entscheidungsprozess also einen erheblichen Einfluss.[28]

Ein wesentlicher Grund für das Auftreten der Verfügbarkeitsheuristik an Kapitalmärkten ist auf den Druck zurückzuführen, innerhalb von kürzester Zeit eine richtige Investitionsentscheidung zu treffen. Dies erscheint unmöglich, würde man sämtliche relevanten Informationen in den Entscheidungsprozess einfließen lassen, da eine Analyse mit anschließender Interpretation zu viel Zeit erfordern würde. Daher sucht man nach Zusammenhängen zwischen Kursentwicklungen und bestimmten Informationen, wie z.B. Unternehmenskennzahlen, Kursverläufen, etc., mithilfe derer man auf die anschließende Kursentwicklung hätte schließen können. Dadurch vereinfacht man den Entscheidungsprozess wesentlich und reduziert ihn auf einen Bruchteil verfügbarer Informationen, um die Komplexität zu verringern (vgl. hierzu 3.1.2.1). Dies hat zur Folge, dass nur diejenigen Informationen aufgenommen werden, die im jeweiligen Urteilsprozess von Bedeutung sind.[29]

Nicht nur die begrenzte Aufnahme von Informationen kann Einfluss auf das Entscheidungsverhalten von Menschen nehmen, sondern auch wesentliche Eigenschaften eines Ereignisses, die als repräsentativ für eine Umweltentwicklung angesehen werden. Diese Heuristik ist eng verwandt mit der hier beschriebenen Verfügbarkeitsheuristik und wird unter 3.1.3.7 genauer näher erläutert.

3.1.1.2 Selektive Wahrnehmung

Im vorangegangenen Abschnitt wurde bereits gezeigt, dass Menschen häufig dazu tendieren, nur eine begrenzte und ausgewählte Menge an Informationen aufzunehmen, um eine Entscheidung in komplexen (wirtschaftlichen) Situationen zu vereinfachen. Dies ist nicht nur auf die Unfähigkeit des Menschen zurückzuführen, die gänzliche Fülle an verfügbaren Informationen aufnehmen und verarbeiten zu können. Daneben neigen Menschen ebenso dazu, unterbewusst nur Informationen wahrzunehmen, die zur eigenen Einstellung und Erwartungshaltung passen bzw. solche auszublenden, die nicht dazu passen. Dieses Phänomen wird auch als „Selektive Wahrnehmung“ bezeichnet.[30]

Geht ein Analyst beispielsweise von steigenden Kursen aus, so wird er in den Nachrichten gezielt nach positiven Informationen suchen, die seine Erwartung unterstützen. Falls er hingegen von fallenden Kursen ausgeht, wird er negativen Nachrichten eine höhere Bedeutung beimessen.[31]

3.1.1.3 Framing-Effekt

Neben der Verfügbarkeitsheuristik und der selektiven Wahrnehmung gibt es auch weitere psychologische Effekte, die das menschliche Entscheidungsverhalten verzerren können. Beispielsweise können auch unterschiedliche Formulierungen einer Information oder Botschaft Einfluss auf unser Entscheidungsverhalten nehmen, obwohl sie inhaltlich das gleiche wiedergeben. Dieser psychologische Effekt ist allgemein bekannt als der sog. Framing-Effekt und soll in diesem Abschnitt näher erläutert werden.[32]

Der Prozess der Informationsaufnahme beinhaltet eine vorläufige Analyse des jeweiligen Entscheidungsproblems, bei der die unterschiedlichen Handlungs-alternativen, Eventualitäten und möglichen Folgen bzw. Ergebnisse aus subjektiver Sicht in einen bestimmten ‚Rahmen’ (Frame) gerückt werden. Diese Einrahmung wird durch Normen, Gewohnheiten und Erwartungen des Entscheidungsträgers sowie durch die Art und Weise beeinflusst, wie ein Entscheidungsproblem dargestellt wird. Anschließend erfolgt die Informationsverarbeitung, Bewertung und Entscheidung. Anomalien während der Informationsverarbeitung und Entscheidung werden unter 3.1.2 und 3.1.3 erläutert.[33]

Das nachfolgend beschriebene Experiment aus dem medizinischen Bereich macht deutlich, wie stark die Auswirkungen des Framing-Effekts sein können: Den Befragten wurden statistische Daten über das Ergebnis zwei verschiedener Behandlungs-methoden von Lungenkrebs vorgelegt. Dieselbe Statistik wurde zwei unterschiedlichen Versuchsgruppen auf zwei verschiedene Weisen präsentiert: Der einen Gruppe wurden die Daten hinsichtlich der Sterblichkeits- vorgelegt, während die andere anhand auf der Überlebensrate entscheiden sollte. Anschließend sollten die Probanden ihre bevorzugte Behandlungsmethode nennen. Die Daten wurden den Versuchsteilnehmern wie folgt unterbreitet:[34]

1) Gruppe 1:

a. Operation:

Von 100 Patienten, die sich für die Operation entschieden, überlebten 90 den postoperativen Zeitraum. 68 Patienten waren nach einem Jahr und 34 nach fünf Jahren noch am Leben.

b. Bestrahlungstherapie:

Von 100 Patienten, die sich für die Bestrahlungstherapie entschieden, überlebten alle (100) den Eingriff. 77 Patienten waren nach einem Jahr und 22 nach fünf Jahren noch am Leben.

2) Gruppe 2:

a. Operation:

Von 100 Patienten, die sich für die Operation entschieden, starben 10 während des Eingriffs oder postoperativen Zeitraums. 32 Patienten starben innerhalb eines Jahres und 66 innerhalb von fünf Jahren.

b. Bestrahlungstherapie:

Von 100 Patienten, die sich für die Bestrahlungstherapie entschieden, starb keiner während des Eingriffs. 23 Patienten starben innerhalb eines Jahres und 78 innerhalb von fünf Jahren.[35]

Der eigentlich unbedeutende Unterschied zwischen den beiden unterschiedlichen Formulierungen hatte enorme Auswirkungen auf die Wahl der Behandlungsmethode bei den befragten Versuchsteilnehmern: Von der ersten Gruppe, bei der die Überlebenschancen der beiden Behandlungen beleuchtet wurden, bevorzugten nur 18 Prozent der 247 Befragten die Bestrahlungstherapie gegenüber der Operation. Dagegen waren es in der zweiten Gruppe 44 Prozent der 336 Befragten. Somit ist der Anteil derjenigen, die eine Bestrahlung bevorzugten in der zweiten Gruppe mehr als doppelt so hoch wie in der ersten Gruppe. Der Grund dafür ist, dass eine Reduktion des Sterberisikos von zehn auf null Prozent attraktiver erscheint als eine Erhöhung der Überlebenschancen von 90 auf 100 Prozent.[36]

Das unter 3.1.2.3 beschriebene Experiment, das Kahneman und Tversky im Zuge ihrer Forschungen zur Verlustaversion und Prospect Theory durchgeführt haben, liefert einen weiteren empirischen Beweis für die Existenz des Framing-Effekts. Zudem gewährt es einen tieferen Einblick in die Auswirkungen dieses Effekts in einer wirtschaftlichen Entscheidungssituation. Das Ergebnis des Experiments zeigt, wie sehr die unterschiedliche Darstellung und/oder Formulierung von Entscheidungsalternativen mit demselben Ergebnis auf das menschliche Entscheidungsverhalten Einfluss nehmen kann. Vor allem die unterschiedliche Wahrnehmung von Gewinn und Verlust hat hierauf einen erheblichen Einfluss. Auf die Folgen dessen wird unter 3.1.3.3 genauer Bezug genommen.

Während der Bildung einer Spekulationsblase können Medien durch die Art und Weise der Formulierung ihrer Nachrichten deren Entwicklung erheblich fördern. Angetrieben durch grenzenlose Euphorie investieren Marktteilnehmer immer mehr Geld in die Aktienmärkte, weshalb die Kurse immer weiter steigen. Diese Kurssteigerungen werden von den Medien bemerkt und nach außen kommuniziert, woraufhin noch mehr Geld in die Kapitalmärkte strömt und dadurch weitere Kurssteigerungen verursacht werden. Dieses Wechselspiel kann sich solange wiederholen, bis kein weiteres Geld mehr investiert werden kann[37] und die Spekulationsblase daraufhin platzt. Das Konzept der Spekulationsblase wird unter 3.2.2 detailliert erläutert.

3.1.2 Informationsverarbeitungsanomalien

In den nachfolgenden Abschnitten sollen psychologische Effekte erläutert werden, die die Informationsverarbeitung von Marktteilnehmern maßgeblich verzerren können.

3.1.2.1 Vereinfachung von Sachverhalten

Um die Komplexität in Entscheidungssituationen zu verringern, neigen Menschen bei der Informationsverarbeitung häufig dazu, Sachverhalte zu vereinfachen. Somit werden durch das Anwenden von Heuristiken bestimmte Informationen vernachlässigt, wenn sie einem bedeutungslos erscheinen.[38]

Dies kann sich beispielsweise dadurch äußern, dass Wahrscheinlichkeitsangaben auf runde Beträge auf- oder abgerundet werden, um einen Sachverhalt leichter verständlich zu machen und kognitiv verarbeiten zu können. Dadurch können Ver-zerrungen entstehen, die einer rationalen Entscheidung entgegenstehen.[39]

Am Kapitalmarkt neigen Menschen häufig dazu, nur einen Bruchteil der verfügbaren Informationen zur Entscheidungsfindung heranzuziehen, da die gesamte Fülle an vorhandenen Informationen nicht auf die Schnelle verarbeitet werden kann (vgl. 3.1.1.1).

3.1.2.2 Anchoring

Menschen neigen dazu, sich bei Schätzungen an einem jeweiligen Ausgangswert (Anker) zu orientieren. Dieser Ausgangswert oder -punkt kann durch die Art der Formulierung einer bestimmten Information (vgl. 3.1.1.3) oder durch das Ergebnis einer Teilrechnung suggeriert werden. Aus unterschiedlichen Ausgangswerten ergeben sich folglich unterschiedliche Schätzwerte, die in der Regel in Richtung des Ausgangs-wertes verzerrt sind.[40] Problematisch bei dieser Heuristik ist vor allem, dass eine Anpassung des Schätzwertes unter Beachtung weiterer Informationen nicht zu Ende geführt wird, um möglichst schnell[41] zu einer Entscheidung zu gelangen.[42] Dieser Effekt ist allgemein bekannt als Ankerheuristik bzw. Anchoring.

Tversky und Kahneman führten hierzu eine Reihe von Experimenten durch. In einem dieser Versuche wurden die teilnehmenden Probanden gebeten, den Prozentanteil der afrikanischen Länder zu schätzen, die Mitglieder der Vereinten Nationen sind, nachdem unmittelbar zuvor durch das Drehen eines Glücksrads eine zufällige Zahl zwischen null und 100 bestimmt wurde. Das Ergebnis des Experiments zeigte, dass die durch das Glücksrad bestimmte Zahl einen erheblichen Einfluss auf die Schätzungen der Probanden hatte, obwohl zwischen dieser und dem wahren Anteil afrikanischer Länder in den Vereinten Nationen kein Zusammenhang besteht. Diejenigen, die zehn erhielten, schätzten den Anteil der afrikanischen Länder in den Vereinten Nationen durchschnittlich auf 25 Prozent, wohingegen diejenigen, die 65 erhielten, den Anteil auf durchschnittlich 45 Prozent schätzten.[43]

Ein weiteres Beispiel für die Auswirkungen des Ankereffekts ist unter 3.1.3.7 nachzulesen. Hier hat das Ergebnis einer unvollständigen Berechnung für eine verzerrte Schätzung verantwortlich. Da die Probanden in diesem Versuch zu wenig Zeit hatten, um eine vollständige Rechnung durchzuführen, lösten sie nur die ersten Schritte und extrapolierten[44] anschließend das Teilergebnis.

An den Kapitalmärkten können beispielsweise bestimmte Kursniveaus von Wert-papieren einen Ankereffekt auf Anleger haben. Hierzu nachfolgend ein reales Beispiel:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: RWE Chart (historisch)

Quelle: www.finanzen.net/chart/RWE

Im März 2003 erreichte die RWE-Aktie ihren bis dahin historischen Tiefpunkt bei einem Kursniveau von etwa 20 Euro pro Aktie. Daraufhin legte der Aktienkurs für die nächsten Jahre stetig zu, bis Ende des Jahres 2007 ein Hochpunkt bei fast 100 Euro pro Aktie markiert wurde. Seitdem befindet sich die Aktie in einem Abwärtstrend, der abgesehen von ein paar Korrekturen bis heute anhält. In dem Kursverlauf ist auffällig, dass der Aktienkurs bei bestimmten Kursniveaus immer wieder nahezu abprallte bzw. die Richtung änderte. Beispielsweise kann man Im September 2011 und Juli 2013 erkennen, dass der Kurs ein Niveau von knapp über 20 Euro pro Aktie nicht unterschritt und daraufhin bis knapp über 35 bzw. 30 Euro pro Aktie nach oben korrigierte. Das Kurstief aus dem Jahr 2003 bei ca. 20 Euro pro Aktie scheint also bei einer großen Anzahl an Marktteilnehmern einen Anker gesetzt zu haben. Das kann man daran erkennen, dass der Kurs immer wieder nach oben drehte, sobald der Tiefpunkt von 20 Euro näher rückte. Dieses niedrige Kursniveau ließ die RWE-Aktie günstig erscheinen, so dass ein hohes Maß an Nachfrage generiert wurde. Darauf folgten Kurserholungen von über 50 Prozent. Aber obwohl das bis dahin historische Kurstief der RWE-Aktie bei 20 Euro liegt, muss das keinesfalls bedeuten, dass dies auch ein fairer oder günstiger Preis ist. Da das Unternehmen momentan aufgrund des Atomausstiegs mit strukturellen Problemen zu kämpfen hat, hat der Kurs im Juli 2015 einen neuen historischen Tiefpunkt bei knapp unter 10 Euro pro Aktie markiert. Somit ist der Aktienkurs vom ehemaligen historischen Tiefpunkt abermals um 50 Prozent gesunken. Dieses praxisnahe und aktuelle Beispiel veranschaulicht deutlich, welche Auswirkungen der Ankereffekt am Kapitalmarkt haben kann. Der historische Kursverlauf der RWE-Aktie ist Abbildung 1 zu entnehmen. Ein Anker muss nicht gezwungenermaßen auf einem numerischen Wert basieren, sondern kann auch in Form von Meinungen oder Einstellungen auftreten.[45]

3.1.2.3 Verlustaversion

Verlustaversion bezeichnet das Phänomen, dass Menschen dazu neigen, Verluste stärker wahrzunehmen als Gewinne. Demnach „ärgert [man] sich [...] über einen Verlust von 100 Euro mehr als man sich über den Gewinn von 100 Euro freut.“[46] Anhand der nachfolgenden Wertfunktion lässt sich der wahrgenommene subjektive Wert einer Aktie beschreiben (vgl. Abbildung 2).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Verlustaversion und Referenzpunkteffekt

Quelle: Kahneman / Knetsch / Thaler (1991), S. 200.

Die Wertfunktion verläuft konkav für x ≥ 0 und konvex für x < 0, wobei ein positiver x-Wert für einen Gewinn und ein negativer x-Wert für einen Verlust steht. Somit strebt der Graph für x → ∞ gegen einen bestimmten positiven Wert und für x → -∞ gegen einen bestimmten negativen Wert. Anhand des Verlaufs des Graphen lässt sich feststellen, dass der subjektiv empfundene zusätzliche Wert einer Aktie für jeden weiteren Gewinn in Euro abnimmt. Dies ist an der abnehmenden Steigung des Graphen für höhere x-Werte[47] zu erkennen. Analog verhält es im Verlustbereich. Empirische Untersuchungen zeigen, dass das Verhältnis der Steigungen der Funktion im Gewinn- und Verlustbereich bei etwa 2:1 liegt.[48] Dies bedeutet im Sachzusammenhang, dass Verluste etwa doppelt so stark empfunden werden wie Gewinne. Im Verlauf des Graphen lässt sich des weiteren ein Wendepunkt im Ursprung des Koordinatensystems erkennen. Dieser ist anhand der höchsten Steigung im gesamten Funktionsverlauf identifizierbar und deutet darauf hin, dass ein Anleger den ersten Kursgewinnen bzw. -verlusten den größten positiven bzw. negativen subjektiv empfundenen Wert beimisst. Der Ursprung wird als Referenz- oder Bezugspunkt[49] (siehe unten) bezeichnet und stellt in diesem Kontext den Einstandskurs eines Wertpapiers dar.[50]

Angenommen ein Anleger kauft ein Wertpapier zu einem Kurs von 100 Euro. Anschließend steigt der Kurs nach vier Wochen auf 110 Euro. Weitere vier Wochen später steht die Aktie bei 120 Euro. Hierbei wird die anfängliche Kurssteigerung von 10 Euro als intensiver wahrgenommen als die spätere (siehe unten). In einem anderen Szenario sinkt die Aktie stattdessen vier Wochen nach Kauf auf 90 Euro. In diesem Fall würde der Verlust von zehn Euro mehr emotionalen Schmerz verursachen als der Gewinn von 10 Euro aus dem ersten Szenario Freude bereitet hätte.

Gerät eine Aktie in die Verlustzone, verursacht jeder weiterer Kursverlust zunehmend weniger Schmerzen, weshalb Anleger in der Folge eine Verlustposition häufig zu lange halten (vgl. 3.1.3.3).

Einen empirischen Beweis für die Verlustaversion findet man in den Publikationen von Kahneman und Tversky über die Prospect Theory: In zwei verschiedenen Experimenten wurden die Versuchskandidaten gebeten, zwischen jeweils zwei verschiedenen Alternativen zu wählen. Im ersten Experiment bekamen die Teilnehmer 1.000 GE und konnten sich nun entscheiden entweder 500 GE mit einer Wahrscheinlichkeit von 100 Prozent oder 1.000 GE mit einer Wahrscheinlichkeit von 50 Prozent zu gewinnen. Im zweiten Experiment bekamen die Teilnehmer 2.000 GE und konnten nun zwischen -500 GE mit einer Wahrscheinlichkeit von 100 Prozent und -1.000 GE mit einer Wahrscheinlichkeit von 50 Prozent wählen (vgl. Tabelle 2):[51]

[...]


[1] Diese werden später für die Beantwortung der ersten Forschungsfrage noch von enormer Bedeutung sein.

[2] Vgl. Springer Gabler Verlag (o.J.), Homo oeconomicus.

[3] Vgl. Springer Gabler Verlag (o.J.), Entscheidungstheorie.

[4] Vgl. Springer Gabler Verlag (o.J.), Entscheidungstheorie.

[5] Vgl. Goldberg / Nitzsch (2000), S. 40 ff.

[6] Vgl. Kahneman / Tversky (1986), S. 252.

[7] Vgl. Kahneman / Tversky (1986), S. 253.

[8] Vgl. Kahneman / Tversky (1986), S. 253.

[9] Vgl. Kahneman / Tversky (1986), S. 253.

[10] Vgl. Fama (1970), S. 383.

[11] Vgl. Fama (1970), S. 387.

[12] Vgl. Fama (1970), S. 387 f.

[13] Vgl. Fama (1965), S. 56.

[14] Springer Gabler Verlag (o.J.), Technische Aktienanalyse: „Im Gegensatz zur fundamentalen Aktienanalyse stützt sich die technische Aktienanalyse auf die Beobachtung der Kurs- und Umsatzbewegungen der Aktien und nicht auf Daten aus dem gesamtwirtschaftlichen oder unternehmerischen Umfeld. Die traditionelle technische Aktienanalyse arbeitet mit Charts, deren Kursverläufe zu Schlüssen auf das weitere Verhalten der Marktteilnehmer genutzt werden.“

[15] Vgl. Fama (1970), S. 389 ff.

[16] Springer Gabler Verlag (o.J.), Fundamentale Aktienanalyse: „Methode der Aktienanalyse, die auf ausschließlich unternehmensbezogene Kurs-Einflussgrößen bezogen ist. Ausgangspunkt bildet die These, dass der Börsenkurs in Schwingungen um den inneren bzw. objektiven Wert einer Unternehmung pendelt.“

[17] Vgl. Fama (1970), S. 404 ff.

[18] Springer Gabler Verlag (o.J.), Insiderinformation: „Konkrete Information über nicht öffentlich bekannte Umstände, die sich auf den oder die Emittenten von Insiderpapieren oder auf diese selbst beziehen und die geeignet sind, im Falle ihres öffentlichen Bekanntwerdens den Börsen- oder Marktpreis der Insiderpapiere erheblich zu beeinflussen.“, vgl. hierzu auch §13 WpHG

[19] Vgl. Fama (1970), S. 409 ff.

[20] Fama (1965), S. 56.

[21] Vgl. Fama (1965), S. 56.

[22] Vgl. Fama (1965), S. 56.

[23] Vgl. Fama (1965), S. 56.

[24] Vgl. Fama (1965), S. 59.

[25] Vgl. Tversky / Kahneman, S. 207.

[26] Vgl. Tversky / Kahneman, S. 207 ff.

[27] Vgl. Tversky / Kahneman, S. 220 f.

[28] Vgl. Tversky / Kahneman, S. 221.

[29] Vgl. Goldberg / Nitzsch (2000), S. 56 ff.

[30] Vgl. Goldberg / Nitzsch (2000), S. 59.

[31] Vgl. Goldberg / Nitzsch (2000), S. 61.

[32] Vgl. Goldberg / Nitzsch (2000), S. 90.

[33] Vgl. Kahneman / Tversky (1986), S. 257.

[34] Vgl. Kahneman / Tversky (1986), S. 254 und McNeil / Pauker / Sox / Tversky (1982).

[35] Vgl. Kahneman / Tversky (1986), S. 254 f. und McNeil / Pauker / Sox / Tversky (1982).

[36] Vgl. Kahneman / Tversky (1986), S. 255. und McNeil / Pauker / Sox / Tversky (1982).

[37] Bedingt durch Zinspolitik.

[38] Vgl. Goldberg / Nitzsch (2000), S. 52.

[39] Vgl. Goldberg / Nitzsch (2000), S. 52 f.

[40] Vgl. Tversky / Kahneman (1974), S. 1128.

[41] Anchoring bezeichnet eine Heuristik zur schnellen Urteilsfindung. Vgl. Goldberg / Nitzsch (2000), S. 66.

[42] Vgl. Goldberg / Nitzsch (2000), S. 66 f.

[43] Vgl. Tversky / Kahneman (1974), S. 1128.

[44] Springer Gabler Verlag (o.J), Extrapolation: „in der Zeitreihenanalyse die Fortführung empirisch beobachteter Reihen in die Zukunft aufgrund von Regelmäßigkeiten, die aus den Vergangenheitswerten ermittelt wurden (Trend).“

[45] Vgl. Goldberg / Nitzsch (2000), S. 70.

[46] Vgl. Goldberg / Nitzsch (2000), S. 130.

[47] Dieser Aspekt wird auch als abnehmende Sensitivität bezeichnet. Vgl. Goldberg / Nitzsch (2000), S. 87.

[48] Vgl. Kahneman / Knetsch / Thaler (1991), S. 199.

[49] Kahneman / Tversky (1979), S. 277: „When we respond to attributes such as brightness, loudness, or temperature, the past and present context of experience defines an adaption level, or reference point, and stimuli are perceived in relation to this reference point.“

[50] Vgl. Kahneman / Tversky (1979), S. 277 ff.

[51] Vgl. Kahneman / Tversky (1979), S. 273.

Details

Seiten
108
Jahr
2016
ISBN (eBook)
9783668393608
ISBN (Buch)
9783668393615
Dateigröße
2.1 MB
Sprache
Deutsch
Katalognummer
v350730
Institution / Hochschule
Rheinische Fachhochschule Köln
Note
1,3
Schlagworte
Behavioral Finance Kapitalmarktumfeld Kapitalmarkttheorie Wirtschaftspsychologie Homo Oeconomicus Mental Accounting

Autor

Teilen

Zurück

Titel: Kapitalmarkttheorie in der Kritik. Bedeutung der Behavioral Finance im heutigen Kapitalmarktumfeld